1

Energiewende Hauptakteur Graichen gesteht: Wir haben uns geirrt!

Der Artikel titelt mit „Schmutziger Irrtum”: “Wir haben uns geirrt bei der Energiewende“, um dann weiter in Auslegung der Äußerungen von Patrick Graichen [1] – wenn auch nur indirekt und nach Frank Drieschners Erinnerung oder Einschätzung [2] daraus zu folgern:

Graichen sagt kurz gefasst: Nicht in ein paar Details, sondern in einem zentralen Punkt. Die vielen Windräder und Solaranlagen, die Deutschland baut, leisten nicht das, was wir uns von ihnen versprochen haben. Wir hatten gehofft, dass sie die schmutzigen Kohlekraftwerke ersetzen würden, die schlimmste Quelle von Treibhausgasen. Doch das tun sie nicht…

Abb. 1 Entwicklung der der EE-Stromerzeugung in TWh vs strombedingter Erzeugung von CO2 Emissionen in (Mio t) in Deutschland von 2000 bis 2013 (Grafik Limburg EIKE, Daten siehe Grafik)

und weiter schreibt Drieschner…

Um den Irrtum zu verstehen, muss man sich noch einmal den Grundgedanken der Energiewende vor Augen führen. Der ging ungefähr so: Deutschland steigt aus der Nuklearenergie aus und setzt stattdessen auf er­neuerbare Energien, auf Sonne und Wind vor allem. Wenn es mal nicht genug Ökostrom gibt, dann springen Emissionsarme Gaskraftwerke ein, bis irgendwann auch diese überflüssig werden. Der böse Atomstrom verschwindet zuerst, als Nächstes der schmutzige Kohlestrom, die Luft wird sauberer, und Deutschland wird zum Vorbild und Vorreiter beim Klimaschutz.

So haben sich das alle gedacht. Nur leider wird daraus nichts. Das ist der Irrtum, den Patrick Graichen beklagt.

………...»Im Nachhinein ist das alles logisch«, sagt Graichen. »Trotzdem hat hier vor drei, vier Jahren keiner diese Logik so durchschaut. «

Nur zur Erinnerung, es ist derselbe Graichen dessen AGORA Institut noch im September des Jahres in einer Studie die seltsame aber „wissenschaftliche“ Logik verkündete, dass… „der Ausbau der „Erneuerbaren“ auf Stromspeicher nicht warten muss“ [3].

…und weiter unten schreibt Drieschner dann…

…Die Energiewende würde nicht funktionieren: Wer es wissen wollte, der konnte es wissen, auch damals schon. Aber wer wollte es wissen? Rund um die Erneuerbaren ist in den vergangenen Jahren ein regelrechter politisch-industrieller Komplex herangewachsen. Sein Einfluss ist wahrscheinlich nur dem Geflecht zwischen Staat und Atomwirtschaft im vergangenen Jahrhundert vergleichbar. Alle Akteure in diesem Komplex verbindet ein Interesse: Probleme der Energiewende müssen lösbar erscheinen, damit die Wind- und Sonnenbranche weiter subventioniert werden.”

Diese Erkenntnisse sind aber weder neu, noch wurden sie geheim gehalten, noch hätte sie den Akteuren unbekannt bleiben dürfen. Denn nicht nur bei EIKE wurden sie seit Jahren öffentlich thematisiert, sondern auch durch  Legionen von Fachleuten, die sich auf allen öffentlichen Foren und Kanälen dazu äußerten. Deswegen kann man sie getrost als typisch frechen Akt eines im Politikbetrieb erfahrenen Akteurs und Nutznießers einordnen: nämlich dann, wenn man ertappt wurde, nur das zuzugeben, was sich vor aller Welt auf keinen Fall mehr leugnen lässt und es Folge höherer Gewalt darzustellen. So auch Graichen, aber nicht nur der.

Abb. 2: "Klimawirkung" der in D hypothetisch eingesparten CO2 Emissionen bis 2050 lt. Klimaplanung der Regierung auf den ebenso hypothetischen modellierten Temperaturanstieg nach IPCC Vorgaben (Klimasensitivität von ~3,5 °C). Der simulierte Anstieg würde um 0,004 K geringer ausfallen. Die CO2 Wirkung ist dabei mit nicht vorhandener Rückkoppelpung angenommen, die das IPCC aber voraussetzt. Diese Berechnung setzt auch voraus, dass der gesamte Zuwachs an Konzentration  1. anthropogen ist 2. der deutsche Anteil daran 2,5 % beträgt. Anders ausgedrückt: Was Deutschland bis 2050 im Laufe von rd. 35 Jahren einsparen will, kompensieren die BRIC-Länder (insbesondere dabei China) in weniger als einem Jahr (Quelle http://wattsupwiththat.com/2012/11/23/a-graphical-look-at-worldwide-co2-numbers/)

Denn gerade in der ZEIT, der Hauspostille für beamtenrechtlich gut versorgte Lehrer, Träger von Bio-Sandalen sowie für anderweitige, staatsnahe grüne Profiteure von der harten Arbeit anderer Leute, war die Forderung nach mehr „Klimaschutz“ und mehr „Erneuerbare“ wider alle Fakten das tägliche Brot und wurde mit grün-ideologischer Inbrunst unter die Leute gebracht. Sachkenntnis hingegen über die technisch/naturwissenschaftlichen Grundlagen der Energiewende und deren Hauptbegründung (dem angeblich anthropogen verursachten Klimawandel) waren nicht nur  Fremdwörter sondern Unwörter.  Die Belege für diese fragwürdige Berichterstattung sind im ZEIT Archiv aufzufinden, stellvertretend insbesondere die Verleumdungskampagnen gegen EIKE (hier, hier) – unsere Kommentierung dieser für eine hochwertige Zeitung peinlichen Machwerke (hier).

Deshalb weiß DIE ZEIT zwar auch jetzt nur, dass etwas mächtig schief läuft, aber vielleicht dämmert es ihr wenigstens, dass auch ihre eigene Berichterstattung dazu kräftig beitrug.

Was aber ist da schiefgelaufen? Am guten Willen aller Propagandisten und Profiteure der Energiewende lag es wohl kaum, denn wer von ihr profitiert – und das sind nicht wenige – hatte diesen Willen. Auch ideologische Defizite können es nicht gewesen sein, schließlich kam eine Frau Claudia Kemfert häufig und ausführlich in der ZEIT zu Wort: als höchst gehandelte „Expertin“ der Energiewende, von der sich viele Leute inzwischen freilich fragen, wie diese Dame zu ihrer Professur gelangte. Nein, guter Wille zur Weltrettung und Vorbildfunktion Deutschlands in Energiewende und Klimaschutz waren vorhanden, das war es sicher nicht. Es waren noch nicht einmal politische Management-Fehler. Politiker können nämlich bekanntermaßen noch ganz anderen Unsinn zusammenmanagen, ohne dass gleich eine Katastrophe eintritt.

Nein, es waren ganz einfach das Ausblenden oder gar das komplette Fehlen elementarer Kenntnisse der Grundlagen und Regeln von Technik, Naturwissenschaft und elementarer Kostenrechnung, die zum sich inzwischen deutlich abzeichnenden Energiewende-Desaster führten. Es hat sich in der Politik und in fast allen deutschen Medien (welcher Redakteur hat schon einen naturwissenschaftlich/technischen Ausbildungshintergrund) immer noch nicht ausreichend herumgesprochen, dass man zwar fast straflos alle wirtschaftlichen und finanztechnischen Regeln über Bord werfen darf und sich an gegebene Zusagen nicht zu halten braucht (Soli, Maastricht-Vertrag etc.), sich dagegen das gleiche Vorgehen in technischen Umsetzungen unvermeidbar und brutal rächt. Wasser kocht auf Meereshöhe eben bei 100 °C, es denkt gar nicht daran bei 60 °C zu kochen, bloß weil es irgendwelche unkundigen Politiker und die diese Leuten unterstützenden Journalisten und Redakteure so wünschen.

Die Stichworte "zu geringe Leistungsdichte" der grünen Energieträger (Sonne und Wind) und "Volatilität des grünen Stromangebots" (letzteres auch noch zufällig), müssten eigentlich schon ausreichen. EIKE hat über diese beiden Themen in bereits kaum noch zählbaren Artikeln sachlich korrekt und zutreffend berichtet. Insbesondere DIE ZEIT, aber auch alle anderen deutschen Medien geruhten, noch nie davon Notiz zu nehmen. Diese ideologische Arroganz holt sie nun ein. Aus den beiden Grundnachteilen folgt keineswegs, dass die Energiewende nicht prinzipiell machbar wäre (Frau Barbara Handricks benötigt zu dieser Erkenntnis keinen Nobelpreis, s. hier). Sie ist aber nicht mit auch nur ansatzweise vertretbaren Kosten machbar. Ferner geht es mit Windrädern, deren Höhe heute schon das Ulmer Münster überschreiten, ohne massive Naturschädigung nicht ab. Und die Vermaisung unserer Äcker schädigt dann noch einmal unsere Natur. So verbohrt kann eigentlich niemand sein, dies zu übersehen. Anscheinend aber doch, denn anders ist die bisherige Entwicklung der Energiewende nicht zu erklären. Doch halt, wir haben die Profiteure der Energiewende und von Klimaschutz übersehen. Wenn wir ihren Druck auf die Politik mit ins Kalkül ziehen, hellt sich das Erscheinungsbild etwas auf.

Folgerichtig und erwartungsgemäß musste mit Fortschreiten der Energiewende und seiner gesetzlichen Basis (EEG) die Vernichtung der deutschen Stromerzeuger einhergehen. Diese können unter den Voraussetzungen des EEG nicht überleben. Die betroffenen Vorstände und Aufsichtsräte haben viel zu spät die volle Wucht der kommenden Entwicklung erkannt und es in der Vergangenheit vorgezogen, sich der Politik mit Öko-Observanz anzudienen. Solche Fehleinschätzungen sind aus der deutschen Vergangenheit zwar bestens bekannt, aber aus tödlichen Fehlern kann man hierzulande anscheinend nicht lernen. Insofern sollte sich das Mitleid mit den betroffenen Unternehmensführungen, nicht aber mit den unschuldigen Mitarbeitern, die ihren Arbeitsplatz verlieren, in Grenzen halten

Nachdem nun E.ON aufgegeben und der Politik den Bettel vor die Füße geworfen hat, braucht man kein Hellseher zu sein, um vorherzusagen, dass weitere Versorger folgen werden. Und es werden (hoffentlich) auch endlich die Gewerkschaften begreifen, was hier abläuft und auf die Straßen gehen. Die Gewerkschaften scheinen nach Einschätzung der beiden Autoren dieses Beitrags die einzig verbleibende Kraft zu sein, die es vermögen, die Politik endlich zur Raison zu bringen. Doch auch da scheint bisher der reine Opportunismus zu dominieren, denn anders ist nicht zu erklären, warum VERDI nur die Überführung der Versorger in Staatsbesitz fordert, statt den vollen Ausstieg aus der Energiewende. Denn damit würde die Katastrophe nur verschleiert, ihre Kosten auf den Steuerzahler direkt verlagert und die Agonie durch eine völlig ungeeignete Krücke, beschönigend „Kapazitätsmarkt“ genannt, nur verlängert.

Die Kosten einer so total verqueren Politik, verantwortet von einer Naturwissenschaftlerin, die es wissen müsste, werden wir alle unter keinen mehr zu behebenden Umständen tragen müssen. Zudem wird, wenn sich bald nichts Grundlegendes ändert, unsere industrielle Basis untergehen. "Kleinigkeiten" wie das Scheitern der South-Stream Pipeline geraten beim Mega-Desaster "Energiewende" fast schon aus dem Blickfeld. Noch törichter ist wohl das sture Festhalten der Kanzlerin am tödlich kostspieligen Klimaschutz. Die Tatsache, dass selbst NULL-Emissionen von deutschem CO2 durch wenige Wochen CO2-Emissionen der BRIC-Länder (China, Indien, Brasilien) kompensiert werden, sollte einer rechnenden Physikerin eigentlich geläufig sein.

Es ist infolgedessen unerfindlich, was unsere Kanzlerin zu diesen Fehleinschätzungen treibt. Trotz der massiven Schädigung unserer Industriestruktur infolge ihrer Politik ist sie immer noch die beliebteste Politikerin – laut Umfragen. Sie nimmt billigend den Exodus der deutschen Grundstoffindustrie und den Verlust deutscher Arbeitsplätze in Kauf. Ist einmal die Grundstoffindustrie weg, wird es auch mit dem Maschinenbau und der Autoindustrie bergab gehen. Auch hier haben wir freilich wieder etwas übersehen – einen Machterhaltungswillen, der anscheinend vor nichts zurückschreckt. Damit ist das Erscheinungsbild nicht mehr ganz so unverständlich.  

Braunkohle ist der einzige fossile Energielieferant über den Deutschland in großen Mengen und zu günstigen Preisen abbaubar, verfügt. Es ist ein Schatz auf dem wir sitzen. Und wir werden die klassischen fossilen Braunkohlekraftwerke weiterhin dringend brauchen, da wir ja die weltweit sichersten Kerkraftwerke wegen zu hoher "Gefährlichkeit" in den Mülleimer warfen und dabei Hunderte von Milliarden Euro einfach so in Luft auflösten. Die für die Stabilität der Stromnetze zutreffend als "Gift" zu bezeichnende Fluktuation der "Erneuerbaren" wird nach wie vor auch Gaskraftwerke erfordern, deren Kosten aber nun der Steuerzahler übernehmen muss. Letztlich läuft dies alles auf eine unvermeidbare Verstaatlichung der Stromerzeugung hinaus, deren Kosten ins Unermessliche ansteigen werden (siehe Beispiel DDR).

Die einzigen sachgerechte Optionen, nämlich das EEG samt Energiewende in die Tonne zu treten, sowie die Restlaufzeiten unserer sicheren Kernkraftwerke wieder zu nutzen und die Forschung von modernen Kernkraftwerken (schnelle Brüter) wieder aufzunehmen, wagt derzeit keine politische Partei auch nur zu denken. Noch nicht einmal die FDP oder die AfD, und doch ist diese Option für das wirtschaftliche Wohlergehen und die Naturschonung unseres (noch) schönen Deutschlands die einzig sachlich richtige. Jedes Jahr sterben auf Deutschlands Straßen mehr als 3000 Menschen, durch vermeidbare Bakterienverseuchung und schlechte Hygiene in unseren Krankenhäusern mehr als 30.000, so die Schätzungen. Seit Nutzung der Kernenergie kam hierzulande noch niemand ums Leben. Und weltweit sind es weniger als 150, Tschernobyl eingeschlossen (hier). Warum schalten wir dann die Kernkraftwerke ab und geben nicht besser den Straßenverkehr oder die Krankenhäuser auf?

Mit der “Energiewende“ und dem noch unsinnigeren “Klimaschutz“ werden ohne Sachverstand und mit deutscher Gründlichkeit nur unsere Wirtschaft, unsere Landschaften und unsere Natur ruiniert. Vorteile gibt es keine. Der Laie kann dies infolge unserer Medien, die sich fast alle zu freiwilliger Selbstgleichschaltung mit dem Klima- und Energiewendewahn entschlossen haben, nur schwer durchschauen; zumindest solange nicht, ehe Windräder vor seinem Haus, ein längerer Black-Out oder seine Stromrechnung ihm die Augen öffnen. Dann wird es zu spät sein. Freilich sollte wenigstens jeder nicht ganz auf den Kopf gefallene Naturschützer erkennen, dass Windturbinen für Flugtiere tödlich sind. Zumindest die Natur- und Tierschützer unter uns müssten daher die moralische Verpflichtung verspüren laut zu protestieren. 

Nach historisch bekanntem Muster sieht die Mehrheit der deutschen Bevölkerung nicht nur zu, sondern begrüßt die schädliche Entwicklung auch noch. Infolgedessen werden nicht einmal mehr politische Mehrheiten benötig. Freiwillig und vorauseilend öffnen Behörden und Bürgermeisterämter ihre Türen der Ökobewegung. Man will nicht bei den Letzten sein und vom Subventionskuchen möglichst viel abbekommen. Und man möchte natürlich wiedergewählt werden. Der Konformitätsdruck ist inzwischen so groß, dass sich eine ehemals wertkonservative große Volks- und Regierungsparteien das Zerstörungswerk ihrer schärfsten politischen Gegner zu Eigen machen. Der ursprünglich als emotionales Zugpferd eingesetzte Natur- und Umweltschutz ist für die Ökoideologie längst lästig und überflüssig geworden. Die Zerstörungen unserer Wälder, um Platz für riesige Windradungetüme zu schaffen, zeigen es. Man hat den Umweltschutz sang- und klanglos aufgegeben. 

Die deutsche Intelligenz in Medienredaktionen, Hochschulen und Führungsetagen von Unternehmen, die diese Entwicklungen, die entstehenden Ökostrukturen und deren mafiose Seilschaften nicht billigt, schweigt, duckt sich weg und versucht sogar zu profitieren. Man fürchtet, gegen die übermächtige Ökobewegung keine Chancen zu haben. Man erkennt, wie die Ökobewegung sich die Unterstützung der Mehrheit der deutschen Medien und der Politik gesichert hat. Zum wiederholten Male in der deutschen Geschichte verweigert sich die deutsche Intelligenz dem entschiedenen Widerstand gegen Entwicklungen, deren Unheilspotential nicht zu übersehen ist. Die Gründe für das Gewährenlassen von Bewegungen mit undemokratischen Zielen waren und sind hierzulande immer die gleichen: Unterschätzung der Gefahr, Bequemlichkeit, Karriere-, Konsens- und Profitstreben. Zivilcourage ist kein deutsches Wort.


[1] Dr. Patrick Graichen hat Volkswirtschaftslehre und Politikwissenschaft studiert und am Interdisziplinären Institut für Umweltökonomie der Universität Heidelberg über kommunale Energiepolitik promoviert. Von 2001 bis 2012 hat er im Bundesumweltministerium gearbeitet – zunächst im Bereich der internationalen Klimapolitik, von 2004 bis 2006 als Persönlicher Referent des Staatssekretärs und ab 2007 als Referatsleiter für Energie- und Klimapolitik. Quelle hier: http://www.agora-energiewende.de/ueber-uns/team/

[2] Von Herrn Christoph Podewils; Leiter Kommunikation / Director of Communications; Agora Energiewende wurden wir soeben (11.12.14 um 11:49) darauf hingewiesen, dass F. Drieschners Zitat ein indirektes ist, und Herr Graichen das so nicht gesagt hätte. Wir haben Herrn Drieschner angefragt und um Aufklärung gebeten. Er hat das jetzt bestätigt, die Darlegungen unter "Graichen sagt kurz gefasst:" sind F. Drieschners Schlussfolgerungen.

[3] „Stromspeicher in der Energiewende“  Studie von FENES, IAEW, ISEA, ef.Ruhr im Auftrag von Agora Energiewende BERLIN, 15.09.2014




Die Aktuelle Energiepolitik ist für den Standort Deutschland selbstmörderisch

E.ON hat akzeptiert, dass es nach dem Willen der deutschen Bundesregierung und der deutschen Öffentlichkeit keine Zukunft für Kohle und Kernenergie in Deutschland gibt. Das ist zwar selbstmörderisch für den Standort Deutschland und E.ON weiss das auch. Aber entschädigungslose Stilllegungen von Kernkraftwerken und die verlustreiche Marginalisierung von Kohle und Gaskraftwerken zu unwirtschaftlichen Backup-Kraftwerken hat tiefe Spuren in den Bilanzen der Stromkonzerne in Deutschland hinterlassen. E.ON wird sämtliche konventionellen Aktivitäten in eine Tochtergesellschaft auslagern, die zum Verkauf gestellt wird. Die Selbstaufgabe E.ONs ist ein markanter Beweis dafür , dass marktwirtschaftliches Engagement in der Energiewirtschaft in Deutschland politisch nicht gewollt ist. Denn am Ende ist die stille Hoffnung E.ONs, dass sich am Ende ein Käufer mit politischen Garantien der Bundesregierung das Risiko auf sich nimmt, in Deutschland konventionelle Energie zu erzeugen.

Wenn es nicht die Staatskonzerne aus Frankreich oder Russland werden, wird der deutsche Staat selbst die Energieversorgung in die Hand nehmen. Ganz sicher nach einem in den nächsten Jahren zu befürchtenden Brown-out. Der wäre zwar durch die Politik zu verantworten,aber die Reaktion der Politik wäre klar: der Markt hat versagt, daher muss die Energieversorgung in staatliche Hände. Vielleicht haben die Manager von E.ON dieses Szenario kommen sehen und versuchen noch wenigstens einen Teil des Kapitals zu retten.

Im Falle der Aufgabe des Pipeline-Pojekt Southstream geht es ebenso um Versorgungssicherheit. In Anbetracht der geopolitischen Spannungen zieht sich Russland zurück, sicherlich auch weil unter dem Druck der sinkenden Gas-und Ölpreise das Projekt zunehmend unwirtschaftlich wurde. Russland sucht eher sein Heil in China.

Auch hier überrascht die Gelassenheit der deutschen Öffentlichkeit. Gerade hat die Politik die Möglichkeit der eigenen Shale-Gas Förderung weitgehend versperrt, sind wesentliche Teile der politischen Linken dabei, das geplante Handelsabkommen mit den USA , das ja auch Erdgas umfassen würde, zu torpedieren – und Deutschland geht zur Tagesordnung über. Weil die überwiegende Mehrheit glaubt, Wind und Sonne allein wird es schon richten. Ein Blick aus dem Fenster könnte erhellend sein. Während ich dies schreibe, ist die PV Produktion in Deutschland Null – es ist  dunkel – und der Wind säuselt vor sich hin, maximal 5000 MW, schätze ich, insgesamt. Wer macht eigentlich in Zukunft die anderen 50.000 MW, die den ICE, das Stahlwerk, die U-Bahn, die Wasserversorgung und meine Schreibtischlampe und meinen Laptop mit Strom versorgen? E.ON wird es nicht sein, soviel ist sicher.

Der Beitrag erschien zuerst auf "Die kalte Sonne"




Deutschlands Strompreise werden explodieren – Billige Elektrizität war gestern

Dass die Berliner Politik mit diesem Paukenschlag nicht gerechnet hatte, ließ sich bereits am Mienenspiel von Bundeswirtschaftsminister Gabriel ablesen, als er das Ereignis am Montag, den 1.12. vor laufenden Fernsehkameras ungewohnt wortkarg kommentierte. Mit welcher Dramatik die Ereignisse im Hintergrund in Wirklichkeit abgelaufen waren, enthüllt jetzt ein Bericht in der gedruckten Ausgabe des „Spiegel“ vom Montag, dem 8.12. Wörtlich steht dort unter dem Titel „Strommonster frisst Kanzlerin“ zum Ablauf: „Wenn sich ein Industriemanager traut, die Kanzlerin am Wochenende zu stören, womöglich gar auf ihrer Datsche in der Uckermark, dann muss er etwas Wichtiges mitzuteilen haben. Das gilt auch für einen Vorstandschef des größten deutschen Energiekonzerns.

Aber Johann Teyssen von E.on hatte einen guten Grund, als er sich am vorvergangenen Samstag mit Angela Merkel verbinden ließ: In gut 48 Stunden werde er eine mittlere Revolution in der deutschen Energiebranche verkünden, erklärte er der Kanzlerin“ [SPIE]. Unterstrichen wird der Ernst der Situation noch durch Aussagen in der Einleitung des Artikels wie „die Energiewende ist außer Kontrolle“ sowie „die Koalition ist alarmiert. Und ratlos“.

Der Kapazitätsmarkt wird per Handstreich ertrotzt

Damit sieht sich die Regierung mit der unangenehmen Situation konfrontiert, die negativen Folgen ihrer „Energiewende“ früher und in vermutlich erheblich größerem Umfang als geplant selbst ausbaden zu müssen. Man hat die Betreiber konventioneller Kraftwerke in einem Ausmaß ausgeblutet, dass diese jetzt zusammenzubrechen drohen. Im Bundeswirtschaftsministerium sind deshalb bereits jetzt notfallmäßige Planungen angelaufen, wie man einem Bericht in „Spiegel Online“ vom 06.12.2014 unter dem irreführenden Titel „AKW-Rückbau: Regierung besorgt über Atomrückstellungen der Konzerne“ entnehmen kann [SPON]. Dort wird berichtet, dass „die Bundesregierung deutlich schneller als geplant ein neues Modell für den Energiemarkt beschließen“ wolle, „um konventionelle und erneuerbare Stromerzeugung besser zu verzahnen. Schon im März will man sich im Wirtschaftsministerium auf einen Entwurf einigen“. Dem gleichen Bericht zufolge plant das Kanzleramt ein neues Gesetz zum Strommarktdesign, das man bis Sommer 2015 durch den Bundestag bekommen wolle. Der Wirtschaftsminister strebe den Aufbau einer Kraftwerksreserve aus alten „Kohlemeilern“ an. Im Kanzleramt gehe man davon aus, „dass in wenigen Jahren sogar noch eine umfangreichere Unterstützung für Kohle- und Gaskraftwerke nötig ist, die einspringen, wenn Wind- und Solaranlagen nicht genügend Strom liefern. Bezahlen wird das der Stromkunde“. Und der CDU-Fraktionsvize Michael Fuchs wird mit den Worten zitiert: „Wir sollten den Wählern ganz ehrlich sagen, dass weiter steigende Energiekosten auf sie zukommen“.

Es dürfte richtig teuer werden

Damit ist das eingetreten, wovor die Kritiker der Energiewende schon von Anfang an gewarnt hatten: Die ganzen „erneuerbaren“ sind trotz immenser Kosten außerstande, die Sicherheit der Stromversorgung zu gewährleisten. Das können nach wie vor nur die konventionellen Kraftwerke. Wir haben daher die absurde Situation eines doppelten Stromversorgungssystems: Einerseits die zufallsabhängigen Wind- und Solarkraftwerke und andererseits die unverzichtbaren fossilen Kraftwerke. Deren Bedeutung wird in den nächsten Jahren noch zunehmen, wenn die Kernkraftwerke abgeschaltet werden. Dass dies nicht nur Herrn Gabriel, sondern inzwischen anscheinend auch dem Kanzleramt und damit Fr. Merkel klargeworden ist, lässt sich aus der entsprechenden Formulierung in obigem Spiegel-Bericht ableiten.

Im Interessenkonflikt zwischen dem drohenden Zusammenbruch der Stromversorgung und dem Versuch, den Anstieg der Stromkosten zu begrenzen, hat sich die Regierung jetzt offensichtlich dazu entschieden, die konventionellen Kraftwerke zu retten und sich dafür von der „Strompreisbremse“ zu verabschieden. Schließlich hat der deutsche Michel ja auch schon im Bereich der Steuerpolitik eine solche Politik gutgeheißen: Man kann bekanntlich eine „schwarze Null“ auf zwei Arten erreichen: Indem man die Staatsausgaben auf ein vertretbares Maß beschränkt oder indem man die Steuerlast für die Bevölkerung bedenkenlos immer höher schraubt. Unsere Politik hat sich für letzteres entschieden und ist damit beim Wähler durchgekommen. Beim Strom wird man es daher genauso handhaben. Der Kapazitätsmarkt – d.h. die Subventionierung des Standby-Betriebs für fossile Kraftwerke – wird aller Voraussicht nach kommen, und die bereits jetzt zweithöchsten Haushaltsstrompreise in Europa werden eine Rallye nach oben hinlegen. Möglicherweise erleben wir es eher als gedacht, dass eine Kugel Eis nicht mehr kostet als eine Kilowattstunde. Die Einleitung des neuen Spiegel-Berichts lässt jedenfalls nichts Gutes ahnen: „…die Energiewende ist außer Kontrolle. Am Ende könnten die Stromkunden dreimal mit Milliarden Euro zur Kasse gebeten werden“ [SPIE].

Fred F. Mueller

Quellen

[SPON] http://www.spiegel.de/politik/deutschland/atomausstieg-regierung-prueft-atomrueckstellungen-a-1006947.html

[SPIE] https://magazin.spiegel.de/digital/?utm_source=spon&utm_campaign=heftkastenhp#SP/2014/50/130754196 abgerufen am 7.12.2014




Aktualisierte Liste mit 66 Entschuldigungen für den 18 bis 26-jährigen „Stillstand“ der globalen Erwärmung

Bild rechts: RSS-Satellitendaten zeigen den nunmehr über 18 Jahre langen ,Stillstand‘ der globalen Erwärmung

Hier folgt eine aktualisierte Liste mit mindestens 29 32 36 38 39 41 51 52 63 64 65 66 Entschuldigungen für den seit 18 bis 26 Jahren dauernden statistisch signifikanten ,Stillstand‘ der globalen Erwärmung (hier) einschließlich jüngster Studien, Medienzitaten, Blogs und damit zusammenhängende Widerlegungen.

1) Low solar activity 
2) Oceans ate the global warming [debunked] [debunked] [debunked]
3) Chinese coal use [debunked]
4) Montreal Protocol 
5) What ‘pause’? [debunked] [debunked] [debunked] [debunked]
6) Volcanic aerosols [debunked]
7) Stratospheric Water Vapor 
8) Faster Pacific trade winds [debunked]
9) Stadium Waves
10) ‘Coincidence!’
11) Pine aerosols
12) It’s "not so unusual" and "no more than natural variability"
13) "Scientists looking at the wrong ‚lousy‘ data" http://
14) Cold nights getting colder in Northern Hemisphere
15) We forgot to cherry-pick models in tune with natural variability [debunked]
16) Negative phase of Interdecadal Pacific Oscillation
17) AMOC ocean oscillation
18) "Global brightening" has stopped
19) "Ahistorical media"
20) „Dies ist die wärmste Dekade jemals“ Decadal averages used to hide the ‚pause‘ [debunked]
21) Few El Ninos since 1999
22) Temperature variations fall "roughly in the middle of the AR4 model results"
23) "Not scientifically relevant"
24) The wrong type of El Ninos
25) Slower trade winds [debunked]
26) The climate is less sensitive to CO2 than previously thought [see also]
27) PDO and AMO natural cycles und hier
28) ENSO

29) Solar cycle driven ocean temperature variations
30) Warming Atlantic caused cooling Pacific [paper] [debunked by Trenberth & Wunsch]
31) "Experts simply do not know, and bad luck is one reason" 
32) IPCC climate models are too complex, natural variability more important

33) NAO & PDO

34) Solar cycles

35) Scientists forgot "to look at our models and observations and ask questions"
36) The models really do explain the "pause" [debunked] [debunked] [debunked]
37) As soon as the sun, the weather and volcanoes – all natural factors – allow, the world will start warming again. Who knew?
38) Trenberths fehlende Wärme" versteckt sich im Atlantik, nicht im Pazifik, wie Trenberth behauptet hatte [debunked] [Dr. Curry’s take] (Autor: „Jede Woche gibt es eine neue Erklärung für den Stillstand“)
39) ,,Verlangsamung" Folge eines ,,verzögerten Erholungs-Effektes" nach dem Pinatubo-Ausbruch 1991 und dessen Aerosolen sowie einem ausgeprägten solaren Minimum"

40) Die „Verlangsamung“ ist mit einer Wahrscheinlichkeit von 95% „möglicherweise kaum statistisch signifikant“ und „hinsichtlich der öffentlichen Diskussion zum Klimawandel nicht von Bedeutung (hier).

41)Interne Variabilität, weil chinesische Aerosole das Klima sowohl erwärmen als auch. abkühlen können: Der „jüngste Stillstand der globalen Erwärmung ist hauptsächlich verursacht durch die innere Variabiltät des Klimas“, weil „anthropogene Aerosol-Emissionen in Europa und Nordamerika in Richtung China und Indien zwischen 1996 und 2010 das globale Klima überraschend erwärmt und nicht abgekühlt haben“ (hier)

(Vor dieser neuen Studie hatte man gedacht, dass anthropogene Aerosole das Klima kühlen oder dass sie nur minimale Effekte auf das Klima haben, aber wie es jetzt aussieht, machen sie das Klima „überraschend wärmer“).

42) Trenberths ,fehlende Wärme‘ fehlt wirklich und wird nicht „durch die Daten selbst gestützt“ im „realen Ozean“:

„Für mich ist klar, dass eine beschleunigte Erwärmung mancher … Ozeanschichten … robust von den Daten selbst gestützt wird. Solange wir nicht klären können, ob es eine Art beschleunigter Erwärmung in den Tiefen des realen Ozeans gegeben hat, denke ich, dass diese Ergebnisse als interessante Hypothesen angesehen werden können, warum sich die Rate der Erwärmung der Oberfläche verlangsamt hat, aber uns fehlt immer noch eine definitive Antwort hierzu“ (hier) – Josh Willis

43)Ozeanische Variabilität:

„Nach intensiver Arbeit der Gemeinschaft gibt es eine allgemeine Übereinstimmung, dass der Haupttreiber (des Klima-„Stillstands“) die ozeanische Variabilität ist. Das ist ein wirklich eindrucksvoller Prozess“ (hier).
44)Die Daten, die zeigen, dass die fehlende Wärme im Ozean verschwindet, sind robust und nicht robust:

„Ich glaube, dass die Ergebnisse, nach denen die Wärme im Atlantik und den Südlichen Ozeanen verschwindet, möglicherweise ziemlich robust sind. Allerdings möchte ich Josh Willis den Vortritt lassen, der die Daten besser kennt als ich“ – Andrew Dessler (hier). Widerlegt von Josh Willis, von dem Dessler sagt, dass jener „die Daten besser kennt als ich“ (hier). Willis sagt im gleichen Artikel der NYT, dass ihm „nicht klar ist, dass eine beschleunigte Erwärmung mancher … Ozeanschichten … robust von den Daten selbst gestützt wird (hier)
45)Wir haben keine Theorie, die zu allen Daten passt:

„Die ultimative Herausforderung ist es, mit der knauserigen Theorie (des ,Stillstands‘) zu kommen, die zu allen Daten passt (hier) – Andrew Dessler
46)Wir haben nicht genug Daten der natürlichen Klimazyklen über 60 bis 70 Jahre, um festzulegen, ob der „Stillstand“ solchen natürlichen Zyklen geschuldet ist:

„Falls der Zyklus eine Periode von 60 bis 70 Jahren hat, bedeutet das, dass wir einen oder zwei Zyklen mit Beobachtungen haben. Und ich glaube nicht, dass man über 1 bis 2 Zyklen schon viel sagen kann, z. B. die aktuelle Periode der Variabilität, wie regelmäßig er auftritt usw. Man braucht wirklich Dutzende Zyklen um zu bestimmen, wie die zugrunde liegende Variabilität wirklich aussieht. Tatsächlich scheint mir, dass wir nicht einmal wissen, ob es überhaupt ein Zyklus IST“ (hier) – Andrew Dessler.
47)Könnte reine interne (natürliche) Variabilität oder vermehrtes CO2 oder beides sein:

„Dies führt mich zu der wirklichen Frage: Wie viel des Stillstandes ist der reinen natürlichen Variabilität geschuldet und wieviel davon einem Antrieb (durch Aufladen der Atmosphäre mit Kohlenstoff). Diese Studie scheint implizit den Standpunkt zu vertreten, dass es die reine interne Variabilität ist. Ich bin nicht sicher, ob das stimmt, und es könnte zu einer sehr unterschiedlichen Interpretation der Daten und der Schätzung für die Zukunft führen“ (hier) – Andrew Dressler
48)Es ist entweder der Atlantik oder der Pazifik, aber definitiv kein statistischer Zufallstreffer:

„Es ist der Atlantik, nicht der Pazifik, und der Stillstand der Erwärmung … sollte nicht als statistischer Zufall verworfen werden“ (hier) – John Michael Wallace
49) Die anderen Studien mit Entschuldigungen für den „Stillstand“ sind nicht „ordentlich durchgeführte Wissenschaft“ (hier):

„Falls man ordentlich wissenschaftlich gearbeitet hätte, würde die berechnete Unsicherheit diese Hintergrund-Variation berücksichtigen. Aber in keiner dieser Studien – Tung oder Trenberth – ist das der Fall. Diesem natürlichen Verhalten überlagert sind die kleinen und oftmals heiklen Beobachtungssysteme sowohl hinsichtlich Atmosphäre als auch Ozean, wo sich ändernde Orte und Zeitpunkte und Technologien auch zu einer Änderung führen müssten, selbst wenn keine tatsächlich eingetreten ist. Der „Stillstand“ ist wahrcheinlich real – na und? Das große Aufhebens geht hauptsächlich um das normale Verhalten des Klimasystems“ – Carl Wunsch

50)Die uns zur Verfügung stehenden gemessenen Daten sind ungeeignet, aber wir ignorieren Unsicherheiten und veröffentlichen trotzdem:

„Das zentrale Problem der Klimawissenschaft ist die Frage, was man tut oder sagt, wenn die Daten im Vergleich fast aller Standards ungeeignet sind (hier). Falls ich drei Jahre damit zubringe, meine Daten zu analysieren und die einzige vertretbare Folgerung lautet, dass „die Daten zur Beantwortung der Frage ungeeignet sind“ (hier), wie veröffentlicht man das? Wie bekommt man seine Förderung erneuert? Eine allgemeine Antwort lautet, dass man die Berechnung der Unsicherheit verzerrt oder sie insgesamt ignoriert und eine begeisternde Story proklamiert, die die New York Times aufgreifen wird … wie viele solcher Stories sind Jahre später zurückgezogen worden, als genügend geeignete Daten zugänglich wurden?“

51)Falls unsere Modelle in der Zeit zurückreisen könnten, hätten wir den ,Stillstand‘ vorhersagen können – falls wir die Tools der Zukunft damals schon gehabt hätten (hier) – NCAR-Presseerklärung.

Zeitreisen, Zurück-Zur-Zukunft-Modelle widerlegt (hier) – widerlegt – „Stillstand“ ist der naturlichen Variabilität geschuldet.

52) ‚Unusual climate anomaly‘ of unprecedented deceleration of a secular warming trend
53) Competition" with two natural ocean oscillations
54) ‚Global quasi-stationary waves‘ from natural ocean oscillations
55) Reduced warming in North Atlantic subpolar gyre
56) Satellites underestimate cooling from volcanic aerosols
57) Increase in mid- and upper level clouds
58) Colder eastern Pacific and reduced heat loss in other oceans
59) A "zoo of short-term trends"
60)IPCC Synthesis Report excuses for the "pause": volcanoes, solar activity, possible redistribution of heat:

60)Entschuldigungen im IPCC Synthesis Report für den „Stillstand“: Vulkane, Sonnenaktivität, mögliche Umverteilung von Wärme:


Übersetzung des Textinhaltes (link):Box 1.1: Jüngste Temperaturtrends und deren Implikationen

Die beobachtete Verlangsamung des Erwärmungstrends im Zeitraum 1998 bis 2012 im Vergleich zum Zeitraum 1951 bis 2012 ist hauptsächlich einem Trend zu reduziertem Strahlungsantrieb und einem kühlenden Beitrag der natürlichen internen Variabilität geschuldet, was eine mögliche Umverteilung von Wärme innerhalb der Ozeane einschließt (mittleres Vertrauen). Die beobachtete Erwärmungsrate der globalen Temperatur im Zeitraum 1998 bis 2012 beträgt geschätzt ein Drittel oder die Hälfte des Trends von 1951 bis 2012. Selbst mit dieser Reduktion des Erwärmungstrends hat das Klimasystem sehr wahrscheinlich fortgesetzt Wärme akkumuliert, und zwar seit 1998, und der Meeresspiegel ist weiterhin gestiegen.

Der Strahlungsantrieb des Klimasystems ist im ersten Jahrzehnt dieses Jahrhunderts weiterhin gestiegen, ebenso wie der größte Beitragende, das atmosphärische CO2. Allerdings hat der Strahlungsantrieb im Zeitraum 1998 bis 2011 mit einer geringeren Rate zugenommen im Vergleich zu den Zeiträumen 1984 bis 1998 oder 1951 bis 2011; hauptsächlich durch Kühlungseffekte durch Vulkanausbrüche und der Kaltphase des Sonnenzyklus‘ im Zeitraum 2000 bis 2009. Es gibt jedoch geringes Vertrauen bei der Quantifizierung des Antriebs-Trends als Ursache für die Verringerung des Erwärmungstrends.

61) Climate Policies?!

62) "Global warming causes no global warming"
63) Global warming will speed up after a "pause" due to "change of fundamental understanding about how greenhouse warming comes about"

64) Negative phase of the Interdecadal Pacific Oscillation (IPO)
which has allegedly "now stopped. The negative IPO has stopped. This is the same as saying the global warming hiatus has stopped.” -Axel Timmermann  [debunked]
65) Small volcanic eruptions [debunked – SO2 emissions should have increased warming instead]
66) There’s no "pause" if you look at only at the warmest & coldest day of the year

52 Entschuldigungen, mit Ihrer Kohlenstoff-Diät aufzuhören

Zusätzliche, damit zusammenhängende Kommentare von Klimawissenschaftlern über den „Stillstand“:

1)Meine Universität hat die Presseerklärung durcheinander gebracht und nicht zugelassen, dass ich sie von der Behauptung abbringe, meine Studie (hier) zeige, dass der „Stillstand noch weitere ein oder zwei Jahrzehnte andauern würde (hier) – Dessler
2) „Dies (der ,Stillstand‘) ist keine existenzielle Bedrohung der Mainstream-Theorie des Klimas (hier) – Andrew Dressler
3) „In einigen Jahren, wenn wir dies (den ,Stillstand‘) besser verstehen, werden die Skeptiker weitermachen (genauso wie sie Argumente fallen gelassen haben über den Hockeyschläger und über die Aufzeichnungen von Bodenstationen) und weitere Gründe finden, der Klimawissenschaft nicht zu glauben“ (hier) – Andrew Dressler
4) „Falls man angestrengt versucht, die Daten durch die Mangel zu drehen und sehr sorgfältig Rosinenpickerei betreibt, kann man einen Grund für den Stillstand finden (hier)0
5) Michael Asten von der School of Earth Atmosphere and Environment der Monash University sagte, dass während die Meinungen über die Gründe auseinander gehen, die Existenz des Stillstands ,settled‘ sei. „Nur Aktivisten wagen zu behaupten, dass der Stillstand der globalen Temperaur nicht existiert“, sagte Prof. Asten, und eine Runde von Klimawissenschaftlern redete über ,keine Erwärmung‘, von Jimbo bei WUWT und via dem Herald Sun-Blog von Andrew Bolt.

Jimbo on Watts Up With That fasst das Eingeständnis der Klimawissenschaftler hinsichtlich der fehlenden Erwärmung so zusammen:

Dr. Phil Jones – CRU emails – 5th July, 2005 
„Die wissenschaftliche Gemeinschaft würde unmissverständlich an mich herantreten, falls ich sagen würde, dass sich die Welt seit 1998 abgekühlt hat. OK, das ist so, aber es sind nur 7 Jahre mit Daten und es ist nicht statistisch signifikant…“

Dr. Phil Jones – CRU emails – 7th May, 2009

„Unter dem Strich: der ,Nicht-Anstiegs-Trend‘ muss sich noch insgesamt weitere 15 Jahre fortsetzen, bevor wir uns Sorgen machen“.

Dr. Judith L. Lean – Geophysical Research Letters – 15 Aug 2009
„Dieses Fehlen einer insgesamten Erwärmung ist analog dem Zeitraum von 2002 bis 2008, als abnehmende solare Einstrahlung ebenfalls vieles der anthropogenen Erwärmung kompensierte…“

Dr. Kevin Trenberth – CRU emails – 12 Oct. 2009
„Nun, ich habe meine eigene Ansicht darüber, wo zum Teufel die globale Erwärmung geblieben ist… Tatsache ist, dass wir die fehlende Erwärmung im Moment nicht erklären können, und es ist eine Schande, dass wir es nicht können“.

Dr. Mojib Latif – Spiegel – 19th November 2009
„Im Moment jedenfalls macht die Erwärmung eine Pause“ … „Darüber kann es keinen Zweifel geben“.*

Dr. Jochem Marotzke – Spiegel – 19th November 2009
„Man kann nicht bestreiten, dass dies eines der heißesten Themen in der wissenschaftlichen Gemeinschaft ist… Wir wissen einfach nicht, warum diese Stagnation derzeit stattfindet“.*

[*Beide Zitate Rückübersetzungen aus dem Englischen! A. d. Übers.]

Dr. Phil Jones – BBC – 13th February 2010
„Ich bin ein Wissenschaftler, der versucht, die Temperatur zu messen. Falls ich registriert hätte, dass sich das Klima abkühlt, hätte ich es gesagt. Aber das war bis vor Kurzem nicht der Fall – und dann nur in sehr geringem Ausmaß. Der Trend ist ein Erwärmungstrend“.

Dr. Phil Jones – BBC – 13th February 2010 
Frage: „Stimmen Sie zu, dass es von 1995 bis heute keine statistisch signifikante Erwärmung gegeben hat?“

Antwort: „Ja, aber nur so gerade eben“.

Prof. Shaowu Wang et al – Advances in Climate Change Research – 2010
„…Das Jahrzehnt von 1999 bis 2008 ist immer noch das Wärmste der letzten 30 Jahre, obwohl der globale Temperaturtrend nahe Null liegt…“

Dr. Robert K. Kaufmann – PNAS – 2nd June 2011
„… Es blieb unklar, warum die globalen Temperaturen zwischen 1999 und 2008 nicht gestiegen sind…“

Dr. Gerald A. Meehl – Nature Climate Change – 18th September 2011 
„Es gab Jahrzehnte wie z. B. 2000 bis 2009, in denen die global gemessene Temperatur kaum einen Anstieg oder sogar einen leicht negativen Trend zeigte (eine Stillstands-Periode)…“

Met Office Blog – Dave Britton (10:48:21) – 14 October 2012 
„Wir stimmen Mr. Rose zu, dass es bislang im 21. Jahrhundert nur eine sehr geringe Erwärmung gegeben hat (hier). Wie in unserer Antwort erwähnt, sind diese 0,05°C seit 1997 äquivalent zu 0,03°C pro Dekade“.

Dr. James Hansen – NASA GISS – 15 January 2013
„Die 5-jährig gemittelte globale Temperatur ist seit einem Jahrzehnt flach verlaufen, was wir interpretieren als eine Kombination natürlicher Variabilität mit einer Verlangsamung der Wachstumsrate des Klima-Gesamtantriebs“.

Dr. Virginie Guemas – Nature Climate Change – 7 April 2013
„…Trotz einer weiteren nachhaltigen Erzeugung anthropogener Treibhausgase ist die globale mittlere Temperatur auf der Erde von 2000 bis 2010 nicht gestiegen…“

Dr. Hans von Storch – Spiegel – 20 June 2013
„… Die Erwärmung während der letzten 15 Jahre betrug lediglich 0,06°C – ein Wert sehr nahe Null… Falls das so weitergeht, müssen wir in spätestens fünf Jahren einräumen, dass mit unseren Klimamodellen irgendetwas fundamental nicht stimmt…“

[Rückübersetzung aus dem Englischen]
Professor Masahiro Watanabe – Geophysical Research Letters – 28 June 2013
„Die Schwächung von k [?], die man allgemein in den GCMs findet, scheint eine unvermeidliche Reaktion des Klimasystems auf die globale Erwärmung zu sein, was zeigt, dass der Stillstand während der kommenden Jahrzehnte zu Ende gehen wird“.

Professor Rowan Sutton – Independent – 22 July 2013
„Einige Leute nennen es eine Verlangsamung, einige nennen es einen Stillstand. Die globale mittlere Temperatur ist während der letzten 10 bis 15 Jahre nicht signifikant gestiegen“.

Und nein, sie haben das niemals kommen sehen:

Aktualisierung 1: Oh, haben sie etwa vergessen zu erwähnen, dass sich der Planet tatsächlich eine Zeitlang nicht erwärmen wird? Schlecht für sie (hier):

Wissenschaftler waren sich seit Langem bewusst, dass die Klimaänderung nicht mit einer bestimmten Rate stattfindet und auch Zeiten enthalten kann, in denen die Temperatur 1 bis 20 Jahre lang stabil bleibt. Aber sie haben eingeräumt, dies der Öffentlichkeit in der Vergangenheit zu erklären.

Prof. Rowan Sutton, Direktor für Klimaforschung an der University von Reading,sagte: „Innerhalb unseres Fachbereiches haben wir als gegeben angenommen, dass es Variationen bei der Erwärmungsrate geben wird. Dies ist vollständig akzeptiert und keine Überraschung … es wäre korrekt zu sagen, dass wir das nicht breiter vermittelt haben und dass dies möglicherweise ein Fehler war“.

Aktualisierung 2: C3 hat die Liste von Entschuldigungen für den „Stillstand“ von Waynes World aktualisiert (hier):


Weitere Links:
Climate Depot Analysis: ‘There have been at least 10 separate explanations for the standstill in global warming’ – 1) Low Solar Activity; 2) Oceans Ate Warming; 3) Chinese Coal Use; 4) Montreal Protocol; 5) Readjusted past temps to claim ‘pause’ never existed 6) Volcanoes 7) Decline in Water Vapor 8) Pacific trade winds 9) ‘Coincidence’ 10) ‘Stadium Waves’
‘Warming Interrruptus’ – Causes for The Pause
Quotable Global Warming Hiatus Quotes

Link: http://hockeyschtick.blogspot.de/2014/11/updated-list-of-64-excuses-for-18-26.html

Übersetzt und bearbeitet von Chris Frey EIKE




Gefährdung der menschlichen Gesundheit durch Großwindanlagen

Gefährdung der menschlichen Gesundheit durch Großwindanlagen

Schutzpflicht des Staates – Infraschall als pars pro toto – Persönliche Haftung von Stadtratsmitgliedern

Aus dem verfassungsrechtlichen Schutzauftrag aus Art. 2 Abs. 2 Satz 1 des Grundgesetzes ergibt sich für den Staat die Pflicht, "das Leben und die körperliche Unversehrtheit des Einzelnen zu schützen, d.h. vor allem auch vor rechtswidrigen Eingriffen von Seiten anderer zu bewahren" (z.B. Bundesverfassungsgericht, BVerfGE 115, 320/346). Die Verletzung dieser Schutzpflicht kann von allen Grundrechtsträgern geltend gemacht werden, "auch von besonders empfindlichen Personen" (Jarass in Jarass/Pieroth, Grundgesetz-Kommentar, 13. Auflage 2014, Art. 2 GG Rn. 91 f.). Selbst dann also, wenn die These zutrifft, dass nur ein bestimmter Ausschnitt aus der Bevölkerung eine Anfälligkeit für die Gesundheitsgefahren des Infraschalls zeige, führte dies somit nicht zu einer anderen rechtlichen Bewertung: Lässt der Staat (in diesem Sinne umfasst der Begriff auch die Kommunen) es zu, dass Großwindanlagen in einem völlig unzureichenden Abstand von teilweise nur wenigen 100 Metern zu menschlichen Wohnungen errichtet werden, verletzt er seinen staatlichen Schutzauftrag und kann für die gesundheitlichen Folgen haftbar gemacht werden.

Vor diesem Hintergrund birgt es große Gefahren auch für Kommunen und ihre Akteure, wenn diese bei ihrer Planung von sog. "Windkraft-Vorrangflächen" bereitwillig den "Abwägungsvorschlägen" der beauftragten Planungsfirmen folgen, die meist zum – dieser Begriff ist wohl inzwischen angemessen – ökologisch-industriellen Komplex gehören. Diese unseriöse Vorgehensweise bringt nicht nur für die Gebietskörperschaften, sondern vor allem auch für die Stadtratsmitglieder persönlich eine Reihe von schwerwiegenden Haftungsrisiken mit sich, und zwar insbesondere im Hinblick auf die Gesundheitsgefahren für den Menschen.

So sind die Dinge leider – nur ein Beispiel von vielen – auch in Ottweiler abgelaufen, einer altehrwürdigen nassauischen Residenz und preußischen Kreisstadt, in der Marschall Blücher sich in seiner berühmten Ansprache an die Bevölkerung wandte, bevor er Wellington nach Waterloo zu Hilfe eilte, um Napoleon endgültig zu schlagen. Trotz ihrer großen Tradition hat die Stadt Ottweiler heute keinen Verwaltungsjuristen mehr, da zu viele Personalmittel durch Parteigänger ohne besondere Befähigung gebunden sind (leider kein Einzelfall in deutschen Kommunen). Das machte anfällig dafür, den "Abwägungsvorschlägen" der planenden Drittfirma geradezu blind zu folgen und diese uno actu ohne Einzelprüfungen in den Flächennutzungsplan zu übernehmen. Damit übernahm die Stadt auch haftungsträchtige Fehler der Planungsvorschläge, was hier für den praktisch wichtigen Fall der Gesundheitsproblematik von Großwindanlagen in Form des Infraschalls gezeigt werden soll: Bei seiner ersten Offenlage enthielt der Entwurf zur Teiländerung des Flächennutzungsplans noch gar keine Einbeziehung des Infraschalls in die Planabwägung. Bei einer zweiten Offenlage wurde dies nachgeholt, aber äußerst mangelhaft – unter Missachtung der Reichweite der Ermittlungspflichten der planenden Gemeinde.

So heißt es: "Schädliche Umweltwirkungen durch Infraschall, der von Windenergieanlagen ausgeht, konnten bisher durch wissenschaftliche Studien nicht belegt werden." (SR/002/2014 v. 10.4.2014, S. 25 Mitte). Diese Aussage ist schlicht falsch und außerdem wird verkannt, dass die staatliche Schutzpflicht für Leib und Leben des Menschen nicht erst dann einsetzt, wenn eine Gefahr endgültig nachgewiesen ist.

Mit bemerkenswerter Ignoranz wird in der Vorlage postuliert, dass in Siedlungen, die 400m (!) von einer Großwindanlage entfernt sind, deren Infraschall zu keinen erheblichen Belastungen der menschlichen Gesundheit führen könne (SR/002/2014 v. 10.4.2014, S. 25 Mitte). Mit keiner Silbe gewürdigt werden z.B. die wichtigen Erkenntnisse zum Infraschall, die bereits in DIN 45680 zusammengefasst waren: "Bei der Ausbreitung der Schallwellen im Freien bewirken Luft- und Bodenabsorption eine erhebliche Pegelabnahme des hochfrequenten Schalls in großen Entfernungen von der Schallquelle. Geräusche bei tiefen Frequenzen können sich jedoch auch über große Entfernungen kilometerweit nahezu ungehindert ausbreiten. Hindernisse, die klein sind gegenüber der Wellenlänge (entspricht beim Infaschall einer Wellenlänge von 17m und mehr), können Schallwellen nicht wirkungsvoll abschirmen. Je größer die Wellenlänge und je kleiner das Hindernis desto geringer ist dessen abschirmende Wirkung." Die Auswirkungen des Infraschalls reichen daher weit über die nach der TA Lärm für höherfrequenten Schall zu ermittelnden Abstände hinaus. Leicht nachvollziehbar ist dieser Effekt, wenn man von der Musik des Nachbarn nur einen besonders unangenehmen "Beat" aus tiefen Tönen und Bässen hört. Entsprechend heißt es in DIN 45680 zum Infraschall weiter:

Hier bitte auf Wunsch des dav im Originalartikel weiterlesen

Wir danken dem dav für die freundliche Genehmigung des teilweisen Nachdrucks.




ARGO und der ozeanische Wärmegehalt

Abbildung 1 (rechts): Operation ARGO-Bojen: Es gibt etwa 3500 Bojen in den Ozeanen, und insgesamt rund 10.000 Bojen waren während des Zeitraumes der Operation im Einsatz.

In dieser Präsentation gab es viele interessante Dinge. Das erste hat mich total überrascht. Wir hören immer wieder, dass sich die Wärme im Ozean „versteckt“.Was ich aber nicht wusste, den ARGO-Bojen zufolge gab es die gesamte Erwärmung nur in den Südlichen Ozeanen außerhalb der Tropen, während sich sowohl die Tropischen Ozeane als auch diejenigen der Nordhemisphäre tatsächlich abkühlen … man nenne mich darob verwirrt.

Abbildung 2: Änderung des ozeanischen Wärmegehaltes in verschiedenen Zonen. Einheiten sind 10↑22 Joule. Graphik aus der oben verlinkten Präsentation

Was zeigt dies? Ich bin sicher, ich weiß es nicht … aber ich bezweifle sehr stark, dass irgendeines der Klimamodelle diese komische Kombination von Erwärmung und Abkühlung abbildet.

Am interessantesten jedoch fand ich eine Graphik der globalen Änderung des ozeanischen Wärmegehaltes während dieses Zeitraumes. Diese Graphik sieht so aus:

Abbildung 3: Globale Änderung des ozeanischen Wärmegehaltes (OHC) seit der vollständigen Ausbringung der ARGO-Bojen. Daten von der Wasseroberfläche bis in Tiefen von etwa 2000 Metern.

Ich war traurig, darin alles Mögliche gesehen zu haben. Erstens, dies sind die Daten, aus denen die monatlichen Mittelwerte (die „Klimatologie“) entfernt worden sind. Ich bevorzuge die Rohdaten, so dass ich jahreszeitliche Verteilungen betrachten kann. Zweitens, der Präsentation fehlen Fehlerbalken … aber Not kennt kein Gebot. Also benutze ich die mir zur Verfügung stehenden Daten. Diese habe ich digitalisiert, so dass ich sie selbst analysieren konnte.

Als Erstes wollte ich die Daten betrachten, die vertrautere Einheiten aufwiesen. Ich meine, niemand weiß, was 10↑22 Joule in den oberen 2 Kilometern des Ozeans bedeuten. Also habe ich die Daten von Joule in °C konvertiert. Die Konversion geht so: Man braucht 4 Joule, um ein Gramm Meerwasser um 1°C zu erwärmen (oder 4 Megajoule pro Tonne pro Grad). Als weitere Informationen braucht man die Menge des Ozeanwassers über 2000 Metern Tiefe, also 0,65 Milliarden Kubikkilometer, und dass Meerwasser etwa 1,033 Tonnen pro Kubikmeter wiegt.

Abbildung 4: Ozeanvolumen in Abhängigkeit von der Tiefe. Nur wenige Ozeanbecken sind tiefer als 5 km.

Mit diesen Informationen berechnete ich, was die Änderung des Wärmegehaltes hinsichtlich Änderung der Temperatur bedeutet. Hier folgt diese Graphik:

Abbildung 5: Änderung der Wassertemperatur von der Oberfläche bis etwa 2000 Metern Tiefe.

Eine Änderung von zwei Hundertstel Grad pro Dekade … beruhige dich, mein schlagendes Herz! Unglücklicherweise kann ich keinerlei Fehlergrenzen bzgl. des Trends angeben, weil es in der Präsentation keine Fehlerbalken gab.

Hier möchte ich einen Exkurs machen, dessen Zweck gleich erkennbar werden wird. Ich wollte mir die CERES-Daten anschauen, also die von Satelliten gestützten Daten des Strahlungshaushaltes der Erde. Hier folgt die Änderung der „Gesamt-TOA-Strahlung“ Monat für Monat. Die Gesamt-TOA-Strahlung ist die Differenz zwischen einfallender Strahlung an der Obergrenze der Atmosphäre (TOA), die die Erde erreicht (Sonnenlicht) und der Abstrahlung an der TOA, die die Erde verlässt (reflektiertes Sonnenlicht plus thermische Infrarotstrahlung). Abbildung 6 zeigt diese Änderungen:

Abbildung 6: Aufteilung der Gesamt-TOA-Strahlung nach CERES in eine jahreszeitliche und eine verbleibende Komponente [residual component]. Einheiten sind W/m². Die verbleibende Komponente (untere Graphik) zeigt die Rohdaten, wobei die monatlichen Mittelwerte (jahreszeitliche Komponente oder „Klimatologie“; mittlere Graphik) entfernt worden sind.

Nun, dies allein ist eine interessante Graphik. In der Gesamtstrahlung erkennt man die rund 20 W/m² ausmachende jährliche Schwingung der Erde zur Sonne hin und von ihr weg. Im Januar steht die Erde der Sonne am Nächsten, so dass die Erde in dieser Zeit Energie gewinnt, die sie in der anderen Jahreshälfte wieder verliert. Zusätzlich erkennt man die erstaunliche Stabilität des Systems. Entfernen wir erst einmal die monatlichen Mittelwerte, variiert das Gesamt-TOA-Ungleichgewicht nur mit einer Größenordnung von ± einem halben Watt pro Quadratmeter während der bislang 13 Jahre langen Aufzeichnung, ohne jeden statistisch signifikanten Trend … erstaunlich.

Aber ich schweife ab. Grund für diesen Exkurs ist, dass die überschüssige, die Erde erreichende Energie (positive Werte) mit der Spitze im Januar fast vollständig im Ozean gespeichert wird und dann zurück kommt mit einer Ausstrahlungs-Spitze (negative Werte) im Juli. Wir wissen das, weil die Temperatur nicht dem Strahlungs-Ungleichgewicht folgt, und es gibt nirgendwo sonst eine ausreichend große und reaktionsfähige Möglichkeit, diese Menge Energie zu speichern und wieder freizusetzen.

Mit anderen Worten, die Gesamt-TOA-Strahlung ist ein anderer Weg, mit dem wir die monatliche Änderung des ozeanischen Wärmegehaltes messen können. Folglich können wir einen Quercheck mit den OHC-Darstellungen durchführen. Er wäre nicht exakt, weil ein kleiner Teil der Energie sowohl auf dem Festland als auch im Eis gespeichert und wieder freigesetzt wird … aber der Hauptspeicher ist der Ozean. Also werden uns die CERES-Daten der Gesamt-TOA-Strahlung einen maximalen Wert für Änderungen der Ozeanspeicherung liefern, und zwar den Wert, den wir bei der Annahme bekommen, dass die gesamte Energie im Ozean gespeichert wird.

Alles, was wir also tun müssen, ist ein Vergleich der monatlichen Änderung des OHC minus der Klimatologie wie in Abbildung 1, wobei die monatliche Änderung der einfallenden Strahlung minus der Klimatologie die in der unteren Graphik von Abbildung 6 gezeigte ist … außer dass beide in unterschiedlichen Einheiten angegeben werden.

Allerdings bedeutet dies einfach, dass wir die Daten der Gesamt-TOA-Strahlung in Watt pro Quadratmeter konvertieren müssen zu Joule pro Monat. Die Konversion geht so:

1 Watt-Monat/m² (also 1 W/m² angewendet auf einen Monat) =

1 Joule-Monat/ sec-m²* 5,11e+14 m² (Gebiet der Oberfläche) * 365,2425/12 * 24 * 3600 Sekunden/ Monat = 1,35e+21 joules.

Also konvertierte ich die Gesamt-TOA-Strahlung in Joule pro Monat und verglich dies mit den ARGO-Daten des gleichen Phänomens, nämlich der Änderung des ozeanischen Wärmegehaltes in Joule pro Monat. Abbildung 7 zeigt diesen Vergleich:

Abbildung 7: Vergleich der monatlichen OHC-Änderungen gemessen mit CERES-Daten und von den ARGO-Bojen

Nun, das ist ein höchst seltsames Ergebnis. Die ARGO-Daten sagen, dass eine gewaltige, ja überwältigende Menge Energie in die Ozeane geht und wieder herauskommt … aber andererseits sagen die CERES-Daten, dass nur ein vergleichsweise sehr kleiner Teil der Energie in den Ozean hineingeht und wieder herauskommt. Wobei es auch nach CERES eine ziemlich große Menge Energie ist, die aber bei Weitem nicht das Ausmaß der von den ARGO-Bojen gezeigten Menge entspricht.

Wie muss man diesen Widerspruch verstehen? Die wahre Antwort auf diese Frage lautet … ich weiß es nicht. Möglicherweise ist mir ein arithmetischer Fehler unterlaufen, obwohl ich wieder und immer die oben aufgeführten Berechnungen durchgeführt habe. Ich weiß, dass die CERES-Daten die richtige Größenordnung zeigen, weil diese die Schwingung von rund 20 Watt aufgrund des elliptischen Erdorbits zeigen. Und ich weiß, dass meine ARGO-Daten korrekt sind, indem ich Abbildung 7 mit Abbildung 2 vergleiche.

Mein ,Best guess‘ ist, dass die Fehlerbalken der ARGO-Daten viel größer sind als allgemein angenommen. Ich sage dies, weil die CERES-Daten keineswegs akkurat sind. Aber sie sind sehr präzise. Ich sage das auch aufgrund meiner zuvor durchgeführten Analyse der behaupteten Fehler von Levitus et al. in meinem Beitrag „Decimals of Precision”.

In jedem Falle ist es ein höchst eigenartiges Ergebnis. Zumindest erheben sich dadurch Fragen über unsere Fähigkeit, den Wärmegehalt der Ozeane zu messen mit einer von den ARGO-Leuten behaupteten Präzision. Man erinnere sich, sie behaupten, dass sie die monatliche mittlere Temperatur von 0,65 MILLIARDEN Kubikkilometer Meerwasser mit einer Genauigkeit von einem Hundertstel Grad messen können … was mir sehr zweifelhaft vorkommt. Ich habe den Verdacht, dass der wirkliche Fehler in ihren Daten vom Fußboden bis zur Decke reicht.

Aber das sind lediglich meine Gedanken. Andere Vorschläge sind sehr willkommen.

Data and Code: The Argo data (as a .csv file) and R code is online in a small folder called Argo and CERES Folder. The CERES TOA data is here in R format, and the CERES surface data in R format is here. WARNING: The CERES data is 220 Mb, and the CERES surface data is 110 Mb.

Weitere Daten:

Main Argo Data Page

Main CERES Page

List of Argo “gray” floats 

Link: http://wattsupwiththat.com/2014/12/04/argo-and-ocean-heat-content/

Übersetzt von Chris Frey EIKE




Umwelt- & Energiepolitik-„Fehlende Transparenz ist ein gewaltiger politischer Vorteil“

Bild rechts: Gruber

Die Environmental Protection Agency EPA von Barack Obama/Gina McCarthy macht sich genauso ihre fehlende Transparenz und das fehlende wissenschaftliche Hintergrundwissen der meisten Amerikaner zunutze. EPA-Bürokraten und ihre angeheuerten Wissenschaftler, Aktivistengruppen und PR-Fuzzis werden reich und mächtig, weil sie kostspielige, strafende, diktatorische Vorschriften erlassen „zu unser allem Besten“, wobei sie so tun, als seien sie ehrlich und von offenem Geist beseelt.

Der jüngste Vorschriften-Angriff der EPA ist deren „Clean Power Plan“ CPP. Die Agentur behauptet, dass der CPP eine „gefährliche, vom Menschen verursachte Klimaänderung“ kontrollieren oder verhindern wird, indem Kohlendioxid verringert und „auf ermutigende Weise“ vermehrt erneuerbare Energie verwendet wird. In Wirklichkeit, das räumt selbst die EPA ein, gibt es keinerlei Technologie im kommerziellen Maßstab, die CO2 aus den Emissionen von Kraftwerken entfernen kann. Das wirkliche Ziel ist, Kohlekraftwerke zu zwingen, ihren Betrieb signifikant zu reduzieren oder (noch besser) gleich ganz zu schließen.

Die Agentur rechtfertigt dies mit der hinterlistigen Geltendmachung großer gesundheitlicher Vorteile (hier), die sich aus der Eliminierung von Kohle bei der Stromerzeugung ergeben – und täuscht dabei absichtlich über die schädlichen Auswirkungen hinweg, die deren eigene Vorschriften auf die Lebensweise, den Lebensstandard, Gesundheit und Wohlergehen haben. Die Beteuerung der EPA, dass die Reduktion der kohlebezogenen CO2-Emissionen einen wenn auch nur kleinen Unterschied macht, ist genauso unredlich. China, Indien und andere sich rasch entwickelnde Länder müssen weiter Kohle verbrennen, um Strom zu erzeugen und die Menschen aus der Armut zu holen, und CO2 spielt nur eine sehr kleine Rolle (wenn überhaupt eine) beim Klimawandel und bei zerstörerischen Wetterereignissen.

Der neue CPP verstärkt das Diktat der Obama-Administration, das auf den Kohleverbrauch zielt. Begleitende Vorschriften zielen auf Quecksilber, Rußteilchen, Ozon, „[US-]staatenübergreifende“ Luftverschmutzung, Schwefel- und Stickstoffoxide, die zu Dunst in manchen Gegenden beitragen, und Wasserqualität. Ihre echten Vorteile sind minimal bis illusorisch … oder künstlich erzeugt.

Die amerikanische Luft ist sauber, und zwar dank Abscheider und anderer Emissions-Kontrollsysteme, die den weitaus größten Teil der Verschmutzer entfernen. Die verbleibenden Stoffe stellen nur geringe echte Gesundheitsprobleme dar. Um die gewünschten Ergebnisse zu erzielen, sucht sich die EPA nach Art einer Rosinenpickerei oftmals fragwürdige Forschungen heraus, die deren Agenda stützen, und ignoriert alle anderen Studien. Sie rechnet Kosten künstlich niedrig, zahlt Beratern und externen Interessengruppen Millionen Dollar, damit diese die Entscheidungen der EPA unterstützen, und ignoriert die kumulativen Auswirkungen ihrer Vorschriften auf Energiekosten und damit auf Industrie, Arbeitsplätze und Familien.

Jetzt hat zum ersten Mal jemand die Kosten nachgerechnet. Die Ergebnisse sind ernüchternd.

Eine erschöpfende Studie von Energy Venture Analysis Inc. (EVA) berechnet die Gesamtauswirkungen der EPA-Vorschriften auf die Stromindustrie und stellt Zusammenfassung für jeden einzelnen [US-]Staat zur Verfügung (hier) über die Auswirkungen der Vorschriften auf die jeweiligen Bewohner, die Industrie und die normalen Energieverbraucher. Die Studie zeigt, dass die EPA vorschreibt und die Energiemärkte 284 Milliarden Dollar pro Jahr zusätzlich zu Strom- und Erdgaskosten ausgeben müssen, jedenfalls im Vergleich zum Basisjahr 2012.

Die jährlichen Strom- und Gasrechnungen für einen typischen Haushalt werden bis zum Jahr 2020 um 35% oder 680 Dollar steigen und auch danach jedes Jahr weiter steigen, da die EPA-Vorschriften immer schärfer werden. Mittlere Familieneinkommen liegen ohnehin schon um 2000 Dollar niedriger, seit Präsident Obama im Amt ist, und die Strompreise in den Staaten mit der meisten Windenergie sind um satte 14 bis 33% gestiegen – folglich werden diese zusätzlichen Kosten einen schweren zusätzlichen Tribut fordern.

Das produzierende Gewerbe und andere Industriezweige werden sogar noch härter getroffen, wie die Studie zeigt. Deren Kosten für Strom und Gas werden sich zwischen 2012 und 2020 fast verdoppeln, was eine Zunahme um fast 200 Milliarden Dollar pro Jahr während dieser kurzen Zeitspanne bedeutet. Energieintensive Industrien wie die Herstellung von Aluminium, Stahl und chemischer Produkte werden immer schwerer im Wettbewerb auf den Märkten bestehen können, aber alle Industriezweige (und deren Beschäftigte) werden leiden.

Die EVA-Analyse berechnet, dass die industriellen Stromraten in West Virginia um 34%, in Maryland und New York um 59% und in Ohio um satte 74% steigen werden. Man stelle sich einfach vor, eine Fabrik, eine Schule oder ein Krankenhaus zu betreiben – und dabei in den Himmel schießende Kosten berücksichtigen zu müssen, die in das Budget einfließen müssen. Woher soll dieses zusätzliche Geld kommen? Wie viele Arbeiter und Lehrer will man entlassen, und wie viele Patienten abweisen? Kann man überhaupt weiter bestehen?

Der CPP wird auch Versorgungsunternehmen zwingen, Milliarden auszugeben für den Bau neuer Generatoren (meistens mit Gas befeuert, plus Windturbinen) und neue Überlandleitungen, Gasrohre und andere Infrastruktur. Aber die EPA hat diese Kosten nicht in ihren Berechnungen, ebenso wie sie nicht die vielen Jahre in Betracht zieht, die es dauern wird, diese Systeme zu entwerfen, genehmigen zu lassen, zu konstruieren, zu finanzieren und zu bauen – und darüber hinaus noch Gerichtsprozesse gegen Big Green abzuwettern (hier).

Und auf welcher „wissenschaftlichen Grundlage“ stehen die EPA-Vorschriften wirklich? Ihre Quecksilber-Vorschrift basiert auf von Computern erzeugten Risiken für hypothetische amerikanische Frauen, die jedes Jahr 296 Pfund Fisch essen, die sie selbst fangen, eine Behauptung, die eine theoretische Reduktion des IQ in Tests um unmessbare „0,00209 Punkte“ verhindern soll, und ähnliche Absurditäten. Ihr PM2.5 Russ-Standard ist äquivalent mit ca. 28 Gramm [one ounce] Superfeinstaub, der sich gleichmäßig in einer Luftsäule verteilt, die eine halbe Meile lang, eine halbe Meile breit [jeweils ca. 500 Meter] und ein Stockwerk hoch reicht.

Da ist es kein Wunder, dass die EPA ihrem „unabhängigen“ Clean Air Scientific Advisory Committee $181 Millionen und der American Lung Association 25 Millionen seit dem Jahr 2000 gezahlt hat, um die heimlichtuerische, verlogene „Wissenschaft“ der EPA abzusegnen.

Das ländliche Amerika wird wirklich am härtesten von den Anti-Kohle-Vorschriften der EPA gebeutelt. Nichtkommerzielle Stromkooperativen versorgen 42 Millionen Menschen in 47 Staaten in drei Vierteln der Landfläche der Nation. Ihnen gehören und sie betreiben 42% aller Strom-Fernleitungen in den USA und sind stark von Kohle abhängig. Sie haben schon jetzt zahllose Milliarden investiert, um mit Kohle betriebene Generatoren umzurüsten mit modernsten Emissions-Kontrollsystemen, die dadurch nur noch sehr wenige wirkliche Verschmutzer emittieren (CO2 düngt Pflanzen; das ist kein Verschmutzer).

Die EPA-Vorschriften bzgl. Luft und Wasser werden diese Kohleeinheiten zwingen, ihre Stromerzeugung drastisch zu drosseln oder sie gleich ganz aus dem Verkehr zu ziehen, lange vor Ende ihrer Lebenszeit – und bevor Ersatz zur Verfügung steht und neue Fernleitungen gezogen werden können. Stromraten in diesen ländlichen Gebieten sind schon jetzt höher als in urbanen Gebieten, werden aber noch sehr viel mehr steigen. Experten warnen, dass diese vorzeitigen Schließungen die „Reserve-Lasten“ in einigen Gebieten auf nahe Null bringen werden, was große Teile des Stromnetzes instabil macht und ein hohes Risiko um sich greifender Stromausfälle mit sich bringt, vor allem im Texas Panhandle [ein Blick in den Atlas zeigt sofort, welches Gebiet gemeint ist, A. d. Übers.], dem westliche Kansas und dem nördlichen Arkansas.

Die Vorschriften werden folglich die Kooperativen zwingen, gegen den Rural Electrification Act [etwa: Gesetz zur Elektrifizierung auf dem Land] und 16 andere Gesetze zu verstoßen, die zuverlässigen und bezahlbaren Strom für diese abgelegenen Gemeinden verlangen. Die EPA-Aktionen bringen auch ländliche Krankenhäuser in Gefahr, von denen schon jetzt viele schließen mussten. Einem Bericht in der Zeitung USA Today zufolge bedeutet dies, dass einigen der ärmsten und am meisten kranken Patienten der Nation der Zugang verwehrt wird – und die Menschen erleiden Schlaganfälle und Herzattacken, und Unfallopfer können nicht mehr die Notfallversorgung erreichen, was wiederum bedeutet, dass viele von ihnen sterben oder ernsthaft und permanent behindert werden.

Die EPA hat sich niemals die Mühe gemacht, irgendeinen dieser Faktoren in Betracht zu ziehen. Das gilt auch für die Habitate, die Umweltauswirkungen auf Vögel, Fledermäuse und anderes Getier, von denen weitere Windturbinen Tausende töten werden; die Gesundheitsgefahren für die Menschen (hier), die die Windturbinen nachgewiesenermaßen auf die daneben liegenden Bewohner haben; oder die hohen Stromkosten, die notorische Unzuverlässigkeit (hier), zunehmende Instabilität des Stromnetzes im Zusammenhang mit Wind- und Solarinstallationen. Hier scheint die EPA zu glauben, dass man damit die kohlebasierte Stromerzeugung, die eliminiert wird, rasch und wie von Zauberhand ersetzen kann

Der Kongress, der Gesetzgeber und die Generalstaatsanwälte, Gouverneure und Gerichtshöfe müssen diese heimlichtuerischen, heuchlerischen und diktatorischen Aktionen der Exekutive stoppen. Der Wissenschaftsdirektor Jay Lehr vom Heartland Institute half einst dabei, ein Panel zur Etablierung der EPA ins Leben zu rufen. In einer überzeugenden Analyse sagte er jetzt, dass es an der Zeit sei, die staatliche EPA systematisch zu zerlegen und sie durch ein „Komitee des Ganzen“ zu ersetzen, das aus den 50 EPAs der US-Staaten gebildet werden sollte.

Die neue Organisation würde einen wesentlich besseren Job machen, unsere Luft- und Wasserqualität zu schützen, unsere Lebensdauer, unseren Lebensstandard, unsere Gesundheit und unseren Wohlstand. Sie wird dem „Wir sind das Volk“ besser zuhören – und weniger den Öko-Interessengruppen.

Link: http://wattsupwiththat.com/2014/11/29/the-gruberization-of-environmental-policies/

Übersetzt von Chris Frey EIKE




Kleine Eiszeit – immer und überall nur kalt?

Bild rechts: Wetterlage vom 15.1.1987 als Beispiel einer typischen Blockierung. Man erkennt die von Osten nach Deutschland wehende kontinentale Kaltluft mit Temperaturwerten zwischen -15°C und unter -20°C. Man erkennt auch, wie schnell diese Luftmasse sich beim Überströmen der Nordsee erwärmt und in UK beispielsweise mit Temperaturwerten ankommt, die die Themse bestimmt nicht zufrieren lassen. Aber wir befinden uns ja auch (noch?) nicht in einer Kleinen Eiszeit. Ebenso ist die milde Westströmung südlich der Polarfront über Südskandinavien erkennbar. Die Temperatur liegt dort durchweg über dem Gefrierpunkt. Im Januar 1988 hat eine solche Wetterlage sogar am Nordural über eine Woche lang leichtes Tauwetter gebracht. Bildquelle: © Berliner Wetterkarte e. V.

Wie sich die Kleine Eiszeit in der Statistik abbildet, zeigt eine Graphik von J. Kowatsch:

 

Der o. g. Satz lautet: „Während die Moore im kontinentalen Nordwesteuropa nasser wurden, wurden sie in Feuerland (Südamerika) trockener“. Mir geht es hier um die Aussage, dass die „Moore im kontinentalen Nordwesteuropa nasser“ wurden. Gemeint ist natürlich Nordskandinavien und der nordwestliche Zipfel Russlands.

Ganz unabhängig von dieser Studie habe ich schon lange darüber nachgedacht, welche aktuellen Wetterlagen während der Kleinen Eiszeit (nennen wir sie ab hier mal LIA) die große Kälte in Mittel- und Westeuropa gebracht haben könnten. Die Kälte muss von Norden oder/und Osten gekommen sein, denn auch zu den kältesten Eiszeit-Zeiten gab es im Ostatlantik nur offenes Wasser. Von dort KANN keine Kälte kommen, selbst wenn die Wassertemperatur – sagen wir mal – um 5 K niedriger gelegen hätte.

Es muss also stabile Ostwindwetterlagen gegeben haben. Diese setzen aber unabdingbar eine große blockierende Antizyklone über Nordeuropa voraus, am besten noch mit einem Keil bis nach Island. Der polare Jetstream wird – zumindest heutzutage – dabei aufgespalten in einen Zweig, der über das nördlichen Nordeuropa hinweg verläuft und über Russland nach Südosten und Süden umbiegt. Der andere Zweig ist zum Mittelmeer gerichtet. Heutzutage kommt eine solche Wetterlage zwar auch immer wieder vor, doch muss es eine solche während der LIA wiederholt, lang anhaltend und sehr ausgeprägt gegeben haben. Die nach Norden abgelenkten Tiefdruckgebiete haben dann in Nordskandinavien für deutlich erhöhte Niederschlagsmengen gesorgt, was durch die Erwähnung der „nasseren Moore“ bestätigt wird.

Die grundsätzliche Frage lautet hier also:

Warum gab es während der Kleinen Eiszeit immer wieder und offenbar lang anhaltend große blockierende Hochdruckgebiete über Nordeuropa?

Es wird wohl nicht in jedem Winter der Fall gewesen sein. Und auch durchweg sehr milde Winter wird es vermutlich gegeben haben, nur eben viel seltener als heute. Oder anders: Bei andauernden West- und Südwestlagen hätte man in Mitteleuropa von der LIA vermutlich gar nichts bemerkt. Es muss also während der LIA zu großen Anomalien der allgemeinen Zirkulation gekommen sein, vermutlich auf beiden Hemisphären, was ja auch in der Studie vermutet wird. Wobei Anomalien natürlich immer mit Bezug auf heute zu sehen ist. Die heutigen häufigen Westwindwetterlagen mit ihren wiederholt milden Wintern wären vielleicht während der LIA die Anomalie gewesen. Wie auch immer, dieser Ansatz birgt Unsicherheiten, was mir zeigt, dass die genauen Wetterbläufe während Eiszeiten allgemein immer noch nicht verstanden sind. Einige dieser Unsicherheiten möchte ich hier ansprechen.

Interessanterweise sagen ja die Alarmisten seit Neuestem, dass die seit der Jahrtausendwende wieder kälteren Winter bei uns der globalen Erwärmung geschuldet seien, weil diese das Zirkulationsmuster verändere. Abgesehen davon, dass diese Erklärung erst aus der Not heraus nach mehreren sehr kalten Wintern nachgeschoben wurde, kann man aus dieser Aussage eine Binsenweisheit ableiten: Unterschiedliche Klimate im globalen Maßstab haben immer auch unterschiedliche mittlere Zirkulationsmuster zur Folge.

So weit, so gut. Ich habe in früheren Beiträgen schon darauf hingewiesen, dass man für Wetter, Witterung und Klima in Mitteleuropa nicht einfach sagen kann, es wird „wärmer“ oder „kälter“. Es hängt immer von den beteiligten Luftmassen ab. Kontinentale Kaltluftmassen werden auch während Warmzeiten immer kalt gewesen sein. Die berüchtigte Aussage von einem Herrn Mojib Latif im Jahre 2000, der zufolge es bei uns „keine kalten Winter mehr geben würde“, kann man also transformieren in die Aussage „Es wird bei uns im Winter nie mehr Nordostwind-Wetterlagen geben“. Dabei tritt der Unsinn einer solchen Aussage noch viel deutlicher zutage (wie kann man eigentlich mit einer solchen Haltung Diplom-Prüfungen bestehen?).

Aber ich schweife ab. Es gibt, wie gesagt, Unsicherheiten, die ich selbst mir auch nicht so ohne Weiteres erklären kann: Erstens, ein häufigerer Durchzug atlantischer Tiefdruckgebiete muss in Nordskandinavien milderes Wetter, vor allem mildere Winter als heute zur Folge gehabt haben. Davon habe ich aber noch nie etwas gehört. Die „nasseren Moore“ deuten ja zunächst nur auf erhöhtes Niederschlagsaufkommen hin. Vermutlich wurde dieser Effekt durch die sicherlich erheblich größere Ausdehnung des arktischen Meereises kompensiert. Außerdem trugen die verstärkten Schneefälle und das viel geringere Abtauen im Sommer dazu bei, dass die milden Luftmassen eben längst nicht so mild waren wie heute.

Es war also überall kalt. Eine Frage möchte ich aber abschließend doch zur Diskussion stellen, weil ich sie nicht beantworten kann. Blockierende Hochdruckgebiete bilden sich in der Regel nur bei einem schwachen zonalen Grundstrom (heutzutage jedenfalls). Zu Kaltzeiten müsste dieser zonale Grundstrom aber viel stärker ausgeprägt sein, richtet sich dieser doch nach der Druck- und Temperaturdifferenz zwischen Äquator und Polen. Nun wird es zur LIA am Nordpol mehr kälter als heute gewesen sein als am Äquator. Die Temperaturdifferenz war also erhöht. Aber vielleicht, und damit schlage ich den Bogen zurück zu der Studie, in der genau das vermutet worden ist, lag der polare Jetstream so weit südlich, dass er regelmäßig über das Mittelmeer hinweg verlaufen war, während der nördliche Zweig deutlich abgeschwächt war. Dann müsste die LIA eine Zeit deutlich verstärkter Niederschläge in Südeuropa und Nordafrika gewesen sein. Außerdem müsste dann die atlantische Tiefdrucktätigkeit in Nordeuropa deutlich schwächer ausgeprägt gewesen sein als bei vergleichbaren Wetterlagen heute, was sich natürlich ebenfalls abkühlend auf die milden atlantischen Luftmassen in hohen Breiten ausgewirkt haben dürfte.

Fazit: Blockierende Hochdruckgebiete im Winter über Nordeuropa scheinen während der LIA die Regel gewesen zu sein, während sie heutzutage nur ausnahmsweise auftreten. Schauen wir mal, was die vermutliche globale Abkühlung während der kommenden Jahre in dieser Beziehung bringt. Interessanterweise deutet sich ja ganz aktuell für diesen Winter eine Tendenz zu Blockierungen über Nordeuropa an. Aber genauso wie ein regional besonders warmes Jahr noch keine Erwärmungs-Katastrophe ist, ist eine einzelne Blockierung keine Eiszeit.

Hans-Dieter Schmidt




Da werden eher Blinde sehend…Ein Brief zum Seminar über Endlagerung der Ev. Akademie im Kloster Loccum.

Die ev. Akademie im Kloster Loccum hat jetzt eine fast 70 jährige Tradition. Unmittelbar nach dem Zusammenbruch 1946 von wackeren Männern und Frauen der evangelischen Kirche in Hermannsburg ..unter dem Eindruck der nationalsozialistischen Gewaltherrschaft.. und der Mitschuld der Evangelischen Kirche an der Katastrophe.. gegründet, sollte und wollte sie folgenden Aufgaben wahrnehmen

„Die Akademie hat die Aufgabe,

  • der Verkündigung der Kirche in der Konfrontation moderner Weltprobleme mit dem Evangelium zu dienen,
  • in der Gesellschaft zur verantwortlichen Planung zukünftiger Entwicklungen beizutragen,
  • den Menschen innerhalb und außerhalb der Kirche Möglichkeiten zur Beteiligung am Leben, Denken und Handeln der Kirche zu bieten,
  • der Kirche in der Auseinandersetzung mit der Wirklichkeit zu helfen, neue Ordnungen und Wirkungsweisen zu finden.“ (Akademiegesetz in der Fassung vom 4. April 1975)

Nun gehört die Endlagerfrage bestimmt zu den großen Themen der Versorgung mit Kernenergie, aber ein „Weltproblem“ ist sie– zumindest wenn man sich ein wenig auskennt- garantiert nicht. Aber sicher könnte die Akademie der ev. Kirche – wenn sie es denn wollte- (bei)..der Auseinandersetzung mit der Wirklichkeit zu helfen, neue Ordnungen und Wirkungsweisen zu finden. Dazu gehört natürlich, so sollte man annehmen, ein Mindestsachverstand, zumindest auf Seiten der Akademie bzw. der von ihr aufgebotenen Referenten. Lesen Sie dazu, wie es unserem Autor, dem Strahlenfachmann Dr. Hermann Hinsch bei der vorsichtigen Frage nach Sachverstand in Loccum bei diesem Thema erging.

Dr. Hermann Hinsch

e-mail: jhhinsch@t-online.de

Herrn

Stephan Schade

Evangelische Akademie Loccum

30.11.2014

Tagung vom 17. – 19. Oktober 2014 :

Endlagersuche  –  Zusammenarbeit von Endlager-Kommission und Öffentlichkeit

Sehr geehrter Herr Schade, 

ich hatte Frau Dr. Müller gebeten zu veranlassen, dass ich aus Ihrem Verteiler genommen werde und keine Einladungen nach Loccum mehr erhalte. Mit Schreiben vom 27.10.2014 hat mir Frau Müller dies zugesichert. Jedoch fand ich nun wieder das Programm für 2015 im Briefkasten. Es ist keine große Mühe für mich, das Programm ins Altpapier zu werfen, aber warum?

Auf meinem Fachgebiet lohnt sich der Besuch in Loccum nicht mehr. Aber könnte es dort für mich etwas anderes geben? Wohl nicht. Offensichtlich kommt keiner zu Ihrer Akademie, um etwas zu lernen. Es geht darum, mit unzureichenden oder falschen Kenntnissen an gesellschaftlichen Entscheidungen teilzunehmen. Nichts für mich, daher bitte keine weiteren Programme.

Natürlich werde ich dies Schreiben so weit wie möglich verbreiten. Ich war über den Geheimhaltungstrieb von Frau Dr. Müller erstaunt. Sie schrieb mir: „Vorab: Mich verwundert es schon, dass Sie meine an Sie persönlich gerichtete Mail über Ihren Verteiler senden, sich aber nicht mit mir persönlich auseinandersetzen. Mein Stil ist das nicht.“ 

Frau Müller leitet die Tagungen immer sehr gut, im Briefwechsel ging es ausschließlich um den Inhalt der Tagung „Endlagersuche“. War der Inhalt so schlimm, dass man darüber nicht öffentlich sprechen darf? Hat Frau Müller Angst, meine Kritik könnte Geldgeber negativ beeinflussen? Oder hat sie sonst etwas zu verbergen?

Jemand beklagte in einem Brief an mich die Einseitigkeit Ihrer Akademie, deshalb würde er nicht mehr nach Loccum fahren. Auf dem Gebiet der Naturwissenschaften sind Ihre Tagungen nicht einseitig, sondern die Grundlagen sind falsch.

Gibt es aber nicht auf dem Gebiet des Umgangs mit radioaktiven Stoffen Aspekte, welche nichts mit den naturwissenschaftlichen Grundlagen zu tun haben? Zweifellos. Wenn aber die Grundlage falsch ist – oder, wie beim Hexenwahn – gar nicht existiert , dann wird auch alles andere Unsinn. 

Kenntnisse der Grundlagen waren bei den Rednern und Moderatoren nicht zu erwarten. Außer 2 Schweizer Rednern (auch keine Fachleute), hier die Liste der „Experten“ mit ihren Fachrichtungen:

Sascha Boettcher                                           Jura 

Klaus Brunsmeier                                         Landespflege

Ilse Erzigkeit                                                  Mediation 

Tanja Föhr                                                     Geografie, Mediation

Hartmut Gaßner                                            Jura

Michael Müller                                              Betriebswirtschaft

Roland Schüler                                              Mediation

Jochen Stay                                                    keine abgeschlossene Berufsausbildung

Matthias Trenel                                             Psychologie

Dr. Michael Wilk                                            Hynotiseur, Notfallmedizin

Die Begründung für die Endlagersuche ist die Behauptung, in Gorleben eingelagerter Abfall würde eine Gefahr darstellen. Also wird ein Ort gesucht, wo das Risiko geringer erscheint. Zu Risiken werden allgemein 3 Fragen gestellt: 1. Was kann passieren? 2. Wie wahrscheinlich ist das? 3. Was wären die Folgen? Die ersten beiden Fragen richten sich an Geologen, die dritte an Fachleute für biologische Strahlenwirkungen. 

Von Geologie werden die oben aufgeführten Damen und Herren nicht viel verstehen. Mir geht es ebenso, und da ich mich nicht zu Themen äußere, von denen ich zu wenig weiß, werde ich nichts dazu schreiben. Wie beim Klavierspielen: Es nicht zu können, ist nicht schlimm. Schlimm ist aber, es trotzdem zu tun und damit seine Mitmenschen zu belästigen.

Von Strahlenwirkungen, der dritten Frage, verstehen sie schon gar nichts, aber das ist mein Fachgebiet.

Seit 1895 Konrad Röntgen seine Röhre baute und 1896 Henri Becquerel die Strahlung des Urans entdeckte, werden die biologischen Strahlenwirkungen erforscht. Also alles klar? Leider nicht, daneben hat sich ein Glaube etabliert, eine „alternative Wissenschaft“, der Astrologie vergleichbar. Ich stelle die beiden Richtungen gegenüber:

Wissenschaft: Bei der Dosis Null ist auch die Wirkung Null.

Alternativ:  z. B. Dr. Hagen Scherb: Auch wo in der Umgebung kerntechnischer Anlage keine erhöhte Strahlung gemessen wird, häufen sich Krankheiten, und Mädchen werden gar nicht erst geboren. Scherb: „Danach haben wir zwischen zehntausend und zwanzigtausend verlorene Mädchen in der Gesamtschweiz und in Gesamtdeutschland über die gesamte Laufzeit der dort existierenden Reaktoren.“

Strahlenwirkungen im realitätsfernen „Strahlenglauben“: Unendlich mal höher

Wissenschaft: Unter 100 Millisievert findet man keine biologischen Wirkungen. 10 Millisievert, gestreckt über ein ganzes Jahr, sind daher unbedenklich, zumal große Bevölkerungsgruppen von Natur aus jährlichen Strahlendosen bis 20 Millisievert und noch darüber ausgesetzt sind, ohne dass sich das auf die Gesundheit auswirkt.

Alternativ: Die Freigabe von Abbruchmaterial aus stillgelegten Kernkraftwerken, z.B. zum Straßenbau, führt im ungünstigsten Fall zu einer zusätzlichen jährlichen Strahlenbelastung von einem Zwanzigstel der natürlichen Strahlenexposition im Flachland, nämlich 0,01 Millisievert. Das bedeutet nach „Strahlentelex“ vom 07.08.2014 eine unverantwortliche Gefährdung der Bevölkerung.

Strahlenwirkungen im realitätsfernen „Strahlenglauben“: 1000 mal höher

Wissenschaft: Insekten sind relativ unempfindlich gegenüber Strahlung. Allerdings gibt es eine seriöse Untersuchung, wonach eine Dosis von 1.300 Millisievert bewirkt, dass nur noch 50 % von Schmetterlingsraupen aus den Eiern schlüpfen. Deswegen sind die Überlebenden aber höchstens zu einem kleinen Teil mutiert. Experimente zur erkennbaren Erhöhung von Mutationsraten erfordern höhere Dosen. Bei Drosophila sind 5.000 Millisievert erforderlich, um 1 % Mutationen zu erzeugen, die für die Nachkommen tödlich sind (Spencer 1947)

Alternativ: Strahlendosen bis 55 Millisievert erzeugten bei Schmetterlingen in der Umgebung des Kernkraftwerks Fukushima und in Laborversuchen angeblich mehr als 10 % Mutationen.

Strahlenwirkungen im realitätsfernen „Strahlenglauben“: 20 – 100 mal höher

In der Wissenschaft passt alles zusammen, im Strahlenglauben ist es mal so mal so. 

Den Vortragenden der Tagung macht das nichts aus, da sie sich auch mit dieser „alternativen Wissenschaft“ gar nicht näher befasst haben. Ihnen ist nur klar: Man kann damit Angst erzeugen, und die Angst der Menschen ausnutzen, um Geltung und oft auch Geld zu erlangen oder sogar Minister zu werden.

Die Suche nach einem Endlager unterscheidet sich grundsätzlich von der Ostereiersuche. Bei Eiern freut man sich, wenn man eins gefunden hat. Wird jedoch der Endlagerstandort in der eigenen Gemeinde gefunden, dann löst das Entsetzen aus. 

Der Sinn der Tagung in Loccum bestand darin, dies Entsetzen zu steigern und Anleitungen zu geben, wie man, egal wo, ein Endlager verhindert. Schade, dass sich die Evangelische Kirche für so etwas hergibt!

Mit freundlichen Grüßen

Dr. Hermann Hinsch




Kraut und Rüben –Interviewer von „Krautreporter.de“ wird von Umwelt-Ministerin Hendricks in Sachen Ahnungslosigkeit weit in den Schatten gestellt.

Zweifellos ist die eigene Meinungsbildung der Zuschauer/hörer aus ARD und ZDF mit Hilfe einer durchaus möglichen, objektiven Übermittelung von nackter Information nicht vorgesehen, denn Fakten bekommt man dort nur stark selektiert zu hören/sehen. Hat man in diesen Sendeanstalten jemals unabhängige, kritische Experten zu Klimaschutz oder Energiewende vernommen? Nur Ideologisches wie etwa von einer Frau Kemfert wird geboten, von der sich viele Zuschauer inzwischen fragen, wie diese Dame zu ihrer Professur gelangte.

Man erhält "Erläuterung" von ausgewählten Nachrichten nach ideologisch/politischem Gusto der betreffenden Redaktion. Dem Zuschauer/hörer wird es offenbar nicht zugetraut, oder es ist wohl eher unerwünscht, dass er sich eine eigene Meinung bildet. Die Printmedien stehen mit diesem Bemühen ihren elektronischen Schwestern nicht nach. Die Seher, Hörer und Leser danken es ihnen mit massenhafter Abwanderung ins Internet, was den klassischen Medienschaffenden zusehends die Existenzgrundlage entzieht.

Da wirkt die Idee eines privat finanzierten Medienangebots von unabhängigen, nur der Wahrheit verpflichteten und objektiv, neutral berichtenden Journalisten erfrischend. Einerseits als finanzieller Rettungsanker für Journalisten, denn auch diese wollen wohnen, essen und anständig bezahlt werden, ohne ständig befürchten zu müssen ihren Job zu verlieren, wenn sie es zu oft vergessen dem Gruppenzwang "links-grün" zu genügen. Und andererseits tut frischer Wind immer gut. Besonders uns Zuschauern, Hörern und Lesern.

Berichten was ist“, brachte es der legendäre Verleger Rudolf Augstein über die Pflicht eines Journalisten auf den Punkt und eingedenk dieser Mahnung auch der große Journalist Hajo Friedrich mit der Leitlinie an seine Kollegen „Der Journalist soll berichten, und sich nicht mit der Sache über die er berichtet, gemein machen – noch nicht einmal mit einer guten“. Ein Medium, das diese eigentlich verbindlichen Selbstverständlichkeiten beherzigte, wäre längst überfällig und wird sehnlichst von vielen Lesern, Hörern und Zuschauern herbeigewünscht.

Auch die gewählte Art der Finanzierung der Krautreporter, nämlich direkt durch den Leser, klingt sympathisch und ist es wohl auch. Denn innerhalb nur weniger Monate brachten die „User“ rd. 1 Mio € für das junge Unternehmen auf. Genügend Geld also, um mit Fachleuten besetzt eine professionelle Informationsseite zu starten. Sollte man meinen. Doch wie anders möchte man dort sein?  Schauen wir nach: Auf deren Website (hier) in der Rubrik „Über uns“ erfährt man u.a.

Wir wollen es anders machen. Mit Reportagen, Recherchen, Porträts und Erklärstücken. Über Themen, mit denen wir uns auskennen. Mit der Zeit, die nötig ist, um eine Geschichte zu erzählen. Und den Hintergründen, um zu verstehen, was auf der Welt passiert.

Da haben wir es ja leider schon wieder: "Reportagen, Recherchen, Porträts" sehr gut (das wollen wir). Erklärstücke und Geschichten aber NEIN(!!), denn die bekommen wir bereits bei ARD und ZDF übergenug geboten. Zurück zu den Krautreportern! Damit es auch – wenigstens theoretisch – genauso läuft, wie vorgenommen, haben sich die Krautreporter auf 10 Grundsätze (wer denkt da nicht an die 10 Gebote) verständigt. Die seien unbedingt einzuhalten.

Damit gerüstet – also über Themen, mit denen wir uns auskennen – wurde der Reporter Tilo Jung, bei Krautreporter namentlich unter der Rubrik „Politik“ aufgeführt und darunter – nicht unzutreffend – in der Unterrubrik "Jung & Naiv – Politik für Desinteressierte  auf die Bundesumweltminsterin Barbara Hendricks losgelassen.  Zu seinem Fragestil gehört, so notierte entzückt eine MAREIKE NIEBERDING  im FAZ Feuilleton:

Tilo Jung will mit dummen Fragen den Politjournalismus verändern. Er duzt grundsätzlich jeden und rückt seinen Interviewpartnern gehörig auf die Pelle. Ist das „Jung & Naiv“ oder einfach nur banal?

Was es nun ist, können die Leser am Besten selber beurteilen, wenn sie das Interview lesen oder anschauen. Denn das mit den dummen Fragen nimmt er wörtlich. Nur ..mit Themen mit denen wir uns auskennen ist es leider nun gar nichts. Denn Tilo, nennen wir ihn so, kennt sich beim Thema seines Interviews NULL aus. Von Klima-Fakten absolut keine Spur, noch nicht einmal homöopathisch. Und deswegen reiht sich das Interview  – abgesehen vom Duzen – nahtlos in eine Fülle von nämlichen (dämlichen) Interviews der Mainstream Medien ein: sie zeugen stets davon, wie wenig der Interviewer, damit sind gendergerecht auch weibliche gemeint, irgendeine Ahnung von dem haben, was sie da überhaupt fragen wollenn.

Aber ein Superlativ bleibt dennoch: Tilo zusammen mit Barbara (Hendricks) bieten mit Abstand das Lustigste, Naivste und – wir bitten um Nachsicht, aber es trifft leider zu – sachlich abgrundtief Dümmste, was man bisher hierzulande beim Thema zu Gesicht/Gehör bekam. Damit war es zumindest, wie versprochen, sowohl jung als auch naiv. Einen Trost gibt es: Der Interviewer befindet sich in seiner völligen Ahnungslosigkeit gepaart mit festem Glauben (Klimareligion) in Übereinstimmung mit  der Mehrzahl seiner verwöhnten Altersgenossen. Doch das Beste – oder Schlimmste, wie man´s nimmt –  sind die Antworten der Ministerin, sie stehen den Fragen und Feststellungen des Interviewers an sachlicher Qualität in nichts nach. Hier kann man sich das ganze Interview ansehen und hier das Transscript lesen.

Video des Interviews von Krautreporter Tilo mit Bundesumweltministerin Barbara (Hendricks) 

Doch Vorsicht, es ist wirklich nur etwas für Satiriker oder für ganz hart Gesottene. Nachfolgend ein paar Kostproben von Tilo & Barbara (Hendricks), zum Teil von uns kommentiert

Teaser von der Website der Krautreporter:

Bundesumweltministerin Barbara Hendricks (SPD) sieht ein enormes Sparpotential in der Umstellung der Stromversorgung auf erneuerbare Energien. Bei Jung & Naiv erklärt sie, wofür sie einen Nobelpreis bekommen würde, wann Deutschland das Ziel von 100 Prozent saubere Energie ausruft und wie es gelingen soll, tatsächlich einmal die Umwelt zu schützen, statt sie weiter zu schädigen.

Tilo: Was hast du denn vorher gemacht?

Hendricks: Vorher war ich auch schon Bundestagsabgeordnete. Und ich war ziemlich lange Parlamentarische Staatssekretärin im Finanzministerium. Also eigentlich bin ich eine Zahlenfrau.

Tilo:  ich habe ja noch nicht viel vom Klimaschutz gelernt, aber ich habe gehört, Holland ist in Gefahr. Wäre der Niederrhein da auch in Gefahr?

Hendricks: Holland ist in Gefahr, der Niederrhein noch nicht. Es ist auch nicht ganz Holland in Gefahr.  Aber in der Tat, wenn der Meeresspiegel steigt, dann wären große Teile von den Niederlanden in Gefahr, ja.

Tilo: Wenn er steigt – oder wird er steigen?

Hendricks: Er ist schon gestiegen. Er ist schon in den letzten Jahrzehnten, also seit dem Ende des 19. Jahrhunderts, um 19 Zentimeter gestiegen. Das hört sich nicht viel an, aber wenn man nicht so richtig hoch über dem Meeresspiegel liegt, dann ist man eben trotzdem weg. Und die Gefahr ist eben nicht nur bei Teilen der Niederlande so, sondern bei vielen anderen kleinen Inselstaaten durchaus gegeben. Also der Meeresspiegel wird auch weiter ansteigen, aber wir müssen genau den Meeresspiegelanstieg begrenzen, indem wir eben auch den Klimawandel begrenzen.

Unser Kommentar: Hier hätten Thilo und Barbara (Hendricks) sich einfach einmal mit nicht einmal sonderlich hohem Aufwand schlau machen können.

Die Fakten: Der Meeresspiegel ist global gemittelt, seit der letzten Eiszeit um circa 120 m angestiegen. Seitdem ist die Anstiegsrate konstant, ein anthropogener Einfluss ist nicht aufzufinden (hier, hier). Zum "Klimawandel begrenzen": Weder Thilo noch Hendricks scheint bekannt zu sein, dass es naturgesetzlich kein kontantes Klima gibt, noch nie gab und auch nie geben wird. Genausogut können sie fordern Wetteränderungen zu begrenzen.

Ferner ist den beiden unbekannt, dass bis heute kein anthropogenes Klimasignal auffindbar ist. So schreibt z.B. die wohl renommierteste (inkl. ihrer männlichen Kollegen) Klimaexpertin der USA, geachtet bei "Freund" und "Feind", Frau Prof. Judith Curry, in "Challenging the 2 °C target am 3.Okt.2014 in Ihrem Blog völlig zutreffend: "…the inconvenient truth that there is no detection of an increase in most types of extreme weather events and it is extreme difficult to attribute any change to humans ..". Das gleiche berichtete bereits 1997 der wissenschaftliche Beirat der Bundesregierung für globale Umweltveränderungen (WBGU) in seinem Sondergutachten 1997 (hier) auf S. 8 unten "wegen der hohen natürlichen Klimavariabilität ist es sehr schwierig nachzuweisen, ob der Mensch die beobachtete Klimaänderung mit verursacht hat", aufzufinden. Damals saßen noch seriöse Fachleute in diesem Gremium.

Wie soll der Mensch unter diesen Bedingungen den Klimawandel begrenzen? Das ist auf die Spitze getriebene Absurdität. Selbst das IPCC schnallt es allmählich verschämt/widerwillig . Im jüngsten (fünften) Bericht für Politiker findet sich seine bisher erstaunlichste Fußnote, nämlich die zur Klimasensitivität des CO2 "No best estimate for equilibrum sensitivity can now be given because of lack of agreement on values across assessed lines of evidence and studies". Unter vernünftigen, rational denkenden Menschen wäre spätestens damit Schluss mit dem Klimaunsinn. Die Fußnote besagt nämlich nichts anderes, als dass der einzige Beleg für eine gefährliche Klimawirkung des anthropogenen CO2 in der Wissenschaft umstritten ist.  Ehe wir es vergessen: Thilo und Hendricks werden kaum wissen, was man unter der Klimasensitivität versteht. Wir entschuldigen uns und empfehlen Nachhilfe bei einem Fachmann, der’s ihnen erklärt.

So what? In die Mülltonne mit dem CO2-Quatsch, denn was man nicht messen kann, ist sinnvollerweise keinen Pfifferling für konkrete Maßnahmen wert. Aber wir müssen ja weltweit Vorbild sein, sagt unsere Kanzlerin und nimmt dafür den Untergang unserer Stromversorger und Exodus unserer stromintensiven Industrien billigend in Kauf. Für diese Zerstörung unserer industriellen Lebensgrundlage rückt man hierzulande an die Spitze der Beliebtheitsskala, dies nur als kurze Abschweifung zur Befindlichkeit unseres Landes. 

Tilo: Hat die Menschheit, haben wir Menschen irgend etwas mit dem Klimawandel zu tun?

Hendricks: Ja! Es haben sich ja eine ganze Zeit lang Wissenschaftler darum gestritten, oder auch konservative Politiker,  so wie meinetwegen Republikaner in den USA oder so, die behaupten das Gegenteil,  aber das ist Quatsch.

Tilo:… dass der Mensch gar nichts damit zu tun hat?

Hendricks: Ja, die behaupten, der Mensch hätte damit nichts zu tun, und es hätte schon immer Vulkanausbrüche und Eiszeiten und Hitzeperioden gegeben, und das sei alles normal. Ist aber nicht! Also mittlerweile sind mindestens 95 Prozent aller Wissenschaftler auf der ganzen Welt fest davon überzeugt, dass ganz überwiegend der Klimawandel menschengemacht ist. Wenn zum Beispiel ein Vulkan ausbricht, dann hat das Auswirkungen auf den Klimawandel, das ist klar. Aber ganz überwiegend ist es menschengemacht.

Unser Kommentar: Noch einmal fürs Nähkästchen der beiden: es ist bis heute kein anthropogenes Klimasignal auffindbar. Dass 95% aller Wissenschaftler anderer Meinung seien, ist ein immer wieder hervorgeholter Unsinn (es werden im Übrigen stets 97% genannt, noch nicht einmal die richtige Propagandazahl hat Frau Hendricks mitbekommen). Mit ihren 95% liegt sie, was die deutschen Medien und die deutsche Politik angeht, vermutlich richtig, denn Dummheit ist bekanntlich so virulent wie Ebola. Die 5% Rest dürfen aber nicht mit der Gruppe der Klimaforscher verwechselt werden. Sogar an deutschen Universitäten sind entsprechende Frageaktionen durchgeführt worden. Eine gute Übersicht findet sich (hier). Immerhin sind zwei der Hendrick’schen "5%-Abweichler" Physik-Nobelpreisträger, auf der IPCC-Seite gibt es solche naturwissenschaftliche Qualität nicht.  Weil Thilo und Hendricks wohl auch dies nicht wissen, nebenbei: "Klima" ist ein Teilgebiet der Physik.

Tilo: Gibt es denn Klimaleugner bei euch in der großen Koalition?

Hendricks: Nein. Bei uns gibt es keine Klimaleugner.  Die gibt es in manchen Teilen in den Vereinigten Staaten, die gibt es in Australien, und auch in anderen nicht-demokratischen Ländern kommt das auch vor, durchaus. Aber bei uns gibt’s das nicht.

Unser Kommentar: also Australien ist undemokratisch, danke für die Info, das wussten wir noch gar nicht. Und dann: iiiih.. bewahre, Klimaleugner in der GroKo! Volksvertreter als Abweichler vom offiziellenen Klimaklamauk gibt es zwar, etwa Arnold Vaatz, Michael Fuchs und Klaus Wilsch. Alle drei CDU MdB und dazu einige CDU – Abgeordnete in den Landtagen und im Europaparlament, doch es ist (noch) eine verschwindend kleine Truppe. Mit parlamentarischen Laien bar jeder auch nur rudimentären Kenntnisse von Technik und Naturwissenschaft (Juristen, Soziologen, Experten für Stricken/Handarbeit, für die Margarineindustrie am Niederrhein usw. – wir hören besser auf) reale Naturwissenschaftler in einen Topf zu werfen, erscheint schon frivol. Verzeihung, ein paar Techniker und Naturwissenschaftler und Mathematiker gibt es natürlich in den Parlamenten, die halten aber wohlweislich die Klappe – denn sie wollen schließlich ihre Listenplätze bei der nächsten Wahl nicht verlieren.

Und weiter:

Tilo: Das heißt, Deutschland könnte das grünste Land der Welt sein. Wir könnten Kohle abgeschafft haben, wir könnten nur noch CO2-frei Energie herstellen und trotzdem sagst du: Das brächte nichts, wenn die anderen nicht mitmachen? Wann hat Deutschland das letzte Mal das Klima geschützt?

Hendricks: Das ist eigentlich ein ständiger Prozess. Also wir sind dabei, das Klima zu schützen. Allerdings …Wir kommen rein, Lichtschalter an oder stecken irgendetwas in die Dose und wollen natürlich sofort Strom haben. Aber was ist in der Nacht, wenn der Wind nicht weht?…Und deswegen, weil wir das noch nicht richtig speichern können, haben wir auf absehbare Zeit auch noch andere Stromproduktion.

Tilo: Wie können wir das speichern?

Hendricks: Ehrlich gesagt: Wenn ich das wüsste, dann hätte ich wahrscheinlich den Nobelpreis für … keine Ahnung.

Unser Kommentar: Tja, keine Ahnung, so ist es. Das Speicherproblem ist natürlich prinzipiell lösbar, da bedarf es keines Nobelpreises, nur eben prinzipiell unlösbar unter vernünftigen Kosten. Naivster Glaube und Hoffnung versetzen bei uns politische Berge, bloß nicht die technisch/wirtschaftliche Realität. Bereits mit rudimentären Kenntnissen in Physik, Chemie und vor allem Kostenrechnung ist zu erkennen, dass das Kostenproblem der Stromspeicherung nie lösbar sein wird, allenfalls vielleicht mit dem "Warp-Antrieb" von Enterprise. Als große Fans von Enterprise sind sich die Autoren sicher mit grünem Stallgeruch den guten Thilo und Frau Barbara (Hendricks) auch noch vom Warp-Antrieb überzeugen zu können.

Tilo: Warum haben wir uns nicht das Ziel von 100 Prozent gesetzt?

Hendricks: Ja, weil wir das eben im Moment noch nicht mit den Speicherkapazitäten haben.

Unser Kommentar: Ooooch, ..eben im Moment….das ist aber wirklich schade. Geht noch nicht aber sicher bald, wie können wir trösten?

Unser Kommentar: Und hier die Königsfrage samt Antwort:

Tilo: Warum überzeugt man die Bevölkerung nicht damit, dass man sagt: Wenn wir irgendwann bei 100 Prozent sein sollten, dann braucht man für Strom gar nichts bezahlen, weil der ja aus Erneuerbaren kommt. Das Einzige, was noch etwas kostet, ist die Instandsetzung. Warum wird das Argument eigentlich nicht gebracht: ‘Hey Leute, irgendwann brauchen wir für Strom nicht mehr zu bezahlen!’?

Hendricks: Ja, fast nichts mehr, das ist klar…..

Unser Kommentar: Für den Strom nichts mehr bezahlen, wo der Strompreis infolge des grünen Durchmarsches durch einen ehemals vorhandenen deutschen Sachverstand ungebremst in den Himmel schießt?? Hier sind selbst wir brutal abgehärtete Autoren platt und schnappen nach Luft. So viel sachlicher Quatsch tut jetzt körperlich weh. Erneuerbare können wegen der naturgesetzlich unabänderlichen Eigenschaften "Zu geringe Energiedichte" und "Fluktuierendes Angebot" grundsätzlich niemals konkurrenzfähig sein. Sind die beiden wirklich so naiv, an ihre Nichtkosten bei 100% zu glauben? Wir fürchten, sie sind es. Unfassbar! Wo findet sich medizinische Hilfe?

Es lohnt sich das ganze Interview zu sehen oder zu lesen. Wir können uns über eine solche Politikerin und den ganz anderen Journalismus nur noch freuen. Möge das Licht bei diesen beiden Experten möglichst rasch ausgehen (Barbara Hendricks schaltet ja alle Lampen aus, die in ihrer Reichweite liegen), dann sind wir bald bei 100%. Wir werden, wenn die Visionen dieser Leute Realität geworden sein sollten – und warum nicht, wir Deutschen halten bekanntlich jeden Unsinn konsequent bis zur letzten Patrone durch -, wieder Beeren und Pilze in unseren Wäldern sammeln und als Putzkolonnen bei den Chinesen mit ihren modernen Kernkraftwerken aushelfen dürfen. Auf in diese Zukunft – wir haben diese Politiker gewählt und verdienen es nicht besser!

Jede noch so gute Satire hat gegen die politische Wirklichkeit in unserem Lande keine Chance. Daher entschuldigen wir uns für unseren naiven Versuch bei den Lesern. Unübertroffenes ist eben nicht mehr zu toppen.




Bundestag will ihre Meinung zu „Stromnetze und Energiewende“ wissen

Für alle Leser die sich beteiligen wollen, aber sich nicht unbedingt in den vorgegebenen Antworten wieder finden, einfach alle Auswahlkästchen – stimme nicht zu- ankreuzen. Das geht.

Hier die Pressemeldung:

Betreff: Beim Bundestag: Stakeholder Panel zur Technikfolgenabschätzung gestartet

Sehr geehrte Damen und Herren,

haben Sie sich schon einmal gewünscht, Ihre Erfahrungen und Einschätzungen in die politische Gestaltung zukünftiger Entwicklungen einzubringen? Möchten Sie politische Entscheidungsträger im Bundestag mit Ihrem Wissen und Ihren Positionen zu Technik und Wissenschaft unterstützen?

Das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) hält dafür eine neue Online-Plattform bereit – das Stakeholder Panel Technikfolgenabschätzung (TA). Diese Plattform will Dialogprozesse zum zukünftigen Bedarf wissenschaftlicher und technischer Entwicklungen initiieren. Gesellschaftliche Herausforderungen und Folgen von Wissenschaft und Technik sollen frühzeitig erkannt und erörtert werden. Die Umsetzung geschieht durch das IZT – Institut für Zukunftsstudien und Technologiebewertung als Konsortialpartner des TAB.

Heute beginnt die erste Online-Umfrage auf der neuen Plattform. Das Thema lautet „Stromnetze und Energiewende“. Nutzen Sie die Chance und bringen Sie Ihre Ansichten zu diesem Thema ein. Beteiligen Sie sich an der Befragung!

zum Fragebogen

Das Ausfüllen des Fragebogens dauert ca. 15 Minuten.

Weitere Informationen zum Stakeholder Panel TA erhalten Sie unter www.stakeholderpanel.de. Für Rückfragen stehen wir Ihnen unter der E-Mail-Adresse stakeholderpanel@izt.de gern zur Verfügung.

Bitte leiten Sie diese Nachricht auch an Kolleginnen, Kollegen und Bekannte weiter!

Mit besten Grüßen und herzlichem Dank im Voraus

Prof. Dr. Michael Opielka

   

Prof. Dr. Michael Opielka | Wissenschaftlicher Direktor und Geschäftsführer

IZT – Institut für Zukunftsstudien und Technologiebewertung gemeinnützige GmbH

IZT – Institute for Futures Studies and Technology Assessment

Tel +49 (0) 30 80 30 88-90/-0 | Mobil +49 (0) 171 746 17 14 | Fax +49 (0) 30 80 30 88-88

E-Mail m.opielka@izt.de | Web www.izt.de | Twitter twitter.com/michaelopielka

Schopenhauerstrasse 26, 14129 Berlin | Germany

Registergericht: Amtsgericht Charlottenburg, HRB 18 636

Die Geschäftsführer: Prof. Dr. Michael Opielka, Dr. Roland Nolte

Aufsichtsratsvorsitzender: RAuN Dr. Eckard Lullies

Mit Dank an Leser Christian Ziekow, der uns darauf aufmerksam machte und sich auch schon beteiligte




UK-Forscher: Kleine Eiszeit war global und hat Implikationen für die jüngste globale Erwärmung

Klimaskeptiker und Gläubige der Globalen Erwärmung haben lange darüber gestritten, ob die Kleine Eiszeit (von Anfang des 15. bis zum 19. Jahrhundert) global aufgetreten war, über deren Gründe und welchen Einfluss die Sonne auf das Klima hat, sowohl während der Kleinen Eiszeit als auch während der letzten Jahrzehnte. Diese neue Studie hilft, Klarheit in diese Diskussion zu bringen.

Das Forscherteam von den Universities of Gloucestershire, Aberdeen und Plymouth führte die Studien hinsichtlich des Klimas der Vergangenheit durch mittels detaillierter Labor-Untersuchungen von Moorschlamm aus einem Moor nahe Ushuaia, Tierra del Fuego [= Feuerland]. Sie wandten genau die gleichen Laborverfahren an, die für die Untersuchung von Mooren in Europa entwickelt worden waren. Zwei prinzipielle Methoden wurden genutzt, um das Klima der letzten 3000 Jahre zu rekonstruieren: mit dichten Intervallen über eine Gesamt-Säule des Schlammes untersuchten die Forscher den Grad der Schlammablagerung, welcher direkt im dem Klima in Zusammenhang steht. Ebenso untersuchten sie die Schlamm-Matrix, um sich ändernde Anteile verschiedener Pflanzen zu untersuchen, die zuvor auf dem Moor gewachsen waren.

Die Daten zeigen, dass die extremsten Kältephasen der Kleinen Eiszeit (Mitte des 15. und dann wieder Anfang des 18. Jahrhunderts) synchron in Europa und Südamerika aufgetreten waren. Es gibt nur einen großen Unterschied: Während die Moore im kontinentalen Nordwesteuropa nasser wurden, wurden sie in Feuerland trockener – in beiden Fällen möglicherweise die Folge dramatischer Verschiebungen von Feuchtigkeit liefernden Winden in Richtung Äquator.

Diese Extremperioden fielen zusammen mit Perioden, von denen bekannt ist, dass die Sonne ungewöhnlich ruhig war. Ende des 17. bis Mitte des 18. Jahrhunderts gab es nur sehr wenige Sonnenflecken – sogar noch weniger als während der Folge der jüngsten Kaltwinter in Europa, was andere UK-Wissenschaftler mit der relativ ruhigen Sonne in Verbindung gebracht haben.

Prof. Frank Chambers, Leiter des Centre for Environmental Change and Quaternary Research an der University of Gloucestershire, der Leitautor des Forschungsberichtes war, sagte:

„Sowohl Skeptiker als auch Anhänger der Globalen Erwärmung können Unterstützung für sich aus dieser Arbeit ableiten. Unsere Studie ist wichtig, weil unsere Daten zeigen, dass die extremsten Phasen gleichzeitig in der nördlichen und der südlichen Hemisphäre aufgetreten waren, während es viele unterschiedliche Schätzungen gibt hinsichtlich des Beginns und des Endes der Kleinen Eiszeit in verschiedenen Gebieten der Welt. Diese Extremperioden waren abrupte globale Ereignisse. Möglicherweise hingen sie zusammen mit plötzlichen Verschiebungen der Westwindzone in Richtung Äquator auf der Südhemisphäre sowie der Zugbahnen der atlantischen Tiefdruckgebiete in der Nordhemisphäre. Die gleichen Verschiebungen scheint es abrupt auch zuvor gegeben zu haben wie z. B. vor 2800 Jahren, als die gleiche synchrone, aber entgegen gesetzte Reaktion in Mooren in Nordwesteuropa gezeigt werden konnte im Vergleich mit dem südlichen Südamerika.

Es scheint, dass die solare Ruhe verantwortlich war für die extremsten Phasen der Kleinen Eiszeit, was impliziert, dass die solare Variabilität manchmal eine wichtige Rolle bei Klimaänderungen spielt. Eine Änderung der Sonnenaktivität kann beispielsweise auch für den Anstieg der globalen Temperaturen nach Ende der Kleinen Eiszeit in der ersten Hälfte des 20.Jahrhunderts verantwortlich gewesen sein. Allerdings kann die Sonnenaktivität allein nicht die globalen Temperaturtrends nach 1970 erklären, vor allem nicht den globalen Temperaturanstieg während der letzten drei Jahrzehnte des 20. Jahrhunderts, den das IPCC zunehmenden Konzentrationen von Treibhausgasen in der Atmosphäre zugeordnet hat“.

Prof. Chambers fasst zusammen: „Ich muss betonen, dass unsere Forschungsergebnisse nur für den Zeitraum von vor 3000 Jahren bis zum Ende der Kleinen Eiszeit interpretierbar sind. Das ist der Zeitraum, auf den sich unsere Forschungen konzentriert haben. Im Licht unserer Untermauerung der Auswirkungen ,Großer solarer Minima‘ auf globale Klimate der Vergangenheit kann jedoch darüber spekuliert werden, ob der gegenwärtige Stillstand der ,Globalen Erwärmung‘ von jenen, die hinsichtlich der Klimaprojektionen des IPCC skeptisch sind, nicht zumindest teilweise einem entgegengesetzt wirkenden Effekt verringerter Sonnenaktivität geschuldet ist, wie er im jüngsten Sonnenfleckenzyklus zum Ausdruck kommt“.

Link: http://www.alphagalileo.org/ViewItem.aspx?ItemId=147372&CultureCode=en

Übersetzt von Chris Frey EIKE




Ranga Yogeshwar in Fukushima, ein Fernsehfilm in der ARD

Sie finden den ARD-Film (hier). Ähnliche Beiträge im Fernsehen gab es auch schon früher, EIKE hatte darüber berichtet  (hier), (hier). Und auch über die Wirkung von Niedrigdosisstrahlung wurde bei EIKE bereits ausführlich und mit den notwendigen wissenschaftlichen Quellen belegt, berichtet (hier), (hier), (hier), (hier).

Die Strahlung auf dem Kraftwerksgelände – Vergleich mit dem Flugzeug

Ranga Yogeshwar wurde während seiner Besichtigung des zerstörten Kraftwerkes einer zusätzlichen Strahlendosis von 30 Mikro-Sievert ausgesetzt, er hatte damit „nicht mehr Strahlung abbekommen als auf dem Hin- und Rückflug nach Japan“, so wurde gesagt. Diese Aussage ist falsch, offenbar hat sich der Ranga Yogeshwar in seiner Vorbereitung auf die Reise nicht ausreichend mit der Materie befasst, so daß solch ein Fehler durchgehen konnte. Der Hin- und Rückflug nach Japan schlägt mit zusätzlichen ca. 150 Mikro-Sievert zu Buche, er hat also das Fünffache der Dosis seiner Besichtigung abbekommen. Ein bewusster Fehler, um die natürliche Exponation während des Fliegens "zugunsten" des Fukushima-Unglücks kleinzumachen?

Die Höhenstrahlung beim Fliegen ist in der Regel 100- bis 1000-mal so stark wie die Bodenstrahlung auf der Erdoberfläche. Sie kommt aus dem Weltraum und hängt von der Flughöhe, der geographischen Breite und der Aktivität der Sonne ab. In unserer hohen geographischen Breite ist auf Reiseflughöhe mit Werten um 6 Mikro-Sievert pro Stunde zu rechnen. In der Concorde waren es wegen der größeren Flughöhe 10 bis 15 Mikro-Sievert pro Stunde [1]. In Deutschland wird für das fliegende Personal die Jahresdosis aus dem Flugplan errechnet, es ergibt sich ein Durchschnitt von zusätzlichen 2 Milli-Sievert, maximal 9 Milli-Sievert. 9 Milli-Sievert ergeben sich durch 1500 Stunden auf der Nordatlantikroute, kurze innerdeutsche Flüge bei geringerer Höhe bedeuten weniger als 2 Milli-Sievert. Alle genannten Werte pro Jahr. Die Strahlenschutzgesetzgebung gilt für den Umgang mit Kernbrennstoffen, nicht aber für die natürliche Höhenstrahlung und nicht für die natürliche Bodenstrahlung und schlussendlich auch nicht für Patienten im medizinischen Bereich. Das wurde im Film zwar gesagt, jedoch ganz nebenbei.

Festgelegt wurde in Japan durch den Gesetzgeber eine Obergrenze für zusätzliche Strahlung aus dem Unfall von 0,4 Mikro-Sievert pro Stunde, „darüber werde es kritisch“, so wurde es im Film gesagt. Beim Fliegen wird die Grenze von 0,4 Mikro-Sievert pro Stunde immer überschritten, meist um mehr als das 10-fache, das ist für Jedermann erlaubt, und zwar so lange wie er mag, das wird nicht als kritisch angesehen.

Wie gefährlich ist Strahlung von Radioaktivität?

Es ist mit der Strahlung sowie mit allen anderen Giften wie es Paracelsus formulierte: „Die Dosis macht das Gift“. Salz ist für uns lebensnotwendig, 200 g auf einmal gegessen ist dagegen tödlich. Eine große Dosis in kurzer Zeit ist also gefährlich,  dieselbe über lange Zeit verteilt ist nicht gefährlich, ja meist sogar gesundheitlich vorteilhaft. Jeder kennt das an der Wirkung der Sonnenbestrahlung oder von Alkohol. Nun hatte man bei Strahlung von Radioaktivität Grenzen festgelegt, als man deren Wirkung auf Lebewesen noch gar nicht kannte, das war in den Jahren 1940/1950. Diese Grenzen wurden in der Folgezeit immer mehr zu kleineren Werten verlegt, so wie man es bei sehr vielen Stoffen heute macht, Vorsorgewerte nennt man sie dann. So ist es gekommen, daß die Grenzwerte bei der Strahlung heute weit unter dem Bereich liegen, den die Natur den Menschen seit ewigen Zeiten zumutet.

Die tödliche Dosis von Strahlung liegt im Bereich 5 bis 10 Sievert bei Ganzkörperbestrahlung, natürlich nur wenn sie in kurzer Zeit einwirkt und nicht auf viele Jahre verteilt wird. In der Medizin folgen nach einer Krebs-OP meist eine Chemo-Therapie und eine Bestrahlung. Diese Bestrahlung erfolgt in Dosen von täglich ca. 2 Sievert innerhalb von etwa 10 Minuten als Organdosis und wird über mehrere Wochen fortgesetzt. Das summiert sich zu einer gesamten Organdosis im Bereich von 40 bis 70 Sievert [2]. Im Deutschen Ärzteblatt heißt es dazu „Gesundes Gewebe kann subletale Schäden in den Bestrahlungspausen weitgehend reparieren.“ Um keine Missverständnisse aufkommen zu lassen: Diese reparaturen sind nichts negatives, im Gegenteil. Der Organismus braucht sie als Anregung, um widerstandsfähiger zu werden. Solche Mechanismen können mit unserem Immunsstem verglichen werden, das ebenfalls bakterielle and Virenangriffe benötigt um effizient zu bleiben. Wenn die Zellen des Körpers also 2 Sievert von einem Tage auf den nächsten reparieren, dann kann schwerlich 1 Milli-Sievert im Jahr eine sinnvolle Grenze im Strahlenschutz darstellen, wie es heute weltweit Gesetz geworden ist. Und schon gar nicht können die bei weniger als einem Millionstel davon liegenden 0,4 Mikro-Sievert pro Stunde „kritisch“ sein, wie es in Japan heißt.

Ein weiteres Beispiel aus der Medizin ist die Hautdosis, die bei Herz-Katheder-Untersuchungen durch Röntgen anfällt; da werden bis zu 410 mSv genannt [3]. Von beiden Patientengruppen, den Krebspatienten und den Herzpatienten gibt es in jedem Jahr in Deutschland weit mehr als 100 000 Personen. An diesem Personenkreis müßte eine schädliche Wirkung von Strahlung an den betroffenen Körperbereichen
nachweisbar sein, wenn sie vorhanden wäre und wenn man sie denn suchen würde.Das unter dem Dach der UN für die Untersuchung der Wirkungen von Strahlung zuständige Fachgremium UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) sagt, daß unterhalb von 200 Milli-Sievert noch nie eine schädliche Wirkung von Strahlung auf Menschen bewiesen worden ist (wobei über die Zeit der Einwirkung nichts gesagt ist). Und zu dem Fukushima-Unfall wird von UNSCEAR gesagt, daß keine gesundheitlichen Schäden durch die ausgetretene Radioaktivität entstanden sind und auch in Zukunft nicht zu erwarten sind [4].
Im Strahlenschutz ist es üblich, jeder noch so kleinen Dosis, unabhängig von der Zeit, eine schädliche Wirkung zuzuschreiben, auch unterhalb der tatsächlichen Schadensgrenze. Es handelt sich hierbei um eine willkürliche Annahme, die weder als richtig noch als falsch zu beweisen ist. Man sagt dazu „Vorsorgeprinzip“. Zur Erläuterung werden dazu gern hypothetische Opfer berechnet, die natürlich nicht nachweisbar sind. Dazu ein Beispiel: Eine Röntgenaufnahme mit 1mSv bedeutet eine Erhöhung des Krebsrisikos von normal 25% auf 25,005%, das ist nicht nachweisbar, aber es klingt glaubhaft. Würde man die gleiche Rechnung für die oben genannten Bestrahlungen mit 60Sv nach Krebs-OP machen, so ergäbe sich ein zusätzliches Todesrisiko von 300% – jeder Patient müßte statistisch bereits eines dreifachen Todes infolge der Therapie gestorben sein. Diese Rechnung mit hoher Dosis wird NICHT gemacht, weil dabei der Unsinn der Argumentation für jedermann deutlich sichtbar wird.

Wie ist das Verhalten der Behörden in Japan zu bewerten?

Die Grenzwerte im Umgang mit Strahlung wurden in Japan sehr streng festgelegt, das wurde im Film gesagt, und es wurde an drei Maßnahmen deutlich:

1.     den Evakuierungen von 146 000 Menschen

2.     den Dekontaminierungsmaßnahmen durch 5cm Bodenabtrag

3.     die Rückhaltemaßnahmen vom Kühlwasser

Zu 1) Als Kriterium zur Evakuierung galt in Japan eine durch die freigesetzten Radionuklide zu erwartende Zusatzdosis von 20mSv pro Jahr. Dieses ist eine Dosis, die bei einer Ganzkörper-CT-Untersuchung erreicht wird und die dort erlaubt ist. Die von der ICRP (International Commission on Radiological Protection) als Kriterium für Evakuierung empfohlene Grenze liegt bei 100mSv im Jahr, also 5-fach höher. Mit den Evakuierungen wurde über 100 000 Menschen grundlos die Heimat genommen, denn ein gesundheitliches Risiko gibt es nicht bei 100mSv, und schon gar nicht bei 20mSv im Jahr.

Zu 2) Ähnliches ist zu den Dekontaminierungsmaßnahmen zu sagen. Es ist richtig, daß der Gamma-Strahler Cäsium-137 weit verteilt worden ist. Die Bodenkontamination von 1 000 000 Becquerel Cs-137 ergibt für den dort lebenden Menschen 2 Mikro-Sievert pro Stunde, also gerade ein Drittel der Exposition beim Fliegen. Ferner ist Cäsium ein Alkalimetall, dieses hat wie alle Alkalien eine sehr gute Löslichkeit in Wasser und wird infolge dessen mit Regenwasser bald verteilt und in den Boden eindringen und so wirkungslos.

Zu 3) Der Stille Ozean enthält etwa 5 * 10^21 Becquerel Kalium-40, ferner weitere radioaktive Nuklide wie Uran und dessen Tochternuklide aus den Zerfallsreihen. In Fukushima wurden etwa 3 * 10^16 Bq Cs in die Luft freigesetzt. Würden diese Nuklide beispielsweise alle in den Stillen Ozean gelangen, dann würde sein Inventar an Radioaktivität um 0,001% steigen. Alle Freisetzungen – in die Luft und ins Meerwasser – werden sehr schnell verdünnt und damit sehr schnell harmlos. Näheres siehe dazu (hier).

Als 4 Jahre nach dem Tschernobyl-Unfall zum ersten Male die Fachleute der IAEA die dortigen kontaminierten Gebiete besuchen konnten, wurde dazu ein Bericht veröffentlicht. In diesem Bericht wurden die Evakuierungen und die Lebensmittelrestriktionen als zu weitgehend kritisiert. Daraus scheint die Welt nichts gelernt zu haben, denn die gesetzlichen Bestimmungen wurden in keiner Weise reduziert – auch nicht in Deutschland.

Die Evakuierungen und Dekontaminierungen von Boden und Kühlwasser haben in Japan riesige Probleme geschaffen, zur Bewahrung der Menschen vor schädlicher Strahlenwirkung waren diese Bemühungen jedoch nicht erforderlich. Es handelt beim Strahlenproblem um ein politisches Problem, in Fachkreisen ist das bekannt [5]. In der Fachzeitschrift Strahlenschutz PRAXIS wurde darauf hingewiesen. Aber die hauptamtlichen Strahlenschützer werden dafür bezahlt, daß sie SCHÜTZEN, so wie es der Gesetzgeber verlangt, auch wenn es sich nur um ein theoretisches und nicht um ein nachweisbares Risiko handelt.

Fazit

Der Film von Ranga Yogeshwar zeigt die Realität in Japan. Die Folgen des Unfalles sind schlimm für die Menschen, für die dortige Wirtschaft und die zukünftige Stromversorgung. Die Ursache dazu ist nicht eine Verseuchung mit Gefahr für die Menschen sondern eine unsachgemäße Gesetzgebung.

Im Film fehlten Vergleichszahlen für radioaktive Bestrahlungsdosen, somit blieb dem Zuschauer die Tatsache verborgen, daß in Wirklichkeit nirgendwo eine Gefahr lauert. Die wichtige Bewertung der Fachleute von UNSCEAR: „Keine gesundheitlichen Schäden durch ausgetretene Radioaktivität, und auch in Zukunft nicht zu erwarten“ blieb unerwähnt. Es gab NULL Opfer in Japan, nur für die Regierenden in Deutschland ist dieses NULL immer noch zu viel des Risikos. Das ist bedauerlich und wird für Deutschland Folgen haben, die sehr viel größer als NULL sein werden.

Es gibt nunmehr seit über 50 Jahren weltweit eine Fehleinschätzung der Gefahren von Radioaktivität, so daß heute die Leute an Gespenster glauben. In dem Bericht „It’s Time to tell the Truth about the Health Benefits of Low-Dose Radiation“ [6] heißt es dazu ”… is the greatest scientific scandal of the 20th century” Dem muss sachlich zugestimmt werden. Es wird allerhöchste Zeit, darüber zu reden.

Literaturhinweise

[1] „Höhenstrahlung, die Exposition beim Fliegen“ in GSF-Broschüre „Strahlung, von Röntgen bis Tschernobyl“, 2006

[2] Deutsches Ärzteblatt Jg. 110, Heft 17, 26.4.2013, Seite 720 – 721

[3] „Strahlen und Strahlenschutz“ von Hans Kiefer und Winfried Koelzer, ISBN 3-540-17679-9, Springer-Verlag, 1987, Kapitel „Ionisierende Strahlung in der medizinischen Praxis“

[4] www.unscear.org/ Bericht vorgestellt am 2.4.2014 in Wien

[5] Vorträge auf dem Fachsymposium „Strahlenschutz – Ein Jahr nach Fukushima“ des Deutsch-Schweizerischen Fachverbandes für Strahlenschutz e.V. (FS), 8. und 9.März 2012 in Mainz

[6] James Muckerheide: http://www.21stcenturysciencetech.com/articles/nuclear.html




EEG-Unterstützer verzweifelt gesucht

Und das, obwohl mich der Presseclub beziehungsweise mein hochehrwürdiger ZDF-Kollege Reinhard Schlieker ausdrücklich als Autor des Buches „Der grüne Blackout. Warum die Energiewende nicht funktionieren kann“ gecastet hatte. Ambivalent kann man den Titel nicht gerade nennen. Mein Gegenspieler Jens Strüker, Professor für Energiemanagement an der Fresenius-Universität, würde das Gegenteil behaupten respektive beweisen. Also drehte ich gleich am Anfang alle rhetorischen Geschütztürme in seine Richtung: Erstens, in Norddeutschland wird schon jetzt an vielen Tagen weit mehr Grünstrom erzeugt als verbraucht; da sowohl Stromtrassen als auch Speicher fehlen, muss er oft massenhaft in Ausland verschenkt oder teuer entsorgt werden. Zweitens bestehen die windschwachen Südländer wie Rheinland-Pfalz und Baden-Württemberg trotz des Stromüberflusses im Norden darauf, ihre eigenen Windrädchen vorzugsweise in Waldgebiete zu stellen, und das, obwohl mittlerweile zwei Drittel der Mühlen im Binnenland rote Zahlen produzieren. Drittens decken die regenerativen Energien an sonnigen und windigen Junitagen schon den gesamten Strombedarf Deutschlands, bei stilltrübem Wetter wie im Dezember 2013 liefern sie allerdings kaum fünf Prozent der Elektroenergie – ein Umstand, an dem auch jedes weitere Windrad nichts ändert. Folglich braucht Deutschland neben dem Ökostromsektor auch in Zukunft fast seinen gesamten konventionellen Kraftwerkspark, der selbst mehr und mehr zum Subventionsfall wird, weil er nur noch als Lückenspringer ans Netz darf. Die gesamte Operation Energiewende – Kosten bis heute: 400 Milliarden Euro – spart nicht ein Gramm Kohlendioxid, weil Windräder und Solarzellen keine Kilowattstunde berechenbare Grundlast ins Netz schicken. Was mich zu meinem Ceterum censeo führte: das Erneuerbare-Energien-Gesetz, kurz EEG, muss weg – ein Gesetz, das die gewaltigste ökonomische Fehlentwicklung nach dem zweiten Weltkrieg befördert und außer ein paar tausend Subventionsrittern keinem nützt.

Dann war Professor Strüker am Zug, und nach ein paar Minuten wurde mir klar, dass ich in Wiesbaden keine Chance zu einem Meinungskampf bekommen würde. Mein Gegenspieler sagte nämlich: Sehe ich im Prinzip genau so. In der Analyse seien wir uns sehr einig. Er finde auch, das EEG könne weg. Mit anderen Worten: ich bin ganz bei Ihnen.

Puhh. Eine rhetorische Breitseite, nur um zu sehen: Bei dem anvisierten Karthago handelt es sich um keine Festung, sondern um eine offene Stadt, über der scheinbar längst die weiße Fahne flattert.

Deshalb frage ich mit diesen Zeilen einmal in die ganz große Runde: Wer verteidigt eigentlich noch das EEG? Schon 2013 empfahl die Monopolkommission, ein Beratungsgremium führender Wirtschaftswissenschaftler, das EEG wegen gravierender Fehlsteuerungen zu streichen. Als nächstes empfahl eine von der Bundesregierung selbst eingesetzte Expertenkommission, das EEG zu streichen, weil es praktisch nichts zur technischen Innovation beitrage. Im Herbst 2014 empfahlen die so genannten Wirtschaftsweisen der Bundesregierung wiederum, das EEG abzuschaffen. Vor wenigen Tagen erklärte Wirtschafts- und Energieminister Sigmar Gabriel bei einem Auftritt in Stuttgart, bei der Energiewende „passt so gut wie nichts zusammen“. Er sagte dort praktisch das Gleiche wie ich, der kleine unmaßgebliche Buchautor, in Wiesbaden. Aber irgendwelche Unterstützer muss es doch geben, die sich für die milliardenverschlingende Umverteilungs- und Chaosmaschine in die Bresche werfen. Franz „die Sonne schickt keine Rechnung“ Alt? Claudia „die EEG-Umlage wird nicht über 3,59 Cent steigen“ Kemfert? Jürgen „Eiskugel“ Trittin? Anyone? Wenn sie noch zu den EEG-Anhängern zählen, dann meiden sie jedenfalls seit einiger Zeit die Arenen des öffentlichen Meinungskampfes.

Praktisch alle Wirtschaftsexperten rammen das EEG in den Boden, der zuständige Minister hält es für ein missratenes Monstrum. Aber trotzdem läuft es weiter und weiter, zerlegt die Energiewirtschaft und schluckt jährlich über 20 Milliarden. Karthago steht ohne Verteidiger da, bleibt aber rätselhafterweise Großmacht.

Vielleicht wäre es jetzt an der Zeit, jetzt eine Massenpetition gegen das EEG zu starten.

Siehe auch hier und hier.

Das Buch des Autors "Der grüne Blackout" kann u.a. hier erworben werden.

Der Beitrag erschien zuerst bei ACHGUT 

  




Die neueste Eisbären-Ente

Der österreichische Kurier jammerte in seiner Ausgabe vom 18. November 2014:

40 Prozent weniger Eisbären
Der Klimawandel bedroht den Lebensraum des Königs der Arktis, des Eisbären – das ist nicht neu. Neu ist jetzt aber eine Studie, die das Bedrohungsszenario in Zahlen gießt. Wissenschaftler aus Kanada und den Vereinigten Staaten haben die weißen Bären mehr als zehn Jahre lang beobachtet und kommen in einer Studie zu dem Schluss, dass ihre Zahl zwischen 2001 bis 2010 nördlich von Alaska um etwa 40 Prozent gesunken ist.

Einige Tage später sprang auch Die Welt in den Ring und schrieb am 23. November 2014:

Klimaerwärmung: Eisbären in Alaska sind vom Aussterben bedroht
Der Klimawandel macht den Eisbären stark zu schaffen. Ohne das Packeis auf dem Meer fehlt den Tieren ihre Plattform zum Jagen. Die Folge ist ein dramatischer Rückgang des Bestandes.
Den Eisbären schmilzt langsam, aber sicher ihr Lebensraum davon: Nur noch 900 Eisbären leben derzeit in der Beaufortsee in Alaska und im Nordwesten Kanadas, wie eine jetzt im Fachjournal “Ecological Applications” veröffentlichte Studie zeigt. Im Jahr 2004 waren es dagegen noch 1500 Tiere, wie das Forschungsteam unter der Leitung von Jeffrey Bromaghin vom Alaska Science Center schreibt.
Weltweit gibt es noch etwa 20.000 bis 25.000 Eisbären. Ursache für den Rückgang des Bestandes ist vor allem das fehlende Eis im Sommer. “Der Klimawandel macht den Tieren zunehmend zu schaffen”, sagt die WWF-Expertin Sybille Klenzendorf.

Das klingt dramatisch, und wenn sich die Todesspirale weiter fortsetzt, dann sind schon bald alle Eisbären tot. Diesen Eindruck bekommt man jedenfalls beim Lesen der beiden Presseartikel. Nun lohnt es sich jedoch durchaus, einmal in die Originalarbeit selber hineinzuschauen. In der Zusammenfassung schreiben die Autoren nämlich einige Dinge, die die Zeitungen ihren Lesern leider vergaßen mitzuteilen:

Die geringe Überlebensrate von 2004 bis 2006 führte zu einem Rückgang um 25% bis 50%. … Aus nicht geklärten Gründen hat sich jedoch die Überlebensrate von adulten und Jungtieren ab 2007 wieder verbessert, und der Bestand war von 2008 bis 2010 vergleichsweise stabil mit etwa 900 Bären im Jahre 2010.

Die Studie umfasste die Jahre 2001 bis 2010. In den Jahren 2004-2006 ging die Population stark zurück, allerdings erholte sie sich ab 2007 wieder, und die Eisbärenzahlen gingen wieder nach oben. Diese seit nunmehr 7 Jahren andauernde positive Entwicklung wird in der medialen Katastrophenberichterstattung doch glatt unterschlagen. Zudem passt der Trendumschlag im Jahr 2007 so gar nicht zur angebotenen Erklärung, das schwindende Sommer-Meereis könnte etwas mit dem Eisbärensterben zu tun haben. In jenem Jahr schrumpfte das arktische Meereis im Sommer auf ein Rekordminimum. Trotzdem nahmen die Eisbären zu jener Zeit wieder zu. Die schwierigste Zeit erlebten die Eisbären 2004-2006, als das Eis noch viel ausgedehnter war als 2007.

Abbildung: Entwicklung des polaren Meereises in der Arktis (blaue Kurve) und Antarktis (rote Kurve) während der vergangenen 35 Jahre. Quelle: Climate4You-Newsletter, September 2014, nach NSIDC-Daten.

Ähnliche Einbrüche der Eisbärenpopulation wie 2004-2006 hatte es in der Beaufortsee in der Vergangenheit stets gegeben, wie die Zoologin Susan Crockford in ihrem Blog Polar Bear Science am 18. November 2014 in einer Besprechung der neuen Arbeit berichtete:

Hier kommen ein paar weitere gute Nachrichten hinsichtlich der Eisbärenpopulation, diesmal aus einer umfangreichen Studie aus der Südlichen Beaufort-See. Eine jüngst veröffentliche Studie zeigt eine Abnahme um 25% bis 50% zwischen 2004 und 2006 (stärker als ursprünglich berechnet). Allerdings hat sich die Population bis zum Jahre 2010 deutlich erholt (obwohl das vorherige Niveau noch nicht erreicht ist). Alle Schlagzeilen in den Medien (z. B. in The Guardian) sind den Pressemitteilungen gefolgt, die sich auf das Ausmaß des Rückgangs konzentriert haben. Dabei ist die Erholung des Bestandes der Teil der Studie, der wirklich eine neue Nachricht ist, basiert dies doch auf neuen Daten. Diese Erholung ist ähnlich einer solchen, die Ende der siebziger Jahre dokumentiert worden ist. Davor war es zwischen 1974 und 1976 zu einer starken Abnahme der Population gekommen, verursacht durch besonders starken Eisgang im Frühjahr (hier). … Allerdings zeigte sich in der Studie keinerlei Korrelation zwischen Rückgang der Population und Eisbedingungen. Eine solche Korrelation konnte nicht gefunden werden, weil man nicht die Dicke des Eises im Frühjahr in die Modelle eingegeben hatte – man hatte lediglich die sommerlichen Eisbedingungen betrachtet. Ich finde das ziemlich merkwürdig, da frühere Beispiele dieses Phänomens, das etwa alle 10 Jahre seit den sechziger Jahren zu beobachten ist, allesamt mit dicken Eisbedingungen im Frühjahr zusammenhingen (Die Rückgänge von 1974 bis 1976 sowie von 2004 bis 2006 waren die schlimmsten). Ein weiterer Vorgang dieser Art könnte sich im Frühjahr dieses Jahres ereignet haben (April 2014 hier), doch wurde dieser Vorgang bislang nicht bestätigt.

Das zyklisch alle 10 Jahre auftretende Eisbärensterben hat laut Studien eher mit den Meereisbedingungen im Frühling zu tun und gar nicht so sehr mit der Eislage im Sommer. Das Frühlingseis war jedoch gar nicht Thema der neuen Studie von Jeffrey Bromaghin und Kollegen und blieb somit unberücksichtigt. Die zeitlichen Diskrepanzen zwischen Eisverlauf und Eisbärenentwicklung fielen letztendlich auch den Autoren auf. In der Kurzfassung ihres Papers erklären sie explizit, dass hier wohl ganz andere Faktoren abseits des Meereises eine Rolle spielen:

Allerdings zeigen unsere Ergebnisse im Kurzfristzeitraum, dass andere Faktoren als das Meereis das Überleben beeinflussen können. Ein verbessertes Verständnis der ökologischen Grundlagen als Basis für die Dynamik der Eisbärenpopulation ist notwendig, um Projektionen ihres Status‘ in der Zukunft zu verbessern und zur Entwicklung von Management-Strategien zum Schutz der Eisbären.

Peinlich für Sybille Klenzendorf vom WWF, die im Gespräch mit der Welt weiterhin ihr Sommermeereismärchen verkündet. Offenbar hat sie das Paper gar nicht gelesen. Vorwürfe muss man jedoch auch den Autoren der Studie selber machen. In ihrer Pressemitteilung zur Studie schüren sie die Klimaangst, indem sie einleitend die alarmistische Richtung vorgeben:

In einer neuen, heute veröffentlichten Studie über Eisbären haben Wissenschaftler aus den USA und Kanada herausgefunden, dass die Anzahl der Polarbären in der Südlichen Beaufort-See während der ersten Dekade des 21. Jahrhunderts stark zurückgegangen ist, und zwar um etwa 40%.

Ein paar Absätze weiter unten werden dann doch Zweifel ausgedrückt, die es nicht in die deutschsprachige Presse geschafft haben:

Das Überleben der adulten Tiere und ihres Nachwuchses begann sich ab 2007 zu verbessern, und die Population stabilisierte sich bei etwa 900 Bären im Jahre 2010, dem letzten von der Studie abgedeckten Jahr. … Die geringe Überlebensrate kann verursacht sein durch eine Kombination von Faktoren, die schwierig zu erkunden sind, und warum sich die Population zum Ende der Studie erholte, ist unbekannt. Forschung und Überwachung für ein besseres Verständnis der das Überleben beeinflussenden Faktoren gehen weiter.

Die Pressemitteilung stammt vom 17. November 2014. Zu jenem Zeitpunkt hätten die Autoren jedoch bereits wissen müssen, dass sich die Eisbärenpopulation nach Ende des Untersuchungszeitraums sogar noch weiter erholt hat. Weshalb erwähnen Jeffrey Bromaghin und seine Mitstreiter dies nicht, fragte sich auch Susan Crockford in einem weiteren Beitrag vom 19. November 2014 in ihrem Blog:

Warum hat man mit der Überwachung der Eisbärenpopulation in der Südlichen Beaufort-See im Jahre 2010 aufgehört? Klar ist, dass die kürzlich veröffentlichte und verbreitet in den Himmel gelobte neue Studie zu einem Zeitpunkt beendet worden ist, bevor die Erholung aus einem bekannten Rückgang vollständig war. Die Forscher der jüngst veröffentlichten Studie wussten schon vor Beginn ihrer Arbeit im Jahre 2007, dass ein Rückgang der Population erfolgt war. Sie wussten auch, warum es dazu gekommen war und dass auf frühere Rückgänge, verursacht durch ähnliche Bedingungen, jedes Mal eine vollständige Erholung gefolgt war. Haben sie wirklich geglaubt, dass es zu einer vollständigen Erholung des Bestandes in nur vier Jahren kommen würde, innerhalb einer Zeitspanne also, in der 2007 geborene Jungtiere noch gar nicht das Fortpflanzungsalter erreicht hatten? Tatsächlich hat eine Fallstudie des US Fish and Wildlife Service (USFWS) in der Südlichen Beaufort-See höhere Bestände gefunden hat als jemals in einem Jahrzehnt. … Allerdings berichtet der USFWS im Eisbären-Newsletter 2013/2014 (pdf hier, Seite 17 unten rechts) dass dessen Überwachung aus der Luft gezeigt hat, dass die Population im Jahre 2012 in der Südlichen Beaufort-See „hoch“ war im Vergleich zu früheren Jahren, und dass sich die Bären in „normaler“ Kondition befanden.

Die Anzahl der im Jahre 2012 beobachteten Eisbären war im Vergleich zu früheren Erkundungen während des vergangenen Jahrzehnts hoch. Die Körperkonstitution schien relativ normal zu sein für diese Jahreszeit, fand man doch die meisten Bären in normaler Körperkonstitution vor.

Warum sollten die Autoren der Studie aus dem Jahr 2014 hinsichtlich ihres Endzeitpunktes Rosinenpickerei betreiben, wenn sie doch zum Zeitpunkt der Einreichung ihrer Studie zur Veröffentlichung wissen mussten, dass sich die Erholung der Population über das Jahr 2010 hinaus erstreckt hat? … Unter dem Strich: Die Autoren wussten, dass es Daten gibt, die zeigten, dass sich die Erholung des Bestandes auch nach 2010 noch fortgesetzt hatte, aber sie haben diese Tatsache in ihrer Studie weggelassen, ebenso wie in der Presseerklärung oder in ihren Presseinterviews.

Ein erschreckendes Resultat: Bewusst unvollständige Berichterstattung in den Medien, Unterschlagung von positiven Trends, Ausblendung von wissenschaftlichen Zweifeln und geschickt gewählte Endpunkte von statistischen Untersuchungen. Haben Journalisten und Wissenschaftler in den letzten Jahren wirklich nichts dazugelernt?

Link: http://www.kaltesonne.de/die-neueste-eisbaren-ente/

Artikel zuerst bei der Kalten Sonne erschienen. Übersetzung der englischen Passagen von Chris Frey EIKE