1

Kann das IPCC revolutionäre Wissenschaft durchführen?

Die SPM-Ausgabe, die den Regierungen am 2. August übermittelt worden ist, kondensiert auf 22 Seiten den Inhalt der 14 Kapitel im AR 5, in denen wissenschaftliche Studien zusammengefasst werden, die zwischen 2006 und dem 15. März 2013 veröffentlicht worden sind.

Diese SPM ist (oder könnte es sein) ein Dokument von welterschütternder Wichtigkeit. Wie Bloomberg sagt: „Sie ist dazu gedacht, von Ministern herangezogen zu werden, die bis 2015 einen globalen Vertrag zum Kampf gegen den Klimawandel aushandeln sollen“.

Der Zeitrahmen für den globalen Vertrag wurde auf der Doha-COP verschoben, weil Entwicklungsländer (vor allem China und Indien) den Eindruck hatten, dass die SPM 2013 eine unverzichtbare Grundlage der Verhandlungen sein sollte. Regierungen brauchen eine autoritative, aktualisierte Zustandsbeschreibung sowohl des Ausmaßes als auch der Gründe der Bedrohung durch den Klimawandel, und zwar jetzt und in Zukunft.

Aber die SPM wurde eingerahmt von momentanen Klimaänderungs-Ereignissen, die nach Redaktionsschluss im März aufgetreten waren – und selbst noch, nachdem die Fassung in Umlauf gebracht worden war.

Klimasensitivität

Das Thema Ausmaß der Erwärmung” konzentriert sich immer mehr auf die Frage, wie sensitiv der Planet auf die zunehmende CO2-Konzentration reagiert. Die Gleichgewichts-Klimasensitivität [equilibrium climate sensitivity (ECS)] wurde im Jahre 1979 von Charney grob geschätzt mit 3,0 ±1,5 angegeben, und diese Bandbreite wurde mehr oder weniger in allen vier IPCC-Zustandsberichten zuvor beibehalten.

Während des Jahres 2012 haben viele Forschergruppen darauf hingewiesen, dass neueste Daten und moderne Diagnose-Methoden jetzt gezeigt haben dass die 30 Jahre alte Schätzung von 3°C erheblich übertrieben war. Begutachtete Studien waren unter anderen:

● Ring et al.: Schätzungen der Klimasensitivität liegen zwischen 1,5°C und 2°C.

● Van Hateren: Die Sensitivität im Maßstab eines Jahrtausends beträgt 2,0°C ±0,3°C

● Aldrin et al.: Das 90%-Intervall liegt zwischen 1,2°C und 3,5°C mit einem Mittelwert bei 2,0°C.

Dies führte natürlich zu großen Meinungsverschiedenheiten und wurde zur wesentlichen Herausforderung, der sich die Leitautoren der WG1 gegenüber sahen. Obwohl wir noch nicht wissen, wie sie am Ende reagiert haben, zeigt eine durchgesickerte Kopie der SPM-Ausgabe, dass sie im Wesentlichen der langzeitlichen Orthodoxie verhaftet blieben.

Im Januar 2013 berichteten britische Medien, dass das UK Met. Office UKMO eine 20-jährige Pause der globalen Erwärmung bis zum Jahr 2017 projiziert hatte. Dieser ‚Stillstand’ war von den Klimamodellen nicht simuliert worden. Im Februar musste der IPCC-Vorsitzende Pachauri einräumen, dass der Temperaturverlauf schon seit 17 Jahren flach verlaufen war. Ihm zufolge wäre ein Stillstand von 30 Jahren erforderlich, um den bisherigen Konsens zu verwerfen.

Sowohl das Thema „Grund” als auch „Ausmaß” hängen stark von der Validität der Klima-Simulationen durch das derzeitige Coupled Model Intercomparison Project (CMIP5) ab, wie auch alle anderen IPCC-Projektionen der zukünftigen planetaren Temperaturen und deren Auswirkungen. Seriöse wissenschaftliche Zweifel sowohl an den mit ECS zusammen hängenden Inputs als auch an der Genauigkeit der Temperaturberechnungen wären fatal für die Glaubwürdigkeit des AR5.

Nach Redaktionsschluss für WG1-Studien haben nachfolgende Studien aus diesem Jahr 2013 starke Bedenken hinsichtlich der übertriebenen Klimasensitivität wiederbelebt:

● Otto et al.: Die beste Schätzung der Sensitivität liegt um 30% unter dem CMIP5-Multimodell-Mittelwert.

● Forster et al.: Die Analyse von CMIP5 zeigt, dass 2/3 über der ‚Wahrscheinlichkeits’-Bandbreite von Otto liegen.

● Masters: Mittlere Schätzung von ECS beträgt 1,98°C.

● Lewis: verbesserte Methoden zeigen einen Wert um 1,6 K [show the mode and median to be 1.6K].

In einer Anhörung vor dem Kongress zitierte Judith Curry die Hawkins-Graphik, die beobachtete Trends unter 90% der CMIP5-Projektionen zeigt, und weist darauf hin, dass die Erwärmung bis zur Mitte des Jahrhunderts nicht wieder einsetzen könnte. James Hansen ordnet den ‚Stillstand’ einer Kombination natürlicher Variabilität und niedrigerer Sensitivität zu, sagt aber vorher, dass „die Temperatur während der nächsten paar Jahre mit der nächsten El Nino-Phase wieder signifikant steigen werde“.

Temperatur-Stillstand

Der Temperatur-Stillstand war seit vielen Jahren aus den Daten offensichtlich, aber der Standesdünkel der Klimawissenschaft hielt es nicht für nötig, dies zu erwähnen – bis zur öffentlichen Enthüllung Anfang 2013. Einmal ausgesprochen bedurfte es einer Erklärung – und dann wurde klar, dass es einen großen Mangel an Forschungen hierzu gab. Bis die Forscher in der Lage waren, diese Lücke zu füllen, war die SPM-Ausgabe bereits verteilt worden.

Im August 2013 erschien eine ganze Flut sehr einflussreicher Studien:

● von Storch & Zorita [1] fanden, dass die beobachteten Temperaturen von 1998 bis 2012 nicht konsistent waren mit 23 getesteten CMIP3 und CMIP5-Modellen, selbst auf dem 2%-Vertrauensniveau. Die Inkonsistenz nahm rapide zu mit der Trendlänge, und ein 20-Jahres-Trend (d. h. bis zum Jahr 2017) würde außerhalb des Ensembles aller vom Modell simulierten Trends liegen.

● von Storch & Zorita (die gleiche Studie) folgern, dass die ‚natürliche’ Variabilität und/oder externe Antriebe möglicherweise die anthropogene Erwärmung während des Stillstands unterbrochen haben. Eine überschätzte Sensitivität kann ebenfalls einen Beitrag dazu geleistet haben.

● Tung & Zhou [2] berichteten, dass „die zugrunde liegende anthropogene Gesamt-Erwärmungsrate seit 1910 konstant 0,07 bis 0,08°C pro Jahrzehnt betragen habe, mit überlagerten, mit der AMO zusammen hängenden Auf- und Abwärtsbewegungen…“. Die stark gestiegenen CO2-Konzentrationen der letzten Jahrzehnte haben nicht dazu geführt, dass sich die Erwärmung nicht wie von den Modellen vorhergesagt beschleunigt hat.

● Yu Kosaka & Shang-Ping Zie [3] konnten plausibel zeigen, dass die Klimamodelle die natürliche Variation erheblich unterschätzt haben. La Nina-Kaltphasen im Ostpazifik während des 21. Jahrhunderts (seit die PDO negativ geworden ist) haben die projizierte Treibhaus Erwärmung bezwungen. Der Erwärmungstrend von 0,68°C während der Jahre von 1975 bis 1998 (als die PDO positiv war), würde sich aus 0,4°C aus natürlichen und lediglich 0,28°C aus anthropogenen Gründen zusammensetzen [4].

● Katz et al. [5] sagen, dass die vom IPVV verwendeten kritischen Unsicherheits-Messungen „deutlich über ein Jahrzehnt überholt“ sind. Moderne statistische Verfahren könnten die Zustandsbeschreibungen „dramatisch“ verbessern.

● Fyfe, Gillet & Zwiers [6] konzentrierten sich auf die außerordentliche Lücke zwischen den Temperatursimulationen von 37 CMIP5-Modellen und den beobachteten Daten. Infolge einer ‚Kombination von Fehlern’ haben die Modelle die Erwärmung während der vergangenen 20 Jahre zu 100% und während der letzten 15 Jahre um 400% überschätzt.

Die Revolution kommt…

Diese neuen Studien zerschlagen die IPCC-Orthodoxie, dass die gegenwärtigen und zukünftigen globalen Temperaturen hauptsächlich durch Treibhausgas-Emissionen getrieben und später in diesem Jahrhundert ein gefährliches Niveau erreichen werden. Andererseits sind alle älteren Studien völlig überrumpelt worden durch ihr offensichtliches Scheitern, die gegenwärtigen Daten (den Stillstand) einzubeziehen.

Im IPCC-Bericht aus dem Jahr 2001 wurde besänftigt [7]: Bei der Klimaforschung und –modellierung haben wir es mit einem gekoppelten, nicht linearen, chaotischen System zu tun, weshalb eine langzeitliche Vorhersage des künftigen Klimas nicht möglich ist. Was wir noch am ehesten ereichten können, ist die Vorhersage der Wahrscheinlichkeits-Verteilung möglicher zukünftiger Zustände des Systems durch die Erzeugung von Ensembles von Modell-Lösungen. Dies reduziert die Klimaänderung auf das Beurteilungsvermögen signifikanter Unterschiede in den Statistiken solcher Ensembles.

Die Hypothese der „gefährlichen anthropogenen globalen Erwärmung” DAGW basiert auf einem eindeutigen Unterschied zwischen den CMIP5-Modellläufen mit natürlichen plus anthropogenen Antrieben im Vergleich zu natürlichen Antrieben allein. Dieser Unterschied verschwindet, wenn die Ensembles so adjustiert werden, dass sie gegenwärtige empirische Daten reflektieren. Es ist ziemlich wahrscheinlich, dass die natürliche Variabilität (einschließlich natürlicher Antriebe) die anthropogenen Effekte immer marginalisiert hat und dass dies auch in der gesamten Zukunft so ist.

In seinem Aufsatz aus dem Jahr 1962 mit dem Titel The Structure of Scientific Revolutions hat Thomas Kuhn überzeugend dargelegt, dass sich Wissenschaft nicht durch die lineare Akkumulation von Wissen auszeichnet, sondern periodische Umwälzungen oder ‚Paradigma-Änderungen’ durchläuft.

Nach Kuhns Ansicht wird es während langer Perioden normaler Wissenschaft keine Beweise geben, die inkompatibel mit dem gerade herrschenden Paradigma sind. Wenn sich jedoch Anomalien häufen, erreicht die Wissenschaft vielleicht eine Krise, die die notwendige Akzeptanz eines neuen Paradigmas befeuert, in dessen Rahmen sowohl die alten als auch die neuen Ergebnisse eingepasst werden. Kuhn nennt das den umgestaltenden Punkt; revolutionäre Wissenschaft.

Das Jahr 2013 führt in eine seit langem verspätete Revolution der Klimawissenschaft. Ein neues Paradigma wird gefordert, das anerkennt, dass AGW nichts weiter ist als eine nicht-deterministische Komponente in einem ‚nicht linearen, chaotischen System’.

Umgang mit der Paradigma-Änderung

All dies hinterlässt das IPCC in einer schlimmen Fessel hinsichtlich seines Treffens im September. Sollte es:

● eine SPM einstampfen, die von den Ereignissen überrollt worden ist?

● einen wesentlichen Vorbehalt hinsichtlich des Status’ im März 2013 hinzufügen und einen Anhang in Aussicht stellen, in dem nach Redaktionsschluss erschienene Studien behandelt werden, oder

● sollte es das Treffen verschieben, um ein Crash-Programm abzufassen, mit dem sowohl der Technical Report der WG1 als auch die daraus resultierende SPM umgeschrieben werden kann?

‚Business as usual’ ist die schlechteste Option. Angesichts der harten internationalen Verhandlungen, die auf diesem Dokument aufbauen, ist es viel besser, das Erscheinen dieses Dokuments zu verschieben, als dass es falsch im Umlauf ist – oder unhaltbar. Keine Regierung kann weit reichende politische Entscheidungen treffen, die auf einem Bericht basieren, von dem man weithin glaubt, dass er schon vor seinem Erscheinen obsolet ist.

Ein Zwischenbericht würde ein ähnliches Glaubwürdigkeits-Defizit aufweisen. Schon jetzt [8] haben die Umweltministerien in den USA und Europa formell mehr Klarheit über den „Erwärmungs-Stillstand“ angefordert und das IPCC aufgefordert, die gesamte Information in die SPM zu stecken.

„Die jüngste Verlangsamung des Temperaturtrends ist gegenwärtig ein Schlüsselthema, und doch ist es nicht in geeigneter Weise in der SPM angesprochen worden”, sagte die EU.

Obwohl es in der Ausgabe heißt, dass der Trend nachgelassen hat, sind die Implikationen unklar – was die USA zu dem Kommentar veranlasst hat: „es steht eine Reihe von Zahlen im Raum ohne konkrete Schlussfolgerung“.

Viele Staaten, einschließlich China, trachten nach Informationen über die Wärmeaufnahme in den Ozeanen oder andere natürliche Veränderungen, die die Daten zur Klimaänderung unterdrückt haben.

In der SPM-Ausgabe fehlt offensichtlich jeder Hinweis darauf [9], dass die 30-Jahres-Erwärmungstrends in jedem Jahr abgenommen haben seit dem Spitzenwert im Jahr 2003. Oder darauf, dass die jüngste 10-Jahres-Periode (2003 bis 2012) die kälteste Dekade seit Beginn von Satellitenaufzeichnungen im Jahr 1979 ist [10].

WG1 ist schon lange dafür bekannt, unbequeme Forschungsergebnisse zu ignorieren mit der Begründung, dass die Ergebnisse ‚isoliert’ sind oder in obskuren Journalen veröffentlicht worden sind.. Das kann kaum für die Studien im August gelten. Alle mit einer Ausnahme waren von Nature Climate Change akzeptiert worden. Viele der Autoren haben aktiv Beiträge zu den IPCC-Berichten geliefert, wobei Zwiers derzeit ein Vize-Vorsitzender der WG1 ist und Fyfe ein Herausgeber von Begutachtungen.

Revolutionäre Klimawissenschaft ist im Gange. Die Frage ist jetzt, ob das IPCC dieser Herausforderung gewachsen ist.

[1] http://www.academia.edu/4210419/Can_climate_models_explain_the_recent_stagnation_in_global_warming

[2] http://www.pnas.org/content/early/2013/01/22/1212471110.short

[3] http://www.nature.com/nature/journal/vaop/ncurrent/full/nature12534.html

[4] See http://judithcurry.com/2013/08/28/pause-tied-to-equatorial-pacific-surface-cooling

[5] http://www.nature.com/nclimate/journal/v3/n9/full/nclimate1980.html?WT.ec_id=NCLIMATE-201309

[6] http://www.nature.com/nclimate/journal/v3/n9/full/nclimate1972.html?WT.ec_id=NCLIMATE-201309

[7] 14.2.2.2 WG1 TAR IPCC

[8] http://www.bloomberg.com/news/2013-08-29/global-warming-slowdown-data-sought-in-un-climate-report.html

[9] http://www.quadrant.org.au/blogs/doomed-planet/2013/08/if-warmists-would-only-tell-the-truth

[10] http://www.skepticalscience.com/trend.php

Link: http://wattsupwiththat.com/2013/08/31/can-the-ipcc-do-revolutionary-science/

Übersetzt von Chris Frey EIKE




Energiewende wirkt: Lt. DIHK Umfrage sehen deutsche Unternehmen deutlich mehr Risiken als Chancen

Wen erinnert diese verbale Hampelei nicht an das Gefasel nach dem Untergang des sozialistischen Ostblocks, der Sozialismus sei richtig nur "schlecht gemanagt". Deswegen müsse nun ein „dritter Weg“ versucht werden. Dass rd. 25 % der Unternehmen angeben auf irgendeine Weise ihr Geschäft ins Ausland zu verlegen wird ebenfalls berichtet. Aber kommentiert mit der Botschaft: Die Wirtschaft stellt sich der Herausforderung Energiewende.

Lesen Sie hier den vollen Wortlaut der Presseerklärung der DIHK

(05.09.2013) Die Wirtschaft stellt sich der Herausforderung Energiewende.

Das belegt eine aktuelle Umfrage der Industrie- und Handelskammern (IHKs). Die Erhebung zeigt aber auch, dass steigende Energiepreise und Risiken bei der Versorgungssicherheit die Wettbewerbsfähigkeit vieler Unternehmen gefährden.

Die Wirtschaft blicke "mit Sorge" auf die politische Umsetzung der Energiewende, berichtete Eric Schweitzer, Präsident des Deutschen Industrie- und Handelskammertages (DIHK), der das zweite "IHK-Energiewende-Barometer" heute in Berlin vorstellte.

An der Umfrage beteiligten sich 2.400 Betriebe aller Größenklassen, Branchen und Regionen in Deutschland. Sie bewerteten die Auswirkungen der Energiewende auf ihre Wettbewerbsfähigkeit auf einer Skala von minus 100 bis plus 100 mit minus 11 und damit marginal besser als im Herbst 2012.

"Nur ein kleiner Teil der Unternehmen sieht mehr Chancen als Risiken", berichtete Schweitzer vor dem Hintergrund, dass nur 16 Prozent der Befragten die Auswirkungen die Energiewende als positiv oder sehr positiv für das eigene Unternehmen betrachten.

"Die insgesamt aber skeptische Einschätzung hängt vor allem mit steigenden Energiepreisen und Befürchtungen hinsichtlich der Versorgungssicherheit zusammen", sagte der DIHK-Präsident. "Hinzu kommt: Die Unternehmen können sich auf politische Entscheidungen immer weniger verlassen." Er kritisierte, dass das gesamte Regelwerk der Energiewende "permanent in der Diskussion" stehe.

Doch ließen sich die Unternehmen nicht entmutigen, so Schweitzer. Sie stellten sich zunehmend auf die Energiewende ein und würden selbst aktiv – vor allem mit Maßnahmen zur Steigerung der Energieeffizienz, aber auch über den systematischen Einsatz energieeffizienter Produkte und Dienstleistungen.

An die Politik formulierte der DIHK-Präsident drei Hauptforderungen: Es gelte, den Netzausbau voranzubringen, den Anstieg der Strompreise zu stoppen und die politischen Ziele und Maßnahmen innerhalb der Bundesregierung sowie zwischen Bund und Ländern aufeinander abzustimmen.

"Die Energiewende ist durch viele Baustellen gekennzeichnet", resümierte Schweizer. "Dennoch bin ich optimistisch, dass dieses spannende Projekt zu einem Erfolg werden kann. Das verspricht im Idealfall eine höhere Wertschöpfung in Deutschland."

Mit Dank an Spürnase Pierre Gosselin von notrickszone

Ergänzung

Auch der Handel fürchtet die Energiewendefolgen und fürchtet den Verlust von vielen Arbeitsplätzen auf Grund des Kaufktaftverlustes der Kunden und höhere Energiekosten für die Unternehmen, berichtet u.a. die FAZ:

Folgen der EnergiewendeHändler sehen Arbeitsplätze durch teuren Strom gefährdet

Die Einzelhändler sehen sich durch den Anstieg der EEG-Umlage zur Förderung von Wind- und Sonnenenergie gleich doppelt belastet. Einerseits bleibt den Konsumenten dadurch weniger Geld für Einkäufe im Portemonnaie, andererseits muss die Branche selbst mehr für den Strom zahlen. Immerhin benötigen die Einzelhändler im Jahr rund 35 Terawattstunden Strom, um ihre Geschäfte zu beleuchten oder Lebensmittel zu kühlen.




Wie Anti-Fracking-Aktivisten die Wissenschaft leugnen: Sicherheit von Bohrlöchern

“When you create doubt, no matter how specious your argument is…it doesn’t matter if you go out and say something ridiculous. … The whole purpose is to create inaction and create a feeling that we do not know what is happening when we actually know exactly what’s happening.”

Josh Fox, director of Gasland and Gasland Part II**

[*HINWEIS: Die Links oben sowie auch mehrere der im Text Folgenden ließen sich von mir auch im Original nicht anklicken. Ich gebe die Hyperlinks hier aber trotzdem. Vielleicht gibt es ja unter den LeserInnen einen Computerfreak, der mit so etwas umzugehen weiß. Siehe auch die Bemerkungen am Schluss des Beitrags.

**Das Zitat von Josh Fox steht im Original ganz am Anfang. Ich habe es mir erspart, diesen gefährlichen Unfug zu übersetzen. A. d. Übers.]

Um sicherzugehen, haben wir dieses Thema ausführlich auch schon zuvor behandelt, und zwar hier, hier und hier. Aber immer noch sehen wir Aktivisten, die von außerordentlich vielen Fehlschlägen berichten als Mittel, die Öffentlichkeit zu ängstigen und darüber hinaus die gesamte Entwicklung zum Stillstand bringen zu wollen.

Zweifellos ist die am meisten angeführte Quelle dieser Behauptung der Anti-Fracking-Aktivist Tony Ingraffea, der sehr oft behauptet hat, dass „Industriedokumenten“ zufolge bestehende Bohrlöcher astronomische Leck-Raten aufweisen. Yoko Ono hat dem Herausgeber der New York Times einen Brief geschrieben, in dem sie Ingraffeas „Forschungen“ unterstreicht, und wir alle wissen um den Kurzfilm „The Sky Is Pink” von Josh Fox, der sich auf die gleichen Informationen stützt. Der Sierra Club hat seine Mitglieder aufgefordert, Ingraffeas Arbeiten zu den Leck-Raten zu lesen, und Food & Water Watch behaupten, dass 50 Prozent aller „Fracking-Löcher“ innerhalb von 30 Jahren lecken.

Die Realität jedoch ist, dass diese Anti-Fracking-Aktivisten die Öffentlichkeit absichtlich in die Irre führen hinsichtlich der Sicherheit der Bohrlöcher und der Leck-Raten.

Eines von Ingraffeas „Industriedokumenten” ist eine Jahrzehnte alte Karte von der inzwischen gelöschten Firma Mineral Management Service MMS. Sie haben vielleicht nicht viel von MMS im Zusammenhang mit hydraulischem Brechen gehört, weil ihr Zuständigkeitsbereich offshore lag und nicht onshore, wo das Große Schiefer die Hauptrolle spielt. Tatsächlich war die Karte eine Zustandsbeschreibung von Tiefwasser-Bohrlöchern im Golf von Mexiko, und in der Legende hieß es explizit, dass „Bohrstellen an Land“ ausgeschlossen seien.

Allerdings wird die Lage für den sog. „Zement-Gottvater” Tony Ingraffea und seine aktivistischen Nachfolger sogar noch schlimmer. Die in der Karte gezeigten Daten waren keine Beispiele von Lecks, sondern vielmehr Beispiele von etwas, das als Sustained Casing Pressure SCP bekannt ist. Jeder mit nur grobem Hintergrundwissen der Öl- und Gasindustrie weiß, dass SCP der Druckanstieg in einem Bohrloch ist; es ist nicht das Gleiche wie ein leckendes Bohrloch und zeigt auch nicht an, dass ein Bohrloch leckt.

Es gibt auch viele Möglichkeiten, mit SCP umzugehen. Woher wir das wissen? Weil im gleichen Artikel, der Ingraffeas Karte enthielt, ausschließlich erklärt worden war, wie die Industrie SCP verhindern, reduzieren oder messen kann.

Die gesamte Basis für die Behauptung „die Hälfte aller Schiefer-Bohrlöcher leckt“ besteht aus Daten, die sich weder auf Schiefer noch auf Lecks beziehen.

Wie sich herausgestellt hat, stehen die Behauptungen hoher Leck-Raten seitens der Aktivisten auf so zweifelhaften Füßen, dass nicht einmal ihre eigenen Aussagen übereinstimmen. In einer Kolumne für USA Today schrieb Josh Fox, dass an fünf Prozent der Bohrlöcher „das Betonieren unmittelbar fehlgeschlagen ist“. Acht Monate später verachtfachte sich diese Zahl, als Fox DemocracyNow! gesagt hat, dass „die Verschalung zum Schutz des Grundwassers in 40 Prozent aller Fälle Risse hatte“. Im gleichen Monat hat Fox Al Jazeera gesagt, dass die Fehlerrate näher an 50 Prozent liege (20:16). In seinem Kurzfilm „The Sky is Pink“ (09:23) führte Fox eine neue Zahl ein: 16,7 Prozent. Und schließlich hat Fox auf seiner Reklametour für seinen Film Gasland Part II Platts gesagt, dass die Rate weltweit tatsächlich bei 35 Prozent liege, wobei er sich auf die Society for Petroleum Engineers SPE bezog.

Der letzte Punkt ist bemerkenswert, weil Fox und viele Andere versucht haben, ihre Glaubwürdigkeit zu untermauern mit der Nennung ihrer Quelle. Aber SPE bestreitet, eine solche Einschätzung jemals vorgenommen zu haben. Im Juli 2013 sagte eine Sprecherin von SPE Daily Kos:

„Weder SPE noch irgendjemand, der SPE repräsentiert, hat jemals die Behauptung aufgestellt, dass 35% aller Bohrlöcher (Öl und Gas) lecken. Wir haben keinerlei Basis für eine solche Bestimmung!“

Wenn man auf die realen Daten schaut, kann man erkennen, warum Gegner zu solchen groben und frei erfundenen Mitteln greifen mussten.

Einem Bericht vom Ground Water Protection Council vom August 2011 zufolge wurden über 34000 Bohrlöcher im US-Bundesstaat Ohio zwischen 1983 und 2007 untersucht sowie über 187000 Bohrlöcher in Texas zwischen 1993 und 2008. Die Daten zeigen lediglich 12 Störungen in Ohio, die auf Fehler (oder graduelle Erosion) in der Verschalung hindeuten – das ist eine Fehlerquote von 0,03 Prozent. In Texas betrug die Fehlerrate nur etwa 0,01 Prozent.

Übrigens war es zu den meisten dieser Störungen vor der Einführung moderner Technologie und aktualisierten staatlichen Vorschriften während des letzten Jahrzehnts gekommen.

Garantiert: Eine Fehlerrate von irgendetwas über Null erfordert Verbesserungen, und es gab Fehler in der Verschalung an verschiedenen Stellen im Land. Das sind ernste Dinge, und strenge Regeln und Vorschriften sind hinsichtlich dieser Risiken in Kraft, die diese minimieren sollen. Tatsächlich gehen wesentliche Förderstaaten wie Texas mit aktualisierten Vorschriften für Bohrungen voran, um sicherzustellen, dass diese und andere potentielle Risiken ordnungsgemäß beachtet werden. In Pennsylvania, das dabei ist, zum zweitgrößten Gaserzeuger in den USA zu werden, hat man die Vorschriften bereits im Jahre 2011 aktualisiert.

Die Industrie hat auch eine Reihe von Anforderungen und Erfahrungen übernommen und veröffentlicht. Die Marcellus Shale Coalition hat ein Dokument angefertigt, in dem angemessene Aktionen umrissen werden, und das American Petroleum Institute hat eine lange Liste mit Richtlinien zur Konstruktion und Sicherheit von Bohrlöchern erstellt. Darin finden sich auch Aktionen, die Risiken der Bohrloch-Sicherheit zu minimieren oder vollständig zu eliminieren.

Der aktivistische Standpunkt zu Sicherheitspannen bei Bohrungen basiert nicht auf Wissenschaft oder harten Daten. Er ist eine vollständig ausgedachte Geschichte und besteht aus einer ganzen Reihe irreführender oder glatt falscher Behauptungen, gedacht, Zweifel in den Gehirnen der Öffentlichkeit zu wecken hinsichtlich der Sicherheit der Entwicklung von Schiefer. Es handelt sich nicht um eine Diskussion über Sicherheit oder auch nur Sicherheits-Management und schon gar nicht um einen vernünftigen Dialog über Sicherheit.

Einfach gesagt, die Gegner hoffen, dass die Öffentlichkeit zu dumm ist, um eigene Nachforschungen an- und dabei festzustellen, wie weit die Behauptungen der Gegner von der Wirklichkeit entfernt sind.

Steve Everley currently serves as team lead and national spokesman for Energy In Depth (EID), a research and education program of the Independent Petroleum Association of America. EID focuses on informing key public audiences about the promise and potential of responsibly developing America’s onshore energy resources – especially the abundant sources of oil and natural gas from shale and …

Link: http://tinyurl.com/osbdwdv

Übersetzt von Chris Frey EIKE

Bemerkung: Wie oben erwähnt, handelt es sich bei diesem Beitrag um den vierten Teil einer ganzen Serie. Gerne hätte ich die anderen Teile auch geschaut, aber die Links sind eben nicht erreichbar.

Aber unabhängig davon beleuchtet dieser Artikel indirekt die verbrecherischen Machenschaften der Anti-Fracking-Aktivisten. Deswegen habe ich diesen Beitrag auch zur Übersetzung ausgesucht. Das wird sicher auch bei den anderen drei Themen so sein. Und das rein Fachliche wird auch in vielen anderen Quellen behandelt.

C. F.




Konsens? Was für ein Konsens?

Die Studie

Während der letzten Monate wurde wiederholt festgestellt, dass 97% aller Wissenschaftler zustimmen, dass die globale Erwärmung real und vom Menschen verursacht ist. Diese Behauptungen basieren auf einer Studie von John Cook et al. in dem Journal Environmental Research Letters. (1)

Die Autoren sind allesamt assoziiert mit der umstrittenen Website der AGW-Aktivisten Skeptical Science. Ihre Schlussfolgerungen lauteten:

Unter den Abstracts, in denen AGW zum Ausdruck kommt, haben 97,1% die Konsensposition geteilt, wonach die Menschen Ursache der globalen Erwärmung sind.

Die Studie erregte außerordentliche Aufmerksamkeit, wurde über 20000 mal während der ersten paar Tage nach ihrem Erscheinen heruntergeladen und hunderte Male im ganzen Internet zitiert. Selbst Präsident Obama bezog sich auf Twitter darauf (2):

@Barack Obama: 97 Prozent der Wissenschaftler stimmen überein: die Klimaänderung ist real, vom Menschen verursacht und gefährlich.

Man muss festhalten, dass Obama mit diesem Statement die Studie von Cook et al. fehlinterpretiert, war doch darin gar nicht davon die Rede, dass die globale Erwärmung gefährlich ist. Außerdem basiert sie auf einer Analyse veröffentlichter Abstracts und nicht auf einer Analyse der Meinungen von Wissenschaftlern. Die Konfusion, worum es in der Studie überhaupt geht, scheint auch Ed Davey erfasst zu haben, den Minister für Energie und Klimaänderung, sagte er doch in einem Interview mit Andrew Neil von der BBC (3):

Wir hatten eine vollständig unbehelligte Ansicht der Leugner der Klimaänderung [So? A. d. Übers.]. Ich denke, dass wir mehr Ausgewogenheit in der Debatte haben sollten, vor allem nach der jüngsten Analyse von 12000 wissenschaftlichen Studien … und von den Wissenschaftlern, die einen Standpunkt genannt haben – dass es sich nämlich um Studien zur Klimaänderung handelte – und von den Wissenschaftlern, die zu 97% den Standpunkt vertreten, dass die Klimaänderung stattfinde und dass Ursache die menschlichen Aktivitäten sind.

Planung

Die erhebliche Aufmerksamkeit der Medien hinsichtlich dieser Studie ist keine Überraschung, war sie doch genau für diesen Zweck geschrieben worden. Anfang 2012 führte ein Sicherheitsloch bei Skeptical Science zu einem internen Forum, auf dem das Personal für die Öffentlichkeit bekannt geworden ist. Von den Teilnehmern gab es viele Diskussionsbeiträge, aus denen später die Studie von Cook et al. geworden ist.

In einer dieser Äußerungen hat Cook festgeschrieben, dass das Ziel der Studie die Etablierung eines wissenschaftlichen Konsens’ hinsichtlich AGW ist:

Es ist unabdingbar, dass die Öffentlichkeit versteht, dass es hinsichtlich AGW einen wissenschaftlichen Konsens gibt. Daher haben die (Aktivisten bei Skeptical Science) Jim Powell, Dana Nuccitelli und ich während der letzten Monate an etwas gearbeitet, von dem wir hoffen, dass es einen das Spiel verändernden Einfluss auf die Meinung der Öffentlichkeit hinsichtlich des Konsens’ hat. Grundsätzlich hoffen wir zum Ausdruck zu bringen, dass es nicht nur einen Konsens, sondern einen sich verstärkenden Konsens gibt (4).

Ein anderer Teilnehmer verlieh seinen Sorgen über die Tatsache Ausdruck, dass die Vermarktung der Studie schon vor der eigentlichen Forschungsarbeit geplant worden ist:

Ich muss sagen, dass ich die Ausarbeitung gewaltiger Marketing-Strategien irgendwie eigenartig finde, wenn wir noch nicht einmal Ergebnisse vorliegen haben und das Forschungsobjekt auch nicht so revolutionär daher kommt (sondern lediglich eine Zusammenfassung bestehender Forschungen ist).

Diese Kommentare zeigen, dass es sich bei dem Projekt nicht um eine wissenschaftliche Untersuchung zur Bestimmung des Ausmaßes der Zustimmung zu AGW gehandelt hat, sondern um eine Übung in Public Relations.

Methodik

Die von Cook et al. verwendete Methodik war es, eine Liste wissenschaftlicher Studien zum Thema Klimaänderung zusammenzustellen und das Ausmaß der Zustimmung zur AGW-Hypothese zu bestimmen. Untersucht wurde lediglich das Abstract jeder Studie. Obwohl es in der Studie hieß, dass die Bewertung der Studien durch ein ‚unabhängiges Bewertungsteam’ erfolgt war, war es in Wirklichkeit ein Team freiwilliger Aktivisten in der Gemeinschaft von Skeptical Science.

Die Definition, wozu genau sich diese Studien zustimmend geäußert haben, war für das Autorenteam problematisch, da es eine weit verbreitete Zustimmung auch unter Skeptikern gibt, dass Kohlendioxid ein Treibhausgas ist und dass die Menschheit daher in der Lage ist, den Planeten zu erwärmen. Der Brennpunkt der Debatte richtet sich auf das Ausmaß der Erwärmung.

Allerdings nimmt die große Mehrheit der Studien zur globalen Erwärmung zu dieser Frage gar nicht Stellung. Daher war die Idee, das Ausmaß des Konsens’ durch eine umfassende Begutachtung der Literatur auf diesem Gebiet zu erfassen, so etwas wie Unsinn. Cook und seine Kollegen waren sich dieses Problems sehr wohl bewusst und haben daher anscheinend beschlossen, eine bewusst vage Definition zu formulieren, auf die sich der Konsens bezieht – ‚dass die Menschen die globale Erwärmung verursachen’. In der Diskussion bei Skeptical Science nannte man das den ‚Porno’-Ansatz:

Okay, wir haben eine AGW-Definition ausgeschlossen, wonach diese ‚einen menschlichen Einfluss spiegelt’ oder ‚zu mehr als 50% einen menschlichen Einfluss spiegelt’. Im Grunde folgen wir Aris Porno-Ansatz (vielleicht sollte ich den nicht mehr so nennen), der da lautet: ‚AGW = die Menschen verursachen die globale Erwärmung’, d. h. keine spezifische Quantifizierung, die der einzige Weg ist, um den Umfang der Studien in Betracht zu ziehen, die wir untersuchen. (5)

Der oberflächliche Konsens

Die Formulierung ‚dass die Menschen die globale Erwärmung verursachen’, kann zwei verschiedene Bedeutungen haben. Ein ‚tief greifender’ Konsens würde bedeuten, dass die gesamte oder der größte Teil der Erwärmung vom Menschen verursacht ist. Ein ‚oberflächlicher’ Konsens würde lediglich implizieren, dass ein unbestimmtes Ausmaß der Erwärmung der Menschheit zugeordnet werden kann.

Differenzen über das Ausmaß irgendeines menschlichen Einflusses stehen im Zentrum der Klimadebatte. Die große Mehrheit der involvierten Personen – Wissenschaftler, Ökonomen, Kommentatoren, Aktivisten, Umweltaktivisten und Skeptiker – akzeptieren, dass Kohlendioxid ein Treibhausgas ist, das unabhängig von allen anderen Dingen den Planeten erwärmen wird. Aber ob dieser Effekt groß oder klein ist, bleibt verborgen und ist Gegenstand einer wilden Debatte. Der durchgesickerte zweite Entwurf des 5. IPCC-Zustandsberichtes zeigt eine Reihe von Abbildungen effektiver Klimasensitivität – das Ausmaß der Erwärmung, das man bei einer Verdoppelung des CO2-Gehaltes erwarten kann. An einem Ende der Bandbreite steht eine Studie des bedeutenden Atmosphärenwissenschaftlers Richard Lindzen, der eine Erwärmung von weniger als 1°C pro Verdoppelung schätzt (6). Wenn das stimmt, würde es bedeuten, dass die Klimaänderung ohne Konsequenzen bleiben wird. Am anderen Ende stehen Schätzungen aufgrund von Computer-Simulationen, die, wenn sie stimmen, katastrophal wären.

Man kann zeigen: Wenn Cook et al. sagen, dass es einen Konsens zu der Aussage ‚die Menschen verursachen die globale Erwärmung’ gibt, übernehmen sie die oberflächliche Definition. Den von den Freiwilligen verwendeten Protokollen zufolge, die diese Studien bewerteten, bestätigte eine Studie den Konsens, wenn man das Konzept der anthropogenen globalen Erwärmung akzeptiert, entweder implizit oder explizit und unabhängig davon, ob das Ausmaß des menschlichen Einflusses auf die Temperatur des Planeten quantifiziert wurde. Die meisten Studien wurden als den Konsens unterstützend bewertet (7), obwohl einige anscheinend als neutral eingestuft worden waren. Eine Studie wurde nur dann als ablehnend bewertet, wenn sie den menschlichen Beitrag minimierte, zum Beispiel durch die Aussage, dass natürliche Mechanismen dominieren oder, expliziter, dass der menschliche Beitrag minimal ist.

Daher gab es in den Klassifikationen eine Asymmetrie. In einigen Studien wurde der Einfluss eines großen oder nicht spezifizierten menschlichen Einflusses als den Konsens stützend eingestuft, und lediglich die den menschlichen Einfluss aktiv minimierenden Studien als den Konsens nicht stützend. Zum Beispiel: Die Anleitung, die man den freiwilligen Bewertern gegeben hatte, zeigt, dass ein Abstract, das die Worte ‚Emissionen einer großen Bandbreite von Treibhausgasen über verschiedene Lebenszeiten tragen zur globalen Klimaänderung bei’, sollten als explizite, aber nicht quantifizierte Stützung des Konsens’ eingestuft werden. Diese Phrase sollte ganz klar irgendein Niveau des menschlichen Beitrags zur Erwärmung implizieren. Dies führt zu der unvermeidlichen Schlussfolgerung, dass der von Cook et al. enthüllte Konsens tatsächlich der Oberflächliche war.

Dieses Verständnis der Cook-Studie wird durch einige überraschende Kategorisierungen individueller Studien bestätigt. Es gab nämlich Studien prominentester Kritiker der Mainstream-Klimawissenschaft, die vermeintlich den Konsens unterstützten. Zum Beispiel wurde eine Studie von Nir Shaviv (8), in der Vergangenheit bei Science Skeptical als ‚Leugner’ bezeichnet (9) eingestuft als ‚stützt den Konsens explizit, quantifiziert oder minimiert’ die globale Erwärmung aber nicht.

Shaviv hat diese Einstufung seiner Arbeit komplett zurückgewiesen:

… es handelt sich dabei nicht um eine akkurate Repräsentation (meiner Arbeit). Die Studie zeigt, dass … die Klimasensitivität gering ist … ich konnte diese Dinge wegen des Refereeing [? Vielleicht tendenziöse Begutachtung?] nicht expliziter in der Studie ausführen. Allerdings muss man kein Genie sein, um diese Schlussfolgerung aus der Studie zu ziehen (10).

Genauso hat auch Alan Carlin, ehemals Mitarbeiter bei der US-Umweltschutzagentur die Einstufung seiner Studie von Cook et al. kritisiert, dass sie explizit die globale Erwärmung stützt, sie aber nicht minimiert. Aus seinem Abstract geht klar hervor, dass seiner Ansicht nach das Kohlendioxid nur eine sehr geringe Erwärmung erzeugt:

Die ökonomischen Vorteile einer Reduzierung der CO2-Emissionen können um zwei Größenordnungen kleiner sein als von den meisten Ökonomen geschätzt, und zwar wegen des Klimasensitivitäts-Faktors … Der ist viel niedriger als von den UN angenommen, weil die Rückkopplung eher negativ als positiv ist, und dass die Auswirkungen der Reduzierung von CO2-Emissionen auf den atmosphärischen CO2-Gehalt eher kurz- als langfristiger Natur sind (11).

Der Umgang mit der Shaviv-Studie ist besonders interessant: der Autor hat die globale Erwärmung im Text nicht aktiv herunter gespielt, weil dies es schwierig gemacht hätte, die Studie durch den Begutachtungsprozess zu bekommen. Nur wegen dieses beredten Schweigens zum Ausmaß des menschlichen Einflusses wurde sie als den Konsens stützend eingestuft, und zwar nach der den Bewertern übergebenen Anleitung.

Aus diesen Kommentaren wird ersichtlich, dass beide Autoren akzeptieren, dass Kohlendioxid ein Treibhausgas ist, dass sie aber auch der Ansicht sind, dass die Klimasensitivität gering ist. Das Beispiel der Unterstützung in den Anleitungen – ‚Emissionen einer großen Bandbreite von Treibhausgasen tragen zur globalen Klimaänderung bei’ – wäre in den beiden Studien nicht gegensätzlich beurteilt. Wieder bleibt der Eindruck zurück, dass die Einstufung korrekt war, was die oberflächliche Natur des Konsens’ bestätigt.

Schlussfolgerungen

Cook et al. sind angetreten, um die Existenz eines überwältigenden Konsens’ zur globalen Erwärmung zu zeigen. Während ihr Ansatz mehr der Public Relations als der wissenschaftlichen Methode geschuldet zu sein scheint, gibt es wenig Zweifel, dass es tatsächlich einen wissenschaftlichen Konsens gibt, allerdings keinen, dessen Existenz die Autoren der Studie der Öffentlichkeit glauben machen wollten.

Das letzte Wort zu dieser Studie wird Professor Mike Hulme erteilt, Gründer des Tyndall Centre, des nationalen Klimaforschungsinstitutes in UK:

Der Artikel von Cook et al. ist unausgereift, schlecht aufgemacht und schlecht durchgeführt. Er verschleiert die komplexe Natur des Themas Klima und ist ein Zeichen des ungemein niedrigen Niveaus der öffentlichen und politischen Debatte in diesem Lande. Der Energieminister sollte dies beim Namen nennen. Er nimmt eine Einteilung der Welt in Kategorien wie ‚richtig’ oder ‚falsch’ vor, genau wie in einer früheren Studie die veröffentlichenden Klimawissenschaftler eingeteilt worden sind in ‚Gläubige’ und ‚Nicht-Gläubige’. Mir scheint, dass diese Leute immer noch in der Welt vor 2009 leben (oder leben wollen). Haben sie nicht bemerkt, dass sich das Verständnis der Öffentlichkeit zum Thema Klima weiterbewegt hat? (12)

Link: http://www.thegwpf.org/content/uploads/2013/09/Montford-Consensus.pdf

Übersetzt von Chris Frey EIKE

References:

1 Cook J et al. ‘Quantifying the consensus on anthropogenic global warming in the scientific literature.’ Environmental Research Letters. 2013; 8 024024

2 Although note that the Obama Twitter account is operated by an activist group called Organising for Action. Their work is endorsed by Obama, but the majority of the tweets on the BarackObama account, including the one in question, are not issued by the president in person.3 Consensus? What Consensus?

3 http://www.bbc.co.uk/news/uk-politics-23405202

4 http://www.populartechnology.net/2013/06/cooks-97-consensus-study-game-plan.html4

5 http://rankexploits.com/musings/2013/the-saga-continues/

6 Lindzen is a member of the GWPF Academic Advisory Council.5 Consensus? What Consensus?

7 The guidance to raters suggests that the words ‘carbon sequestration in soil is important for mitigating global climate change’ should be taken as implicit endorsement.

8 Shaviv, who works at the Hebrew University of Jerusalem, is a member of the GWPF Academic Advisory Council.

9 http://www.skepticalscience.com/examining-the-latest-climate-denialist-plea-for-inaction.html

10 http://www.populartechnology.net/2013/05/97-study-falsely-classifies-scientists.html6

11 http://www.populartechnology.net/2013/05/97-study-falsely-classifies-scientists.html

12 http://blogs.nottingham.ac.uk/makingsciencepublic/2013/07/23/whats-behind-the-battle-of-received-wisdoms/




Keine Versicherung von Kernkraftwerken? Einfach nur falsche Propaganda!

Neuerdings erscheint — besonders in deutschen "Qualitätsmedien" — eine etwas geschicktere Variante: Man behauptet, das Risiko sei nur zu 0,0….x Prozent versichert. Die Angabe einer Zahl, soll wohl die Überprüfbarkeit erschweren und ein Hintertürchen offen lassen. Fragt man nach, bekommt man völlig absurde Schadenshöhen genannt. Es ist der alte Wein von "Millionen Tote und für zehntausende Jahre unbewohnbar" in neuen Schläuchen. Fragt man nach den entstandenen Kosten von Harrisburg, Tschernobyl und Fukushima, wird einem zumeist im Brustton der Überzeugung entgegengehalten, daß diese erst in zig Generationen (Krebs und genetische Schäden) meßbar werden. Was soll man da noch sagen? Es empfiehlt sich, spätestens hier die Diskussion abzubrechen, denn man berührt zentrale Fragen des Glaubens. Es ist so, als ob man mit einem tiefgläubigem Katholiken die unbefleckte Empfängnis der Jungfrau Maria auf der Ebene biologischer Tatsachen diskutieren wollte.

Zur Geschichte

Video passend zur Abschaltung der Kernkraftwerken: Will Deutschland wieder mit Holz heizen?

Im Gegensatz zur Behauptung, hat man vom Anbeginn der zivilen Nutzung der Kerntechnik, eine Versicherungspflicht eingeführt. Bereits 1957 wurde in USA der Price-Anderson Act verabschiedet. Er ist bis heute gültig und dient als internationales Vorbild. Er machte das damals große Risiko durch eine mehrstufige Aufteilung handhabbar. Das Risiko war damals nur schwer erfaßbar, weil es sich um eine neue Technologie handelte. Man war vollständig auf theoretische Abschätzungen angewiesen und es gab bei den Versicherungen noch kein Fachpersonal. Man führte eine erst- und zweitrangige Versicherungspflicht ein. Jedes Kraftwerk muß eine eigene Haftpflicht über aktuell 300 Millionen Dollar (Anpassung alle 5 Jahre vorgeschrieben) nachweisen. Wird in einem Schadensfall diese Summe überschritten, tritt die zweitrangige Versicherung in Haftung. Sie wird aus der Gruppe aller Kraftwerke gebildet und haftet aktuell mit über $10 Milliarden Dollar. Finanziert wird sie durch zusätzliche Zwangsbeiträge aller Kraftwerke. Diese Zweiteilung macht Sinn, da es sich um unterschiedliche Energieversorger, mit unterschiedlichen Reaktortypen handelt. Das unterschiedliche "Gefährdungspotential" kann durch unterschiedliche Prämien für die erstrangige Versicherung nachgebildet werden. Sollte dieser Betrag immer noch nicht reichen, beschließt der Kongress über die weitere Vorgehensweise zur Finanzierung des restlichen Schadens. Damit ist keineswegs eine Kostenübernahme gemeint, wie dies von "Atomkraftgegnern" immer wieder behauptet wird, sondern lediglich ein Vorschuß. Wie das Geld wieder von den Verursachern eingetrieben wird (einmalige Sonderumlage, erhöhte Prämien etc.), bleibt bewußt offen und soll gegebenenfalls von der Politik diskutiert und entschieden werden. Diese zeitlich gestaffelte Vorgehensweise, bewährt sich gerade beim Unglück von Fukushima. Sie erlaubt sogar die Abwicklung eines Großschadens mit mehreren Reaktoren gleichzeitig und davon allein vier Reaktoren mit Totalschaden an einem Standort.

Wie eine Versicherung funktioniert

Eine Versicherung haftet für den finanziellen Schaden eines definierten Risikos. Von entscheidender Bedeutung ist der Begriff Risiko: Risiko ist Schaden mal Eintrittswahrscheinlichkeit. Bei häufig auftretenden Ereignissen (Auto-, Lebens-, Krankenversicherungen etc.) sind die entsprechenden Werte einfach und zuverlässig durch Statistiken zu ermitteln. Je seltener die Versicherungsfälle sind (z. B. Beine eines Filmstars), je aufwendiger gestaltet sich die Abschätzung des Risikos. Die "Versicherung" kommt einer Wette im umgangssprachlichen Sinne immer näher. Sowohl für die Bemessung der Prämie, wie auch für die erforderlichen Sicherheiten, ist diese Bandbreite von ausschlaggebender Bedeutung.

Das Risiko ist per Definition ein Produkt aus Schaden und Eintrittswahrscheinlichkeit. Es kann sich also durchaus das gleiche Risiko ergeben, wenn ein großer Schaden selten eintrifft (Kernkraftwerk) oder viele kleine Schäden häufiger (Kfz-Versicherung). Im ersten Fall, muß man die Versicherungssumme über längere Zeit "ansparen" und vorhalten, während man im zweiten Fall einen Großteil der (laufenden) Schäden aus den jährlich zufließenden Prämien direkt abdecken kann. Es ist (statistisch) nur für die Schwankungen ein Puffer anzulegen.

Eine Versicherung, die im Schadensfall nicht zahlen kann, ist völlig wertlos. Deshalb werden alle Versicherungsgesellschaften streng überwacht. Sie dürfen nur bestimmte Risiken im Verhältnis zu ihrem Vermögen eingehen. Hierdurch ergibt sich eine grundsätzliche Schwierigkeit des "Versicherungswesens": Die volkswirtschaftliche Bereitstellung von Sicherheiten. Beispielsweise haben allein die deutschen Versicherungen ein "sicherheitstechnisch gebundenes" Vermögen von fast 1400 Milliarden Euro. Dieses Vermögen muß nicht nur sicher sein, sondern im Ernstfall auch kurzfristig "verflüssigbar". Aus diesem Grunde besteht es zu über 80% aus Rentenpapieren. Ganz neben bei, liegt hierin auch eine Antwort auf die oft gestellte Frage, wer eigentlich von der "Staatsverschuldung" profitiert. Andersherum würden bei einem Staatsbankrott weniger "die Reichen", als wir alle haften. Schließlich ist jeder von uns durch zahlreiche Zwangsversicherungen zumindest indirekt (z.B. Gebäudeversicherung => Miete) beteiligt.

Letztendlich kann man Großschäden nur durch die Verteilung auf viele Versicherungen und international gestreut absichern.

Versicherung versus Staatshaftung

Grundsätzlich kann man Risiken sowohl privatwirtschaftlich (z. B. Autohaftpflicht) wie auch ausschließlich öffentlich (z. B. Eigenversicherung einer Schule) abdecken. Eine privatwirtschaftliche Lösung ist immer zu bevorzugen, wenn eine maximale Kostentransparenz gewünscht ist. Die Eigenversicherung ist hingegen stets billiger: Die Schule wird gar nicht versichert und wenn sie abbrennt, wird sie aus Steuermitteln wieder aufgebaut. Volkswirtschaftlich sind beide Ansätze durch die Bereitstellung von Sicherheiten gar nicht so weit auseinander. Letztendlich haftet immer die gesamte Gesellschaft: Entweder nachher (Kosten im Schadensfall) oder ständig über höhere Preise (Kosten der Versicherungsprämie). Ein Mischsystem aus erstrangiger Privathaftpflicht und nachrangiger Staatshaftung ist oft optimal. Aus diesem Gedanken ergibt sich die maximale Begrenzung der Haftung bei vielen Versicherungen (Auto, Flugzeug etc.). Dies hat erstmal nichts mit der Abwälzung von Kosten auf die Allgemeinheit zu tun, denn die zumeist uneingeschränkte Haftung des Schadensverursachers ist dadurch nicht berührt. Jedenfalls, so lange der Haftende über genügend verwertbares Vermögen verfügt. Abschreckendes Beispiel hierfür, ist die "Asbest-Geschichte", die sogar zum Konkurs ganzer Konzerne (Combustion Engineering etc.) geführt hat. Ein ähnliches Schicksal dürfte den japanischen Energieversorger TEPCO — und damit seine Aktionäre — ereilen. Im Gegensatz hierzu, steht lediglich das sozialistische Gesellschaftssystem, in dem Verantwortungslosigkeit und nicht vorhandenes Eigentum die Grundprinzipien sind: Für den Schaden in Tschernobyl müssen alle Betroffenen selbst aufkommen, da ja der Staat per Definition "nur gut" ist und ein solches Unglück deshalb wie eine Naturkatastrophe hereinbricht. Schadensersatzansprüche lassen sich mangels vorhandenem Eigentum auch nicht einklagen. Der Reaktor ist kaputt und der Staat sorgt im "üblichen Rahmen" für die Geschädigten. Außerdem gibt es im Sozialismus auch gar nichts zu entschädigen, weil es ja kein Eigentum gibt (z. B. vertriebene Bauern). Wahrscheinlich ist hierin die wesentliche Ursache für den laxen Umgang mit Arbeits- und Umweltschutz in den einschlägigen Ländern zu suchen.

Nuklearversicherung als Politikum

Kerntechnische Anlagen sind die einzigen Energieerzeugungsanlagen, für die eine umfassende Versicherungspflicht besteht. Sonst geht die Bandbreite von gar keine Versicherung (Öffentliche Staudämme), über die Minimalbegrenzung von Umweltschäden (Ölverseuchung des Meeres durch Bohrunglücke) zu ewigen Lasten des Bergbaues (das Ruhrgebiet als See). Entscheidend hierbei ist die Wettbewerbsverzerrung. Würde man die fossilen Energieträger durch adäquate Versicherungen (laufend) belasten, wären sie noch weniger konkurrenzfähig. Wenn "Atomkraftgegner" diese Tatsache in das Gegenteil verdrehen, ist das zwar dreist, aber offensichtlich erfolgreich.

Das Kernenergie die kostengünstigste Form der Erzeugung elektrischer Energie in der Grundlast ist, ist heute Allgemeinwissen. Nach Fukushima kann man das durch die unmittelbar gestiegenen Strompreise sogar sehr genau beziffern. In Japan haben durch die zeitweilige Abschaltung der Kernkraftwerke die zusätzlichen Importkosten für Brennstoffe zweistellige Milliardenbeträge jährlich erreicht. In Deutschland verursacht die "Energiewende" inzwischen höhere Abgaben für die Subventionierungen des Abfallstromes, als der Strom in den meisten Ländern überhaupt kostet. Bei der Erfindung fiktiver Kosten, stoßen die "Atomkraftgegner" immer mehr an die Grenzen der Glaubwürdigkeit. Die Vorgehensweise folgt immer der gleichen, simplen Masche: Man erfindet Kosten, damit die Stromerzeugung aus Kernenergie mindestens so teuer, wie der geliebte "Sonnenstrom" wird (obwohl die Sonne doch gar keine Rechnung schickt!). Alles sehr widersprüchlich und nur für schlichte Gemüter geeignet.

Hat sich eigentlich mal jemand überlegt, was geschehen würde, wenn man mehrere Cent Versicherungsprämie auf die erzeugten Kilowattstunden aufschlagen würde? Es würde sich binnen weniger Jahre ein Kapitalstock gigantischen Ausmaßes bilden. In welche Sicherheiten sollte der denn angelegt werden? Er würde sich vielmehr, wie Krebs über die Finanzmärkte ausbreiten. Vielleicht ist das aber bereits ein neuer Plan von Schwarz-Rot-Grün die Staatsverschuldung wieder "finanzierbar" zu machen. Eine Versicherung, in die immer nur einbezahlt wird, erscheint wie das Ei des Kolumbus der Staatswirtschaft. Fast so genial, wie eine Rentenversicherung als "Generationenvertrag".

Die praktischen Erfahrungen

Die private Versicherungswirtschaft hat inzwischen rund 60 Jahre Erfahrung mit der Versicherung kerntechnischer Anlagen. Seit 1956 (UK) auch mit der Bildung von nationalen und internationalen Pools. Es hat sich zu einem sehr lukrativen Geschäft entwickelt. Zu der Haftpflicht kommen heute noch Versicherungen gegen Produktionsausfall, Dekontaminierung nach Störfällen, Kosten zur Beschaffung von Ersatzstrom etc. Solche Versicherungen für interne Schäden, belaufen sich üblicherweise auf mehr als 2 Milliarden Euro pro Reaktor.

Der größte Schadensfall ist bisher das Unglück in Harrisburg (über Fukushima liegen noch keine belastbaren Zahlen vor) mit über 200 Millionen Dollar. Bereits drei Tage nach dem Störfall wurde von der Versicherung vor Ort ein Büro eröffnet, in dem täglich bis zu 160.000 Dollar in bar für Unterbringungskosten, Verdienstausfall etc. ausgezahlt wurden. Letztendlich wurden über 25 Millionen Dollar für die Entschädigung wirtschaftlicher Einbußen an Betroffene ausgezahlt und 70 Millionen Dollar für erlittene medizinische Behandlungen etc. Eine so hohe Summe, für einen Versicherungsfall, bei dem zumindest keiner getötet wurde, ist schon außergewöhnlich. Dies liegt an dem extrem eng gefassten Begriff der Haftung im Gesetz, der einer Umkehrung der Beweislast gleichkommt. Alles Tatsachen, die "Atomkraftgegner" und die einschlägige Angstindustrie gerne leugnen.

Dr. Ing. Klaus Dieter Humpich. Der Beitrag erschien zuerst am 14.8.13 bei NukeKlaus 




Energiewende – der lange Marsch in die „Große Transformation“

Die Transformation funktioniert nicht wie ein Transformator oder Umspanner, mit dem man Wechselspannungen erhöhen oder verringern kann. Transformation bedeutet Umformung und  will nichts anderes als einen grundlegenden Wechsel der gesellschaftlichen und wirtschaftlichen Ordnung. Das war auch Ziel der 68er Kulturrevolution! Wer das „Unplanbare“ gestalten will, hüllt sich zuallererst in einen unverständlichen Wortnebel. Offenbar hat der, der mit unverständlichen Begriffen „große Sprüche klopft“, in der Politik das Sagen. Doch was bedeutet „Transformation zur Klimaverträglichkeit“? Wie soll das geschehen? Soll die „Energiewende“ die „Klimaverträglichkeit“ befördern? Muss nicht zuerst die Wetterverträglichkeit erhöht werden? Schaut man genauer hin, verletzen diese politischen Kunstbegriffe alle Regeln der logischen Wortbildung.

„Energiewende“ zur „postindustriellen Gesellschaft“?

Der zweite Begriff wurde erstmals von dem französischen Soziologen Alain Touraine im Jahre 1969 geprägt: „La société post-industrielle“. Diese Vorstellung orientierte sich offensichtlich an Richard Cautillion, der 1756 eine „Regierung der Natur“ propagierte und eine ökonomische Theorie entwickelte, die glaubte, den Wohlstand der Nationen allein von der Landwirtschaft herleiten zu können. Er wandte sich gegen den Merkantilismus, das vorherrschende Wirtschaftssystem des Zeitalters des Absolutismus. In der grünen Ökobewegung findet sich dieses Gedankengut wieder, das schon bei Jean-Jacques Rousseau (1712-1778) mit der Parole „Zurück zur Natur“ zu finden ist. Rousseau schrieb 1762 seinen „Contrat social“. Er war einer der wichtigsten Wegbereiter der Französischen Revolution 1789.

Doch was das mit der „Energiewende“ zu tun? Kann man Energie drehen und wenden? Hierzu äußerste sich bereits 1841 Julius Robert Mayer (1814-1878) dahingehend, „dass Energie weder erschaffen, noch vernichtet, sondern nur umgewandelt werden kann“. Mayer bestimmte das „Mechanische Wärmeäquivalent“ und formulierte den „Ersten Hauptsatz der Wärmelehre“. 1847 folgte der „Energieerhaltungssatz“ von Hermann von Helmholtz (1821-1894). Dies geschah in der Frühphase der „Industriellen Revolution“, die von England ausgehend sich mit der Erfindung der Dampfmaschine von James Watt 1769 über die Welt verbreitete. Im Wort Industrie steckt das lateinische Wort ‚industria‘, das Fleiß und Betriebsamkeit bedeutet.

Die Energie, die mit der Fähigkeit Arbeit zu leisten ursächlich verbunden ist, ist unverzichtbar für das Funktionieren einer Industriegesellschaft. Energie ist nötig, um einen Körper zu beschleunigen oder um ihn entgegen einer Kraft zu bewegen, um Körper zu erwärmen und um Gase zusammenzudrücken, um elektrischen Strom fließen zu lassen oder elektromagnetischen Wellen abzustrahlen. Pflanzen, Tier und Menschen benötigen Energie, um leben zu können. Energie braucht man auch zum Betrieb von Computersystemen, zur Telekommunikation und für jegliche wirtschaftliche Produktion. Wohin soll uns die „Energiewende“ führen? In die „postindustrielle Gesellschaft“, die dennoch nicht auf Energie, insbesondere in Form elektrischen Stroms, verzichten kann? Drückt sich hier ein intellektueller Wunschtraum nach Ruhe und Müßiggang in einer „saturierten Welt“ aus? Was bezweckt die Große Transformation wirklich, was wird verschwiegen?

Das Karbonzeitalter und die „De-Karbonisierung“

Das Karbon, auch „Steinkohlezeitalter“ oder „Zeitalter der Farne“ genannt, umfasste etwa 60 Millionen Jahre, von 360 bis 300 Millionen Jahre vor unserer Zeitrechnung. Das damalige Pflanzenwachstum wurde begünstigt von einem etwa 800 ppm betragenden CO2-Gehalt der Luft. Dies ist das Doppelte des heutigen Wertes und mit Sicherheit nicht „anthropogen“ bedingt. Auch gab es einen mehrfachen Wechsel vom Warm- und Kaltzeiten mit erheblichen Schwankungen des Meeresspiegels. Auch hierbei war der Mensch nicht beteiligt! Urwälder wurden also immer wieder von Moränen-Ablagerungen überschüttet, so dass sich dazwischen Steinkohleflöze in mehreren Horizonten bilden konnten. Aus dem Abbau und er Verbrennung der Steinkohle wurde die Energie gewonnen, die zur Entwicklung der Industrien unverzichtbar war. Die bis dahin dominierende Muskelkraft von Mensch und Tieren wurde ins Unermessliche gesteigert. Die das Korn malenden Wassermühlen wie die vom wehenden Wind abhängigen Windmühlen wurden durch kontinuierlich arbeitende Dampfmaschinen ersetzt. Wilhelm Busch (1832-1908) dichtete:

„Aus der Mühle schaut der Müller, der so gerne mahlen will. Stiller wird der Wind und stiller, und die Mühle stehet still. So geht’s immer, wie ich finde, rief der Müller voller Zorn. Hat man Korn, so fehlt’s am Winde, hat man Wind, so fehlt das Korn.“

Bereits 1885 machte sich Rudolf Clausius (1822-1888), der Entdecker des Zweiten Hauptsatzes der Thermodynamik, Gedanken über die Energieversorgung und schrieb eine Abhandlung „Über die Energievorräte der Natur und ihre Verwertung zum Nutzen der Menschheit“. Unsere Vorfahren waren keineswegs blind und haben nur auf die „grüne Erleuchtung“ gewartet. Sie haben sich sehr wohl ernsthaft Gedanken über die Ressourcenausstattung der Erde gemacht. Dies war auch Thema des ersten großen internationalen Geologen-Kongresses im Jahre 1913. Dabei wurde auch das „Gespenst einer künftigen Kohlennot“ erörtert. Man errechnete, dass alle damals bekannten Steinkohlenlager, bis auf 1800 Meter Tiefe abgebaut, theoretisch noch für 6000 Jahre reichen. Diese Zahl wurde korrigiert auf die wirklich nutzbare Kohle, womit die Reichweite auf 1500 Jahre reduziert wurde. Dies gilt zwar im globalen Durchschnitt, aber nicht für die Kontinente und Länder. Während in den Vereinigten Staaten die Vorräte auf 2000 Jahre geschätzt wurden, so werde vermutlich England schon in 200 Jahren keine Kohle mehr haben.

Man machte sich 1913 vor jetzt genau 100 Jahren ernsthaft Gedanken um eine „Welt ohne Kohle“. Man baute keine „Klimakatastrophe“ auf, versprach keinen „Klimaschutz“, versetzte nicht die Welt in Angst und Schrecken, sondern handelte pragmatisch und zielorientiert. Man fragte sich schlicht und einfach: Welche Möglichkeiten bietet die Natur, um den Energiehunger der Menschheit zu stillen? Ganz pragmatisch mit Ingenieurverstand! Vor allem ignorierte man Svante Arrhenius, der bereits 1896 die irrsinnige Hypothese vom „CO2-Treibhauseffekt“ in die Welt gesetzt hatte.

„In hundert Jahren – Die künftige Energieversorgung der Welt“

Dies ist der Titel einer Kosmos-Bändchens, das im Jahre 1931 von Hanns Günther (W. de Haas) veröffentlicht wurde. Er schreibt: „Versuchen wir einmal, uns auszumalen, was „Welt ohne Kohle“ heißt. Vor allem keine Heizung mehr und keine Möglichkeit, zu kochen! Auch nicht mit Gas, das ja gleichzeitig der Kohle entstammt, und ebenso wenig mit Holz, denn unsere Öfen würden alle vorhandenen Wälder in wenigen Jahren fressen. Dann selbstverständlich Unterbindung des Eisenbahn- und Schiffsverkehrs! Aber auch des Verkehrs mit Automobilen und Luftfahrzeugen, denn die Petroleumquellen der Erde sind bis dahin längst erschöpft, und die künstlich erzeugten Treibstoffe entstammen durchweg der Kohle. Weiter würde „Keine Kohle mehr!“ für den größten Teil der Menscheit bedeuten: Kein künstliches Licht, denn da es kein Gas und kein Leuchtöl mehr gäbe und die Elektrizität in den meisten Ländern aus Kohle erzeugt wird, kämen wir wieder zu Kienspan und Tranlampe zurück. Das alles wäre aber immer noch erst der Anfang, denn natürlich kämen auch alle Industrien zum Erliegen, für die man Kohle als Wärmequelle oder Rohstoff braucht. … „Keine Kohle mehr“, heißt also letzten Endes „Verschwinden der Zivilisation“.“

Diese 1931 geschriebene Situationsanalyse hat nicht dazu geführt, dass man in Visionen und Utopien geflüchtet ist, sondern konkret nach Möglichkeiten gesucht hat, „die Kohle aus unserer Energieversorgung auszuschalten“, aber sie „mit größtmöglicher Beschleunigung durch andere Energieträger zu ersetzen“. Es geht um Suche nach dem Ersatz von „Energieträgern“! Noch heute ist erstaunlich, mit welch hohem Maß an ideologiefreier Kreativität, an schöpferischer Intelligenz und technischer Innovationskraft man an dieses Problem der Knappheit heranging.

Welche Alternativen boten sich zu damaliger Zeit – vor 100 Jahren?

Wenn heute Sachverhalte von Politikern als „alternativlos“ dargestellt werden, ist das eher ein Ausdruck fatalistischer Resignation als ein Zeugnis sachorientierter Problemlösungskapazität. Die Akrobatik mit Kunstbegriffen wie „Energiewende“ hilft nicht weiter. Hier können nur kurz die Gedanken umrissen werden, die sich damals kluge Physiker und Ingenieure machten, um das Energieproblem zu lösen. Das Büchlein ist gegliedert in 10 Kapitel:

Nach „Die Welt ohne Kohle“ folgt „Pläne ums Mittelmeer“: Darin werden Pläne von Hermann Soergel (Panropaprojekt Gibraltardamm) und Pierre Gandrillon (Solares Pumpspeicherwerk im Jordantal am Tiberias-See) näher beschrieben. Als drittes wird die Frage erörtert: „Wird es einst Wellenkraftwerke geben?“ Hier geht es um die Nutzung der Kräfte von Brandungswellen und der Meereswellen. Daran schließ sich das Kapitel „Ebbe und Flut im Dienst“ an. Es wird die Funktion des französischen Gezeitenkraftwerks an der Mündung des Diouris bei l’Aberwrach in der Bretagne dargestellt. Zwecks Gewinnung der Gezeitenenergie fand 1930 in Berlin eine Weltkraft-Konferenz statt. Das nächste Kapitel heißt „Gefesselte Zyklone“. Mehr Energie als in den Gezeitenströmungen stecke in der Wärmestrahlung der Sonne, „obwohl unser Wohnstern, der Erde, im Ganzen nur 1/250 000 000 der tatsächlichen Strahlung erhält“. Auf einem km2 Saharafläche lassen sich – die Nutzwirkung nur mit 10 Prozent angenommen – nicht „weniger als 25 000 Jahrespferdestärken gewinnen“. Für den 1970 geschätzten Energiebedarf würden bei Ausnützung der Sonnenwärme 40 000 km2 Saharafläche genügen. Bernard Dubos erkannte, dass das richtige Mittel zur Ausnützung der Sonnenwärme der Wind ist und entwickelte ein Windkraftwerk, das zudem die natürliche Temperaturabnahme mit der Höhe ausnutzte. Das 6. Kapitel befasst sich mit „Die Türme des Windes“, um auch in kälteren Ländern die Windkraft zur Energiegewinnung heranzuziehen, durch Erzeugung senkrechter Luftströme in zylindrischen Türmen. Grund: „Dass die alte Windmühle keine brauchbare „Windmaschine“ ist, weiß jeder. Dasselbe gilt für ihre Nachfolgerung, die Windturbine, die man gleichfalls nur als Kleinkraftmaschine gelten lassen kann.“

Das siebte Kapitel widmet sich den „Tropischen Meeren als Wärmequelle“. Die Überlegungen zur Ausnutzung des Temperaturgefälles zwischen 300-Dampfkessel und 150-Kondensator zwecks Energiegewinnung gehen auf den französischen Physiker Prof. d’Arsonval 1881 zurück. Sie wurden weiterentwickelt und schließlich 1926 der Pariser Akademie der Wissenschaften als Projekt „Georg Claude“ präsentiert. An der Nordküste Kubas wurde eine Versuchsanlage errichtet. Auch wenn das Projekt scheiterte, so heißt es 1931: „Der Energievorrat, den wir in Gestalt der warmen und kalten Wassermassen der Ozeane besitzen, ist nach der Sonnenstrahlung und der Gezeitenströmung sicher die weitaus größte Energiequelle der Erde.“ Dies ist durchaus als Auftrag anzusehen. In dem folgenden Kapitel geht es um die „Kraft aus der arktischen Kälte“. Aufgrund der Überlegung, dass sich aus dem Wärmegefälle zwischen Wasser unter dem Eis und der Luft über dem Eis ähnlich wie zwischen dem Temperatursprung zwischen Oberflächen- und Tiefenwasser in den Tropen Energie gewinnen lasse, entwarf der Physiker Dr. Barjot ein „Eiskraftwerk“. Benötigt wurde ein Stoff, der bei O0 dampfförmig und bei -220 flüssig ist. Hierfür eignet sich „Butan“. Zum Bau eines Barjot-Kraftwerkes ist es nicht gekommen. Das vorletzte Kapitel trägt die Überschrift „Und die Erdwärme?“ Sie wird als Mitgift bezeichnet, „die die Erde erhielt, als sie sich vor Jahrmillionen von ihrer Mutter, der Sonne, trennte“. Im Jahr 1912 baute man in der Toskana bei Lardarello ein „Vulkankraftwerk“, das 1916 eine Maschinenleistung von 12 000 Kilowatt erbrachte. Sir Charles Parsons, der Erfinder der Dampfturbine, entwickelte die Idee, wie man die Erdwärme nach heutiger Technik nutzen kann. Dann kommt „Das letzte Ziel“. Es beginnt: „Die Frage nach der direkten Umwandlung von Wärme in Elektrizität beschäftigt Wissenschaft und Technik schon über 100 Jahre, seit Thomas Seebeck (1770-1831) im Jahr 1821 jene Erscheinung entdeckte, die der Physiker kurzweg „Thermoelektrizität“ nennt. Es werden das Thermoelement wie das Brennstoff-Element vorgestellt und dann das „größte Problem, das die technische Physik noch zu lösen hat: die Nutzbarmachung der inneratomaren Energie durch künstliche Zertrümmerung der Atome“.

Allein dies ist gelungen: Die friedliche Nutzung der Kernenergie! Die Lektüre dieses vor gut 80 Jahren geschriebenen und allgemeinverständlichen Kosmos-Büchleins ist ein Genuss, aber heutige Energiepolitiker müssten sich schämen. Während unsere Zeit auf einer nicht existenten, ja erfundenen „Gegenstrahlung“ eine „Erderwärmung“ als „Eigenerwärmung“ mit der Gefahr einer globalen „Klimakatastrophe“ konstruiert, haben sich frühere Generationen ganz konkret gefragt, wie man die gewaltigen Sonnenkräfte in ihren verschiedensten Formen zur Energiegewinnung nutzen könne. Dabei waren sie extrem ideenreich und vielseitig.

Nichts schildert die positive Einstellung damaliger Zeiten besser als folgende Worte:

„Das sichtbare Inventar ist schnell aufgenommen. Lassen wir die Kohlen, das Erdöl, die Flüsse und Wasserfälle beiseite, so kommen in Betracht: die unendlichen Wärmemengen, die von der Sonne her über die Erde fluten, die ungeheure Glut, die unser Wohnplanet als Mitgift seiner Mutter in seinem Innern birgt, die Strömungen im Luftmeer, die wir Winde nennen, der Wellenschlag der Meere, der sich als donnernde Brandung an ihren Küsten bricht, das ewige Steigen und Fallen der Gezeiten, jene gemeinhin Ebbe und Flut genannte periodische Bewegung des Meeresspiegels, die der Mond mit seiner Massenanziehung zustande bringt.“

In diesen Worten stecken noch ungeheure physikalische und technische Herausforderungen an die Industriegesellschaft! Oder hat deswegen bisher keine einzige Partei Widerspruch gegen den Plan „Große Transformation“ erhoben, weil alle Parteien das post-industrielle Ökoparadies anstreben? Warum wird dieses revolutionäre Ziel verklausuliert und das Volk im Unklaren gelassen?

Oppenheim, im September 2013                                             

Dipl.-Met. Dr. phil. Wolfgang Thüne; Oppenheimer Werkstatt für Wetterkunde




Rubrik „Unbequeme Wahrheiten“: Die biologisch-geologische CO2-Sackgasse

Die Wissenschaft, so behaupten es die meisten Medien, sei sich in der Frage des Klimawandels weitgehend einig: Der Mensch sei dabei, das Klima in katastrophaler Weise zu destabilisieren. Die Anhänger der Theorie vom menschengemachten Klimawandel (AGW, Antrophogenic Global Warming) sehen als Hauptursache hierfür die Verbrennung fossiler Rohstoffe, welche das als Treibhausgas bezeichnete CO2 freisetzt [WICC, WICO]. Dadurch werde der eigentlich stabile CO2-Kreislauf unseres Planeten in fast schon irreparabler Weise gestört, siehe Bild 1.

Bild 1. Nach Auffassung der AGW-Anhänger hat erst die industrielle Revolution einen dramatischen Anstieg der CO2-Konzentration in der Atmosphäre verursacht (Grafik: Wikipedia, Global Warming Art, Creative Commons)

Ihre These besagt im Wesentlichen, dass sich die Freisetzung von CO2 aus organischer Materie und seine erneute Bindung durch Fotosynthese seit hunderttausenden von Jahren mehr oder weniger im Gleichgewicht befanden. Dieses werde erst jetzt durch den vom Menschen verursachten CO2-Anstieg gefährdet: „Die CO2-Konzentration in der Atmosphäre war jahrtausendelang praktisch konstant und steigt erst an, seit wir dem System riesige Mengen an zusätzlichem Kohlenstoff aus fossilen Lagerstätten zuführen“, erklärte hierzu der als Warner vor der sogenannten Klimakatastrophe zu Prominenz gekommene Prof. Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung in einem Focus-Artikel [FORA]. Im gleichen Beitrag sagte er aus, bei den vom Menschen verursachten Emissionen handele es sich um Milliarden Tonnen Kohlendioxid, die dem eigentlich stabilen Kohlenstoffkreislauf netto hinzugefügt würden. Ähnliche Auffassungen vertreten auch zahlreiche weitere Klimaforscher, so auch die Autoren der inzwischen kontrovers diskutierten „Hockeystick-Kurve“ (Bild 2) des bekannten AGW-Apologeten Michael E. Mann [IPCC]. Am drastischsten aber formulierte es der US-Politiker Al Gore anlässlich der Auszeichnung mit dem Nobelpreis: „Wir Menschen haben es mit einem globalen Notfall zu tun. Die Erde hat jetzt Fieber. Und das Fieber steigt“ [FOAL].

Bild 2. Die „Hockeystick-Kurve“: Rekonstruierte Temperatur (blau) und Thermometerdaten (rot), die Fehlergrenzen sind in grau gezeigt (Grafik: Michael E. Mann, Raymond S. Bradley und Malcolm K. Hughes, IPCC/ Wikimedia Creative Commons)

Die Realität: CO2-Rückgang seit 600 Millionen Jahren

Ein völlig anderes Bild zeichnet dagegen Prof. Wolfgang H. Berger von der University of California San Diego in einem auf der Homepage der Universität angebotenen Online-Kurs [CALU], Bild 3. Demnach lag der CO2-Gehalt der Erdatmosphäre vor etwa 500-600 Millionen Jahren bis zu 20mal höher als in den letzten paar Jahrhunderten vor der industriellen Revolution. Im Laufe der Zeit gab es dabei auch teils erhebliche Schwankungen. So begann der CO2-Gehalt vor etwa 450 Millionen Jahren erheblich abzusinken, bevor er vor rund 250 Millionen Jahren erneut auf etwa den fünffachen heutigen Wert anstieg. Seither nimmt er – wenn auch mit einer Reihe von Schwankungen – im Prinzip kontinuierlich ab. Heute haben wir die seit 500-600 Millionen Jahren nahezu niedrigsten CO2-Konzentrationen in der Atmosphäre. Würde man der obigen „Fieber“-Argumentation folgen, dann hätte das Leben auf der Erde vor Jahrmillionen wegen zu hoher Temperaturen regelrecht kollabieren müssen. So sprach der Schweizer Professor und IPCC-Berichts-Chef Thomas Stocker in einem Interview mit der Weltwoche am 11. 4. 2013 von einem Temperaturanstieg von 2 bis 4,5 °C bei Verdopplung des vorindustriellen CO2-Gehalts von 280 ppm [STOC]. Zahllose Fossilien belegen jedoch, dass sich die Tier- und Pflanzenwelt früherer Zeiten trotz eines um bis zu 2000 % höheren CO2-Gehalts im Groβen und Ganzen bester Lebensbedingungen erfreute.

Bild 3. Entwicklung des CO2-Gehalts der Atmosphäre in den letzten ca. 570 Mio. Jahren. Der Parameter RCO2 bezeichnet das Verhältnis des Massenanteils an CO2 in der Atmosphäre des jeweiligen Zeitpunkts im Vergleich zum vorindustriellen Wert von ca. 300 ppm (Grafik: W. H. Berger)

Versauerung der Ozeane durch CO2?

Aus dem gleichen Grund stellt sich auch die Frage, wie ernst man Warnungen vor einer „Versauerung“ der Ozeane durch ansteigende CO2-Gehalte nehmen sollte. Gestützt auf diese Alarmrufe werden zurzeit groβe Summen an Forschungsgeldern ausgelobt, um die vorgeblich nachteiligen Auswirkungen des CO2-Anstiegs auf maritime Lebensformen zu untersuchen. Besonders im Visier sind dabei Korallen und sonstige Lebewesen, die Kalkskelette oder Kalkschalen ausbilden. Ihnen soll der eher bescheidene Anstieg des CO2-Gehalts in der Atmosphäre von den vorindustriellen knapp 300 ppm auf heute etwa 390 ppm Schäden zufügen, die sich nach Ansicht mancher Gelehrter erschwerend auf die Fähigkeit zur Kalkabscheidung auswirken.

Irgendwie scheint man jedoch einige 100 Millionen Jahre vor unserer Zeit vergessen zu haben, dies den damaligen Meereslebewesen mitzuteilen. Vermutlich aufgrund dieser Unkenntnis müssen sich diese vom Kambrium bis zur Kreidezeit – rund 540 bis etwa 65 Mio. Jahre vor unserer Zeit – trotz eines bis zu 20fach höheren CO2-Gehalts bester Gesundheit erfreut haben. Überall auf der Erde beweisen zahllose, teils hunderte von Metern dicke Kalk- und Kreideschichten, dass sie regelmäβig imstande waren, gesunde und vollständige Kalkskelette auszubilden, Bild 4. Angesichts dieser Tatsachen fällt es schwer zu verstehen, wieso überhaupt Gelder für Forschungsprojekte zu den angeblich negativen Auswirkungen der „Meeresversauerung“ ausgegeben werden. Schliesslich hält die Geologie doch alle dazu nur wünschbaren Gegenbeweise in Form gut erhaltener Kalkfossilien in nahezu unendlichen Stückzahlen bereit – man muss nur hinsehen und Eins und Eins zusammenzählen.

Bild 4. Im Kalk der Insel Gotland eingebettetes Fossil

Wohin ist das CO2 entschwunden?

Da Atome unter den auf unserer Erde geltenden Bedingungen bekanntlich nicht verschwinden, stellt sich angesichts der heutigen niedrigen Werte die Frage, wo all das CO2 gelandet ist, das vor Urzeiten in unserer Atmosphäre und unseren Ozeanen vorhanden war. Die Antwort ist leicht zu finden: Es ist nicht ins Weltall entwichen, sondern steckt im Erdboden. Und interessanterweise ist das Leben selbst die primäre Ursache für dieses Verschwinden. Die überwiegende Menge des vor Jahrmillionen vorhandenen CO2 wurde zunächst von Lebewesen aufgenommen und mit anderen Elementen und Molekülen zu nichtflüchtigen körpereigenen Molekülen verbunden. Zu den wichtigsten der dabei gebildeten Substanzen gehört der bereits erwähnte Kalk (Calciumcarbonat, CaCO3), das Material, das auch die Grundstruktur unserer Knochen bildet. Im Laufe von Äonen haben sich in den Ozeanen daraus mächtige Sedimentschichten gebildet 2). Rund 80 % der gesamten Kohlenstoffvorräte der oberflächennahen Zonen der Erde sind heutzutage in Form von Kalkstein und Dolomit fest gebunden, Bild 5. Man muss sich vergegenwärtigen, dass das darin gefangene CO2 ursprünglich aus der Atmosphäre bzw. den Ozeanen stammt, weil seine Bindung im Kalk überwiegend durch lebende Organismen erfolgte, die es sich vorher per Fotosynthese und Nahrungskette einverleibt haben [WIKI1, KALK, MIAT2]. Durch diesen dauerhaften Einschluss im Kalk wurde Kohlenstoff, die Grundlage allen Lebens, nach und nach aus den natürlichen Kreisläufen entfernt. Weitere CO2-Senken der Erde sind neben den Kalkgesteinen noch die sogenannten Kerogene, das sind organische Bestandteile in alten Meeressedimenten, die durch Druck und Hitze umgewandelt wurden [GEO, WIKI2], sowie als geradezu winzige Fraktion die Lagerstätten von Kohle, Erdöl und Erdgas.

Bild 5. Überblick über die aktuellen Mengen an Kohlenstoff in und auf der Erdkruste sowie in Atmosphäre und Ozeanen (Gashydrat@Tiefsee-Methanhydrat, Böden@Pedosphäre1), Lebewesen@Biomasse) 

Was hatten wir, wieviel ging verloren?

Schon der erste Blick auf Bild 5 zeigt, dass von den Mengen an Kohlenstoff bzw. gasförmigem CO2, die es einst in Atmosphäre und Ozeanen gab, nur noch klägliche Reste übrig sind. Atmosphäre und Ozeane, Erdböden (Pedosphäre1)) sowie alle zurzeit lebenden Tiere und Pflanzen enthalten gerade noch 0,05 % (0,5 Promille) dessen, was früheren Vertretern des Lebens auf unserem Planten insgesamt zur Verfügung stand. Im Vergleich zu den in Kalkstein und Kerogen gebundenen Mengen sind die uns bekannten Vorräte an fossilen Brennstoffen – Kohle, Erdöl und Erdgas – mit nur etwa 5 Millionstel der Gesamtmenge geradezu lächerlich gering.

Interessant ist die Frage, wie sich die früher einmal verfügbaren CO2-Mengen im Verhältnis zur gesamten Erdatmosphäre darstellen. Wenn man einmal ausrechnet, wieviel CO2 im Verlauf der Äonen in Gestein, Kerogen usw. umgewandelt wurde, so landet man bei etwa 275 Billiarden (275 * 1015) Tonnen – mehr als 50 Mal die Masse der gesamten heutigen Erdatmosphäre. Dies legt den Schluss nahe, dass es auf der Erde Kohlenstoffquellen gibt bzw. gegeben hat, die einen mehr oder weniger kontinuierlichen Zustrom an CO2 in die Atmosphäre bewirkt haben, denn nach dem bereits erwähnten aktuellen Stand der Wissenschaft wies die Atmosphäre in den letzten ca. 600 Mio. Jahren zu keiner Zeit ständige CO2-Gehalte von mehr als 1 % auf. Als wahrscheinlichste CO2-Quellen können Vulkanismus sowie in gewissem Umfang die Verwitterung von Gesteinen angenommen werden.

Bild 6. Fossile Muscheln mit weitgehend erhaltener Kalkschale

Gefahr durch fossile Brennstoffe?

Eine der wichtigsten Erkenntnisse aus der Betrachtung der vorliegenden Zahlen ist, dass die heutige „Klimawissenschaft“ augenscheinlich von Leuten dominiert wird, die ihre ganz eigenen Vorstellungen von den Grundregeln ernsthafter Wissenschaft entwickelt haben. Zumindest bis vor 40 Jahren galt es an naturwissenschaftlichen Fakultäten noch als selbstverständlich, dass man eine Aufgabenstellung erst einmal von allen Seiten und unter allen Aspekten zu betrachten hatte, bevor man anfing, Hypothesen aufzustellen und Beweisführungen aufzubauen. Dazu gehört bei langfristigen Entwicklungen untrennbar auch die historische Perspektive, und zwar über ausreichend lange Zeiträume, um systematische Einflüsse von zufällig bedingten Schwankungen unterscheiden zu können. Hält man sich an diese Regel, so fällt es schwer zu glauben, dass die jährliche Verbrennung von wenigen Promille eines Anteils von lediglich fünf Millionstel (5 ppm) des ursprünglich vorhandenen Kohlenstoffvorrats in und auf der Erdkruste bei unserem Planeten Fieberschauer auslösen und sein Klima irreparabel destabilisieren soll. Den AGW-Anhängern muss man vorhalten, sich bei ihrem Alarmismus wegen des angeblich stabil in der Atmosphäre verbleibenden CO2 nicht ausreichend um die Frage gekümmert zu haben, welche CO2-Kreisläufe es denn in der Natur überhaupt gibt und wie sie wirken. Im Übrigen sollte man nicht vergessen, dass eisfreie Polkappen erdgeschichtlich den Normalzustand darstellen und etwa 80 bis 90 Prozent der Erdgeschichte ausmachen, während Zeiten mit vereisten Polkappen als Ausnahme gelten [WIEI].

Bild 7. Die Daten aus Bild 3 belegen einen seit rund 230 Mio. Jahren recht stabilen Abwärtstrend des CO2-Gehalts der Atmosphäre. In dieser Zeit ist die Konzentration um 80 % gesunken

Der Trick, mit dem die Vertreter der AGW-Hypothese arbeiten, ist schlicht der, dass sie die zeitliche Dimension so verkürzen, bis der von ihnen gewünschte Effekt „bewiesen“ zu sein scheint. Die hier dargelegten Fakten legen dagegen zwei ganz andere „unbequeme“ Hypothesen nahe: Erstens scheint die Klimawirksamkeit des CO2 sehr viel geringer zu sein als von den AGW-Vertretern behauptet. Zweitens hat das verfügbare CO2 vor allem in den letzten 230 Mio. Jahren recht stetig abgenommen, Bild 7. Es ist sogar nicht auszuschlieβen, dass der Planet inzwischen diesbezüglich soweit verarmt ist, dass eine neue „Eis-Erde“ (Snowball Earth) [SNOW] viel eher drohen könnte als eine katastrophale Erwärmung.

Fred F. Mueller

1) Als Pedosphäre wird die sogenannte „Bodenhülle“ mit Humus, Torf, Sedimenten und Mineralien bezeichnet. Die Pedosphäre markiert damit den Grenzbereich der Erdoberfläche, in dem sich die Lithosphäre, die Hydrosphäre, die Atmosphäre und die Biosphäre überschneiden. Die Masse des darin enthaltenen Kohlenstoffs wird mit rund 1.500 Mrd t angegeben. [WIPE]

2) Natürlich gibt es auch zahlreiche und vielfältige sekundäre Kalksteinformationen, die nicht direkt durch Bindung von gasförmigem CO2 entstanden sind. Dies kann jedoch für die hier angestellten Betrachtungen vernachlässigt werden, da solche sekundären Gesteine aus primären Ablagerungen hervorgegangen sind, auf welche das Hauptargument des Artikels wiederum zutrifft. Ähnliches gilt auch für den Dolomit (CaMg[CO3]2), der laut Wikipedia im Wesentlichen durch Wechselwirkung von magnesiumhaltigen Lösungen mit Calcit-Sedimenten wie Riffkalkstein entstanden ist.

Quellen

[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml, abgerufen 21.4.2013

[FOAL] http://www.focus.de/politik/zitate/zitat_aid_228903.html, abgerufen am 2.5.2013

[FORA] Klimawaage außer Balance, FOCUS Magazin http://www.focus.de/wissen/klima/tid-8638/diskussion_aid_234323.html, abgerufen am 21.4.2013

[GEODZ] http://www.geodz.com/deu/d/Kerogen, abgerufen am 24.4.2013

[IPCC] Fig. 2.20 des dritten Berichts des Intergovernmental Panel on Climate Change (IPCC) der UNO

[KALK] Kalk – ein Rohstoff aus Schalen und Knochen, http://www.kalk.de/index.php?id=35, abgerufen am 20.4.2013

[MIAT2] Kalkgesteine, Mineralienatlas, http://www.mineralienatlas.de/lexikon/index.php/Mineralienportrait/Calcit/Kalkgesteine, abgerufen am 20.4.2013

[SNOW] http://snowballearth.org/when.html, abgerufen am 22.4.2013

[STOC] http://www.eike-klima-energie.eu/news-cache/ipcc-berichts-chef-thomas-stocker-zeigt-im-weltwoche-interview-unerklaerliche-gedaechtnisluecken-die-gespraechsanalyse-von-vahrenholt-und-luening/ abgerufen am 1.5.2013

[WICC] Kohlenstoffzyklus, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffzyklus, abgerufen 21.4.2013

[WICO] Kohlenstoffdioxid, Wikipedia, http://de.wikipedia.org/wiki/Kohlenstoffdioxid, abgerufen 21.4.2013

[WIEI] http://de.wikipedia.org/wiki/Zwischeneiszeit, abgerufen am 10.5.2013

[WIKI1] Kalkstein, Wikipedia, http://de.wikipedia.org/wiki/Kalkstein, abgerufen am 21.4.2013

[WIKI2] Kerogen, Wikipedia, http://de.wikipedia.org/wiki/Kerogen, abgerufen am 24.4.2013

[WIPE] http://de.wikipedia.org/wiki/Pedosph%C3%A4re  abgerufen am 1.5.2013




Die globale Erwärmung ‚ist kein planetarischer Notfall mehr’

Der Präsident des italienischen Senats, Richter Pietro Grasso, der Richter auf dem ersten Großprozess in Sizilien war, auf dem Dutzende Mafiosi für insgesamt 2600 Jahre ins Gefängnis geschickt worden waren, hielt auf der Eröffnungssitzung des Seminars den beeindruckenden Einführungsvortrag. Das Seminar ging diese Woche zu Ende.

Sowohl Richter Grasso und der Präsident der Vereinigung, Professor Antonio Zichichi sagten, dass man Sorgfalt walten lassen sollte, wenn man die genaue Basis der Sorgen hinsichtlich von CO2-Emissionen untersucht, ebenso wie die Bedeutung und Kosteneffektivität der vorgeschlagenen Maßnahmen zu deren Abschwächung.

Den Einführungsvortrag des vorigen Jahres zu diesem Seminar war von Professor Vaclav Klaus gehalten worden, damals noch Präsident der Tschechischen Republik. Sein Vortrag trug den Titel The manmade contribution to global warming is not a planetary emergency.

Präsident Klaus hatte ausgeführt: „Sowohl gegenwärtig als auch realistischerweise in absehbarer Zukunft ist die globale Erwärmung und vor allem der menschliche Beitrag dazu kein planetarischer Notfall, der uns Sorgen machen sollte … Meine Studien sowohl der verfügbaren Daten als auch der sich widersprechenden wissenschaftlichen Argumente und Theorien erlaubt mir die Aussage, dass es nicht die durch menschliche Aktivitäten verursachte globale Erwärmung ist, die uns bedroht“.

In diesem Jahr hat Dr. Christopher Essex, Professor für Angewandte Mathematik an der University of Western Ontario und Vorsitzender des Klima-Panels der Vereinigung auf der Schlusssitzung des Plenums bestätigt, dass „die Klimaänderung selbst kein planetarischer Notfall ist“.

Von links: Christopher Essex, Pietro Grasso, Vaclav Klaus und Antonino Zichichi.

Professor Essex wies darauf hin, dass es in der Geschichte immer wieder illegitime politische Bewegungen gegeben habe, die falsche Notfälle verkündet hatten, um demokratische Hindernisse auf ihrem Weg zur absoluten Macht zu umgehen.

Das Erdklima, sagte er, ist ein dynamisches und sich fortwährend änderndes System. „Menschliche Gesellschaften haben unter jedem denkbaren Klima gelebt und prosperiert. Moderne Technologie macht jede Anpassung an sich ändernde Wetterbedingungen vollständig zu Routine“.

Man kann davon ausgehen, dass der zunehmende CO2-Gehalt in der Atmosphäre zu einer gewissen Erwärmung führen könnte, aber man hat akzeptiert, dass „die Vorteile hinsichtlich der Produktion von Nahrungsmitteln und die Linderung des Welthungers die Gefahren potentieller Klimaänderungen durch die Modifikation von Landschaften weit überwiegen“. Er sagte, dass sein Panel es als notwendig erachtet zu fragen, ob Ähnliches auch für die Erzeugung globaler fossiler Energie gelte.

Im Namen des Klima-Monitoring-Panels sprach Professor Essex auch für Wissenschaftler, die schikaniert, bedroht oder sogar entlassen worden sind, weil sie es gewagt haben, die Parteilinie [the Party Line] bzgl. des Klimas zu verlassen. Er sagte: „gegenwärtig besteht unsere größte Sorge darin, dass das intellektuelle Klima für wissenschaftliche Untersuchungen in dieser Frage so feindlich und politisiert geworden ist, dass die notwendige Forschung und Diskussion nicht mehr in Freiheit möglich ist.

Politische Hindernisse erfolgen in Gestalt von Erklärungen, dass die Wissenschaft ‚settled’ ist, obwohl das eindeutig nicht der Fall ist; außerdem werden Forschungen, die die Grundlage für Erneuerbare Energie bedrohen, verleumdet, und es wird ihnen die Förderung entzogen; oder in Gestalt anrüchiger Bezeichnungen wie „Leugner“ für Menschen, die von der offiziell sanktionierten Sichtweise zur Klimawissenschaft abweichen“.

Die Professoren Bob Carter und Murry Salby, die die Ernsthaftigkeit des menschlichen Einflusses auf das Klima in Frage gestellt hatten, wurden beide in diesem Jahr von ihren Universitäten entlassen.

Professor Essex rief nach einer „freien und offenen Debatte über alle Aspekte der Klimawissenschaft, selbst wenn man Hypothesen aufstellt, die den offiziellen Positionen politischer Einheiten offen widersprechen“.

Er sagte, dass das Panel überzeugende Indizien dafür gefunden habe, dass die Klimamodelle systematisch die natürliche Klimavariabilität unterschätzt und den Einfluss der CO2-Emissionen signifikant überschätzt haben. Zusätzlich konnte gezeigt werden, dass politische Maßnahmen in der Vergangenheit, jetzt oder in Zukunft keine Vorteile für die Gesellschaft zeitigen würden, egal wie stark sich der Planet erwärmt. Begrenzte Ressourcen sollten viel besser für drückendere Angelegenheiten zur Verfügung stehen.

================================================================

Aktualisierung: Die WFS überarbeitet ihre Website zu diesem Thema, siehe hier:

Quelle: http://www.federationofscientists.org/PMPanels/Climate/ClimatePMP.asp

Der Wayback Machine zufolge muss man es folgendermaßen lesen:

Zusammenfassung des Notfalls

Die Sicherheit und das Wohlergehen menschlicher Völker werden bedroht durch die Variabilität und Änderung sowohl des Klimas als auch der Zusammensetzung der Erdatmosphäre. Die Erforschung dieser Trends wird signifikant durch eine Reihe von Faktoren beeinflusst:

1. Was einst eine relative einfache und billige Form der Datengewinnung für Untersuchungen und daraus abgeleitete Vorhersagen der Änderungen war, wird jetzt teuer, kompliziert und bedrohlich, weil Daten mit einem Copyright versehen und als eine Art ‚Zu Verkaufen’ durch international koordinierende Institutionen angeboten werden.

2. Die globale Überwachung von Trends erfordert die Vergleichbarkeit und Kontinuität von Schlüsselbeobachtungen in Kombination mit der Einbeziehung historischer Informationen. Unglücklicherweise werden Beobachtungssysteme für das Sammeln von Klimadaten immer teurer, und sie sind schwieriger zu bekommen. Außerdem werden einige der Standardsysteme, von denen die Klimaforschung abhängt (z. B. das internationale Radiosonden-System) ausgehöhlt.

3. Die Qualität der einer Laien-Öffentlichkeit, Industrie und Regierungen präsentierten Informationen ist kritisch für die öffentliche Empfänglichkeit der Angelegenheit und der Wissenschaftler, die sie studieren. Dies wiederum beeinflusst die Bewilligung begrenzter Mittel für die Forschung und ultimativ für das öffentliche Wohlbefinden. Unglücklicherweise ist die Qualität und Verlässlichkeit der Informationen hoch variabel, und manchmal werden sie verzerrt. Wissenschaftler müssen bessere Arbeit leisten bei der Vermittlung dieser Informationen, um eine genaue und zeitliche Perspektive der Bedeutung ihrer Forschungen und deren Ergebnisse zu präsentieren.

Prioritäten beim Umgang mit dem Notfall:

Diese sind:

● Ermutigung und Unterstützung des ungehinderten Zugangs zu Daten bzgl. der Klimaänderung.

● Die Überwachung der globalen Umweltüberwachung

● Die Verstärkung der Unterrichtung der Öffentlichkeit hinsichtlich der Gründe und Auswirkungen der Klimaänderung.

Überwacht werden müssen:

1. Die zunehmende Verwundbarkeit der menschlichen Gesellschaft hinsichtlich der Auswirkungen der Klimaänderung (z. B. dass immer mehr Menschen in Überflutungsgebieten leben und in Gebieten, die von tropischen Wirbelstürmen bedroht werden)

2. Klimaextreme (z. B. Dürren), um die Bandbreite von Änderung und Variabilität zu erfassen.

3. Wege, auf denen die Verwundbarkeit bzgl. Klimakatastrophen [hier sind wohl Wetterkatastrophen gemeint, A. d. Übers.] reduziert werden kann (z. B. die Vorhersage von Dürren zur Vermeidung von Hungersnöten)

4. Verbesserte Methoden zur Vorhersage von Variabilität und Änderung (z. B. verbesserte Modelle zur Vorhersage von El Niño) und die Vertrauensrate von Vorhersageprodukten.

5. Die Eignung von das Klima beobachtenden Netzwerken im Licht der gegenwärtigen und andauernden Verschlechterung der gegenwärtigen Systeme.

6. Mögliche menschliche Einflüsse auf Klima und atmosphärische Zusammensetzung und Chemie (z. B. zunehmende Treibhausgase und troposphärisches Ozon).

7. Die möglichen Auswirkungen natürlicher episodischer Einflüsse auf das Klima (z. B. Vulkanismus).

8. Die Auswirkungen der Kommerzialisierung nationaler Wetterdienste auf Daten und Informationen, Beobachtungsnetzwerke und Vorhersageverbesserungen.

Link: http://wattsupwiththat.com/2013/08/28/global-warming-is-no-longer-a-planetary-emergency/

Übersetzt von Chris Frey EIKE




Britische Wirtschaft protestiert gegen die Kosten der grünen Energie-Reformen

Mehrere Minister drücken ein Energiegesetz durch das Parlament, das Milliarden Pfund langzeitlicher Subventionen einführen soll für Low-Carbon-Energiequellen wie Windparks und Kernreaktoren.

Mit den Plänen wird beabsichtigt, ältere und schmutzigere Kohlekraftwerke zu ersetzen, die abgeschaltet werden, damit UK die gesetzlich vorgeschriebenen Ziele hinsichtlich Kohlenstoff-Reduktion und erneuerbare Energien erreichen kann.

Aber die grünen Technologien sind nicht kommerziell lebensfähig ohne die Subventionen. Aufgebracht werden sie durch Zuschläge zu den Stromrechnungen der Verbraucher.

Unberechenbare neue Energiequellen wie Wind machen auch die wirtschaftlichen Aspekte des Baus von Gaskraftwerken schwieriger, da sie nicht länger ununterbrochen laufen werden. Es wird Anreize geben, neue Gaskraftwerke zu betreiben, wenn sie gebraucht werden, z. B. wenn der Wind nicht weht. Die Politik beschreibt das als „eine Premium-Versicherung gegen das Risiko von Blackouts“.

Offiziellen Zahlen zufolge ist der Einheitspreis für Strom als Folge dieser Politik bereits um 30 Cent gestiegen und wird bis zum Jahr 2020 um 50 Cent steigen. Allerdings bestehen die Minister darauf, dass dies billiger wäre als gar nichts zu tun, weil ihren Worten zufolge Gaskraftwerke immer teurer im Betrieb werden.

Eine Umfrage von npower unter 66 leitenden Energiemanagern in wesentlichen industriellen und kommerziellen Unternehmen in UK sowie Energieberatern ergab, dass weniger als die Hälfte von ihnen genau verstanden hat, wie ihre Geschäfte betroffen sein würden.

Drei von vier sagten, sie seien besorgt bzgl. der Reformen. Die meisten führten die Kosten als ihre Hauptsorge an.

Wayne Mitchell, Direktor für industrielle und kommerzielle Verkäufe und Marketing bei npower sagte: „Es zeigt sich, dass die Firmen über die Auswirkungen auf die Wettbewerbsfähigkeit von UK besorgt sind. Dabei ist das Letzte, was die Regierung will, dass Firmen ins Ausland gehen, um die Folgen der Energiereformen zu umgehen“.

Diese Warnung ist ein Spiegelbild dessen, was auch die Organisation der Hersteller EEF sagte: „solange wir die Preisspirale nach oben nicht im Griff haben, bergen stark steigende Strompreise das Risiko, dass UK zu einer zunehmend unattraktiven Örtlichkeit für Investitionen der Industrie wird, was die Bemühungen zur wirtschaftlichen Erholung unterminiert“.

Die Minster haben bereits Pläne, wesentliche Energieverbraucher von einigen der Kosten der Reformen auszunehmen. Aber Kritiker sagen, dass das nicht weit genug geht, um die Kosten wirklich zu lindern.

Link: http://www.telegraph.co.uk/finance/newsbysector/energy/10278434/Businesses-protest-over-cost-of-green-energy-reforms.html

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Hier geht es zwar um UK, aber warum fällt mir bei so etwas immer auch unser Land ein?




Genauigkeit, Präzision und ein Watt pro Quadratmeter

Ich war darauf gekommen, hierüber nachzudenken aufgrund einer seltsamen Behauptung in einer jüngst in dem Magazin Nature Climate Change erschienenen Studie mit dem Titel Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods (paywalled) [etwa: Auf Modellen basierende Beweise der Wärmeaufnahme im tiefen Ozean während Perioden ohne Änderung der Temperatur an der Erdoberfläche]. Ich liebe dieses „Auf Modellen basierende Beweise“, aber das war es nicht, was meine Aufmerksamkeit erregte. Es war vielmehr das folgende Statement (Hervorhebung von mir):

Es gab Jahrzehnte wie z. B. 2000 bis 2009, als beobachtete Zeitreihen der globalen Mitteltemperatur nur eine geringe Zunahme oder sogar einen leicht negativen Trend gezeigt haben (eine Stillstands-Periode). Das beobachtete Energie-Ungleichgewicht an der TOA für diese jüngste Dekade zeigt jedoch, dass ein Gesamtenergie-Fluss in das Klimasystem von etwa 1 W/m² irgendwo im System Erwärmung hervorrufen sollte. Hier analysieren wir Simulationen von Klimamodellen für das 21. Jahrhundert, die ein konsistentes Strahlungs-Ungleichgewicht an der TOA von etwa 1 W/m² enthalten, wie im vergangenen Jahrzehnt beobachtet. (Referenzen am Ende dieses Beitrags)

Wie auch immer, hier kommen einige Neuigkeiten hinsichtlich jener Behauptung eines konsistenten TOA-Ungleichgewichtes aus dem CERES-Satelliten-Datensatz:

Abbildung 1: Gemessene Strahlungsniveaus an der TOA auf Basis der CERES-Satellitendaten, beginnend im Januar 2001. Die Zahlen auf der horizontalen Achse entsprechen den Monaten. Gezeigt werden die in das System eintretende Sonnenenergie (rote Linie), die das System verlassende Sonnenenergie (dunkelblaue Linie) und die das System verlassende langwellige (infrarote) Strahlung (hellblaue Linie). Das monatliche Gesamt-Ungleichgewicht an der TOA wird unten in violett gezeigt. Das gleitende 12-Monats-Mittel für jede Variable wird als dünne Linie gezeigt. Komischerweise sind die Variationen der ausgehenden langwelligen Strahlung etwa 6 Monate außer Phase mit der einfallenden Strahlung. Alle Strahlungswerte sind positiv. Ungleichgewicht an der TOA ist Solareinstrahlung abzüglich reflektierte Solarstrahlung abzüglich ausgehende langwellige Strahlung, d. h. Inflow kleiner als Outflow [dieser Satz lautet im Original: TOA Imbalance is solar less reflected solar less outgoing longwave, i.e. inflow less outflow]. 12-Monats-Mittel variieren zu wenig, um als Änderungen in diesem Maßstab hervorzutreten.

Nun gibt es eine Reihe von interessanten Dingen in dieser Graphik. Da ist zunächst die Tatsache, dass zwar die jahreszeitlichen Variationen ziemlich groß sind, mehrere Zehner-Watt pro Quadratmeter, die jährlichen Variationen aber so klein sind. In diesem Maßstab kann man sie kaum erkennen. Also wollen wir den Maßstab ausdehnen und einen genaueren Blick lediglich auf die Variationen des Gesamt-Energie-Ungleichgewichtes an der TOA werfen (violette Linie in Abbildung 1 unten). Das Ergebnis zeigt Abbildung 2:

Abbildung 2: Das Gesamt-Energie-Ungleichgewicht „durch die Lupe”: Auf der horizontalen Achse sind die Monate aufgetragen. Die dünne Linie zeigt gleitende zentrierte 12-Monats-Mittel der Ungleichgewichts-Daten an der TOA. Alle Strahlungswerte sind positiv. Das TOA-Ungleichgewicht ist solare kleiner als reflektierte solare kleiner als ausgehende langwellige Strahlung, d. h. Inflow kleiner Outflow [Original siehe oben! Ich bin einfach nicht sicher, das richtig übersetzt zu haben. A. d. Übers.]

Hier fangen die kleinen Variationen in den gleitenden 12-Monats-Mittelwerten an, sich zu zeigen. Allerdings beträgt der Mittelwert selbst 5 W/m² … das ist nicht gut. So viel Ungleichgewicht ist nicht glaubwürdig.

Das zeigt den Unterschied zwischen Präzision und Genauigkeit. Man sieht, dass die Messungen offensichtlich ziemlich präzise sind – das 12-monatige gleitende Mittel variiert nur um ein Dreiviertelgrad während des gesamten Zeitraumes.

Absolut sind sie jedoch nicht so genau; das wissen wir, weil sie sich nicht ausbalancieren … und es ist sehr zweifelhaft, dass sich die Erde um 5 W/m² außer Gleichgewicht befindet. Das ist eine sehr große Menge, die sicher bemerkt worden wäre.

Nun habe ich schon zuvor darüber berichtet, wie James Hansen mit diesem Problem umgeht. Er sagt:

Die durch die am weitesten entwickelte Generation von den Strahlungshaushalt messenden Satelliten erreichte Präzision wird gezeigt durch das planetarische Energie-Ungleichgewicht, gemessen durch CERES (Wolken und das Strahlungsenergie-System der Erde; Loeb et al. 2009). Darin zeigt sich ein mittleres 5-Jahres-Ungleichgewicht von 6,5 W/m² (Loeb et al. 2009). Weil dieses Ergebnis nicht plausibel ist, wurden Faktoren zur Kalibrierung der Instrumente eingeführt, um das Ungleichgewicht auf ein solches Niveau zu senken, wie es die Klimamodelle simulieren, also 0,85 W/m² (Loeb et al. 2009).

Ergebnis: Hansen hat eher die Levitus-Daten als die CERES-Daten verwendet, um die Behauptungen eines Strahlungs-Ungleichgewichtes von etwa 1 W/m² zu stützen. Allerdings ist nicht alles verloren. Die Präzision der CERES-Daten ist sehr gut. In Abbildung 2 kann man zum Beispiel erkennen, wie sich das Strahlungs-Ungleichgewicht an der TOA von Jahr zu Jahr unterscheidet. Also dehnen wir den Maßstab noch einmal aus und werfen einen sogar noch genaueren Blick nur auf die gleitenden 12-Monats-Mittelwerte für alle vier Strahlungsmessungen in Abbildung 1.

Abbildung 3: Ein noch näherer Blick, diesmal lediglich auf die kleinen Variationen der gleitenden 12-Monats-Mittel der CERES-Daten wie in Abbildung 1 dargestellt. Alle Strahlungswerte sind positiv. TOA-Ungleichgewicht ist solare kleiner als reflektierte solare kleiner als ausgehende infrarote Strahlung.

Jetzt beginnt man etwas zu erkennen.

Als erstes ist mir die Präzision der einfallenden Solarstrahlung aufgefallen (rote Linie). Wie zu erwarten war, ist die Sonne ziemlich stabil, die Strahlung variiert nur wenig im Vergleich zu den Variationen des reflektierten Sonnenlichtes und der langwelligen Ausstrahlung. Und die Beobachtungen reflektieren dies getreulich. Also scheint klar, dass  ihre Instrumente zur Messung von Strahlung ziemlich präzise sind.

Als nächstes fiel mir auf, dass die Änderung des Ungleichgewichtes (violett) stärker in Beziehung steht zur Änderung des reflektierten Sonnenlichtes (dunkelblau) als zu den Variationen der langwelligen Ausstrahlung. Ich habe das reflektierte Sonnenlicht in der Graphik oben (dunkelblau) besonders hervorgehoben. Das wird durch die Korrelation bestätigt. R² zwischen dem TOA-Ungleichgewicht und dem reflektierten Sonnenlicht beträgt 0,67; aber zwischen dem TOA-Ungleichgewicht und der langwelligen Ausstrahlung ist R² nur 0,07.

Es sieht wie ein wichtiges Ergebnis aus, dass das Ungleichgewicht hauptsächlich in Beziehung zur Albedo steht und dass sich wegen der Variation der Albedo die Variationen der reflektierten Sonnenenergie in der Größenordnung von ± drei zehntel eines Watts innerhalb weniger Jahre bewegen.

Schließlich bin ich wieder einmal überrascht, wie insgesamt stabil das System ist. Zwölf-Monats-Mittel aller drei Variablen sind alle stabil bis zu etwa ±0,3 W/m². Bei einer Gesamtzahl von 340 W/m² in beide Richtungen ist das plus oder minus eines Zehntelprozents … Das nenne ich extrem stabil. Ja, bei längeren Reihen sieht man wahrscheinlich größere Schwingungen, aber das ist immer noch sehr stabil.

Und das bringt mich zurück zu dem Zitat aus der Studie, mit der ich diesen Beitrag begonnen habe. Sie sagen, dass es

… ein konsistentes Strahlungs-Ungleichgewicht gibt an der Obergrenze der Atmosphäre von etwa 1 W/m², wie es im vergangenen Jahrzehnt beobachtet worden ist…

Nun, ihren Referenzen 2 und 3 zufolge basiert diese Behauptung auf dem Gedanken, dass die überschüssige Energie von den Ozeanen aufgenommen wird. Und diese Behauptung ist weit verbreitet wiederholt worden. Ich habe über diese Behauptungen hier etwas geschrieben. Die Behauptungen basieren alle auf den Levitus-Ozean-Temperaturdaten, welche eine zunehmende Wärme in den Ozeanen zeigen. Hier folgt meine Graphik des jährlich erforderlichen Antriebs zur Auslösung dieser Änderungen, die im ozeanischen Wärmegehalt nach Levitus gezeigt werden:

Abbildung 4: Jährlicher Antrieb in W/m², der erforderlich ist, um die Energiemenge in den Levitus-Daten auszulösen, die in den Ozean eintritt oder aus diesem herauskommt. Die Daten stehen für die oberen 2000 Meter Wasser. Trotz der Verwendung von Mittelwerten sowohl von Hansen als auch in der hier besprochenen Studie sind weder das Mittel noch der Trend statistisch signifikant. Weiteres hier.

Für unsere Zwecke möchte ich darauf hinweisen, dass es hinsichtlich des in den Levitus-Daten gezeigten Energiegewinns und –verlustes sehr großer Änderungen der Energiemenge von Jahr zu Jahr bedarf, die in den Ozean eindringen. Diese Energie muss von irgendwoher kommen, und sie muss irgendwohin verschwinden, wenn sie den Ozean wieder verlässt. Da der solare Input während der Periode in etwa konstant ist, muss diese Energie aus Änderungen entweder der langwelligen Ausstrahlung oder des reflektierten Sonnenlichtes stammen … und wir haben präzise (obwohl vielleicht ungenaue) Daten von CERES hierfür. Glücklicherweise spielt das Fehlen von Genauigkeit in diesem Fall keine Rolle, weil wir an Änderungen von Jahr zu Jahr interessiert sind. Hierfür ist alles, was wir brauchen, Präzision, und die CERES-Daten sind sehr präzise.

Also … jetzt möchte ich den in Abbildung 4 gezeigten Antrieb des ozeanischen Wärmegehaltes nach Levitus mit den CERES-Daten vergleichen. Abbildung 5 zeigt den Unterschied:

Abbildung 5: Antrieb aus den Levitus-Daten des ozeanischen Wärmegehaltes verglichen mit den CERES-Daten in Abbildung 3.

Wie man sieht, haben sie eine Reihe großer Probleme mit ihren Behauptungen hinsichtlich eines konsistenten Ungleichgewichtes von 1 W/m² während des letzten Jahrzehnts.

Erstens widersprechen dieser Behauptung die gleichen Daten, von denen sie behaupten, dass sie sie stützen. Da ist nichts, was „konsistent“ ist in den Levitus-Daten, es sei denn, man verwendet ein langzeitliches Mittel.

Das zweite Problem liegt in den Levitus-Daten selbst … Woher kommt die Energie bzw. wohin geht sie? Während das TOA-Ungleichgewicht nach CERES nicht akkurat ist, ist es sehr präzise, und es würde eine Fluktuation in der Größenordnung zeigen, wie sie in den Levitus-Daten zum Ausdruck kommt. Wenn wirklich so viel Energie in den Ozean eindringen bzw. diesen verlassen würde, hätte der CERES-Satellit dies sicherlich beobachtet … also wo ist sie?

Ich habe bereits hier beschrieben, was ich als unrealistische Fehlerbalken in den Levitus-Daten ansehe. Mein jüngster Vergleich mit den CERES-Daten ändert nicht meine frühere Schlussfolgerung, dass nämlich die Präzision der Levitus-Daten erheblich überschätzt wird.

Und zum Schluss, der Gedanke, dass wir über ausreichend präzise, genaue und vollständige Beobachtungen verfügen, um das TOA-Ungleichgewicht mit beispielsweise 0,85 W/m² zu berechnen … nun, ich nenne es vorläufig und mathematisch optimistisch. Wir haben einfach nicht die Daten, um die Energiebilanz der Erde mit einer Genauigkeit von ± 1 W/m² zu berechnen, weder aus den Ozeanen noch von den Satelliten.

Weitere Beiträge von mir zu den CERES-Daten:

Observations on CERES TOA forcing versus temperature

Time Lags In The Climate System

A Demonstration of Negative Climate Sensitivity

CERES data: Unfortunately, when I go to verify it’s still available, I get:

The Atmospheric Science Data Center recently completed a site wide redesign.  
It is possible that the page you are looking for is being transitioned.  Please try back later.
If the page you have requested is still not available, it may have been renamed or deleted.
It is recommended that you use the Search interface on the ASDC Web Site to find the information you were looking for.

Since I got there via the afore mentioned “Search interface on the ASDC Web Site”, I fear we’re temporarily out of luck.

[UPDATED TO ADD] I’ve collated the global and hemispheric monthly averages from R into a “.csv” (comma separated values) Excel file available here.

Levitus data

REFERENCES FOR THE NATURE CLIMATE CHANGE ARTICLE:

2. Hansen, J. et al. Earth’s energy imbalance: Confirmation and implications.
Science 308, 14311435 (2005).

3. Trenberth, K. E., Fasullo, J. T. & Kiehl, J. Earth’s global energy budget.
Bull. Am. Meteorol. Soc. 90, 311323 (2009).

4. Trenberth, K. E. An imperative for climate change planning: Tracking Earth’s
global energy. Curr. Opin. Environ. Sustain. 1, 1927 (2009).

5. Trenberth, K. E. & Fasullo, J. T. Tracking Earth’s energy. Science 328,
316317 (2010).

Link: http://wattsupwiththat.com/2013/08/30/accuracy-precision-and-one-watt-per-square-metre/

Übersetzt von Chris Frey EIKE




Klimaerwärmung, wo?, jedenfalls nicht in Deutschland, nirgendwo

Der Weltklimarat hat gute Arbeit geleistet. Seine Angst einflössenden Presseerklärungen und Medienveröffentlichungen haben dem Klima geholfen, der Hitzetod der Erde konnte abgewendet werden.  Seit 20 Jahren sind die Temperaturen gleich bleibend mit einem leichten Trend nach unten. Der Weltklimarat samt dem  PIK Potsdam kann sich jetzt auflösen.

Vergrößerung der Wärmeinseln in Deutschland, täglich um 108 ha.

  Richtig hingegen sind zunächst mal solche Aussagen wie, die Sommer sind wärmer geworden gegenüber einem Zeitraum vor 40/50 Jahren. Doch aufgepasst. Es handelt sich dabei um eine scheinbare Erwärmung, die nur in den zunehmenden flächenhaften Wärmeinseln durch die Überbauung der freien Naturfläche stattgefunden hat. Trockenlegung von Sumpf- und Flussauen, Bau von Straßen, zunehmender Energieverbrauch und Ausuferung der Zivilisationsflächen, täglich werden auf diese Weise in Deutschland weitere 108 Hektar der Natur entzogen und die vom Menschen geschaffenen Wärmeinseln erweitern sich täglich. Jedem neuen Windrad fallen durchschnittlich 5 ha ursprüngliche Naturflächen, darunter auch Wald zum Opfer. Und in diese ausufernden Wärmeinselflächen beeinflussen auch die Messstationen des Deutschen Wetterdienstes. Die scheinbare Erwärmung kommt somit nicht von irgendwelchen Treibhausgasen, sondern in der Hauptsache  von der wärmenden Naturversiegelung. Wer ein guter Naturbeobachter ist, und deshalb eine vergleichende Vegetationsbeobachtung über einen längeren Zeitraum betreibt,  der kann keinerlei große Natur- und Vegetationsveränderungen aus den letzten 50 Jahren außerhalb der Wärmeinseln erkennen. 

Es gab mal kältere Jahresabfolgen, dann wieder wärmere, momentan geht der Trend wieder leicht nach unten zu kälter. Dafür dürften in erster Linie die vielfältigen Einwirkungen der Sonne und der Kosmischen Strahlung verantwortlich sein. Das Klima der Erde wird im Weltall gemacht und nicht auf der Erde.  Die Äpfel in den Streuobstwiesen reifen jedoch immer noch zum gleichen Zeitraum wie damals vor 50/60 Jahren und der Maikäfer, kommt, falls er noch kommt, immer noch im Mai, so wie vor 250 Jahren, wo er in unseren Maienliedern beschrieben ist. Große Veränderungen hat es insbesondere in den letzten Jahrzehnten im Vergleich zu früher nicht gegeben. Das zeigen uns auch die Maitemperaturen der letzten 2 Jahrzehnte.

Zunehmender Kohlendioxidgehalt, leicht abnehmende Temperaturen

 In den letzten 2 Jahrzehnten hat der Kohlendioxidgehalt der Atmosphäre aber weiter zugenommen, das zeigt die kleine eingeblendete  Abbildung im Augustdiagramm. CO2 also zunehmend, Temperaturen leicht abnehmend, daraus könnte man höchstens ablesen, dass mehr Kohlendioxid eine kühlende Wirkung auf das Klima hat. Das ist das genaue Gegenteil dessen, was die teuer bezahlten selbst ernannten Klimaerwärmungsschützer behaupten. Die uns Angst einflössenden Klimaerwärmungsmodelle, mit einem angeblichen Treibhausgas und Klimakiller Kohlendioxid sind die reinsten Märchenerfindungen.

Natur- und Umweltschutz, sorgfältiger Umgang mit der Schöpfung ja, Klimaschutz ist ein Geschäftsmodell

Josef Kowatsch, Hüttlingen.

J. Kowatsch ist Naturkundelehrer und langjährig erfahrener Natur- Wetterbeobachter in seiner Heimat




Offener Brief an Niedersächsischen Wirtschaftsminister Lies: Teurer Offshore Strom

Herrn Minister Dipl.-Ing. Olaf Lies

Niedersächsisches Ministerium für Wirtschaft, Arbeit und Verkehr
Friedrichswall 1
30159 Hannover                                                                                           29.08.2013

 

Offener Brief

Teurer Offshore Strom

 

Sehr geehrter Herr Wirtschaftsminister,

Lieber Herr Lies,

Sie propagieren in den letzten Wochen zusammen mit dem niedersächsischen Ministerpräsidenten Weil verstärkt Offshore Strom als das Rückgrat der „Energiewende“. Auf See installierte Anlagen  werden als Erfolg gefeiert, wie z.B. Riffgat, obwohl dieser Windpark noch keinen Landanschluss hat. Es werden Forderungen erhoben nach Planungssicherheit, das heißt, nach festen und sicheren Einspeisevergütungen. Nur über die Kosten dieser Energiepolitik wird nichts gesagt. 

Daher habe ich mit den Fachleuten von der Stromverbraucherschutz-Bewegung NAEB e.V.  die Offshore Stromkosten einmal zusammengestellt. Nach dem Erneuerbaren Energien Gesetz (EEG) wird eine Einspeisevergütung von 15 Cent/Kilowattstunde (Ct/kWh) für 15 Jahre oder wahlweise 19 Ct/kWh für 11 Jahre gezahlt. Hinzu kommen noch Zuschläge für größere Wassertiefen und größere Küstenabstände. Der Transport des Stromes an Land zu der nächsten Umspannstation kostet einschließlich der Stromverluste durch die Gleich- und Wechselrichter und die langen Leitungen nochmals mindestens 5 Cent. Damit ist Offshore Strom mit mehr als 20 Ct/kWh (ohne Mehrwertsteuer) heute der teuerste regenerative Strom. Strom aus Braunkohlenkraftwerken wird dagegen für 2,5 Ct/kWh produziert.

Die Kostenrechnung zeigt eine einfache Faustregel für Offshore Strom. Ein Windpark mit einer installierten Leistung von 100 Megawatt (MW) kostet jedem Bundesbürger 1 Euro pro Jahr. Geplant sind Anlagen mit einer Gesamtleistung von 10.000 MW. Damit wird jeder Bundesbürger mit zusätzlich 100 Euro im Jahr belastet. Davon erscheinen etwa ein Drittel auf der Stromrechnung und der Rest muss mit höheren Preisen für Waren und Dienstleistungen bezahlt werden. 

Die Ausbaupläne für Offshore Strom führen zu einem Kaufkraftverlust von 8 Milliarden Euro pro Jahr in Deutschland. Rechnet man für einen Arbeitsplatz einen Umsatz von 100.000 Euro pro Jahr, werden durch Offshore Strom 80.000 Arbeitsplätze vernichtet. Dies kann doch nicht Ihre Politik und die Politik der SPD sein? Für ein persönliches Gespräch stehe ich gern weiterhin zur Verfügung.

Mit freundlichen Grüßen

Hans-Günter Appel




Unbequeme Wahrheiten über den Klimakanzlerinnen Berater Schellnhuber Teil 1

Kapitel 1 – Himalaya-Gletscher-Schmelze ? – 10 unbequeme Wahrheiten über “Klimapapst” Hans Joachim Schellnhuber

Das Kapitel 1 über die “10 unbequemen Wahrheiten über Hans Joachim Schellnhuber” (Länge des Kapitels: ca. 09 Minuten) dokumentiert, wie Hans Joachim Schellnhuber damals am 30.10.2009 im ZDF in der “Langen Nacht des Klimas” im Dialog mit Karsten Schwanke behauptet hatte, er (Schellnhuber) könne sehr leicht ausrechnen, daß bei 2 Grad globaler Erwärmung die Himalaya-Gletscher in 30 bis 40 Jahren abschmelzen würden. Drei Monate später musste der Weltklimarat IPCC zugeben, dass es sich bei der Himalaya-Schmelze-Behauptung im Weltklimabericht 2007 um einen “peinlichen Fehler” gehandelt hatte. Das Kapital 1 der “10 unbequemen Wahrheiten über Hans Joachim Schellnhuber” bereitet diesen Sachverhalt auf und stellt hier die Frage…,

warum bis heute niemand in Deutschland dem “Klimaberater der Kanzlerin” Hans Joachim Schellnhuber öffentlich die Frage gestellt hat, wie er damals am 30.10.2009 im gebührenfinanzierten ZDF behaupten konnte, dass er “sehr leicht ausrechnen” konnte, dass die Himalaya-Gletscher in 30 bis 40 Jahren bei 2 Grad globaler Erwärmung abschmelzen würden?!

Auf welcher (wissenschaftlichen?) Grundlage hatte Hans Joachim Schellnhuber damals im ZDF am 30.10.2009 seine Behauptung über das Abschmelzen der Himalaya-Gletscher aufgestellt??

Im nächsten Kapitel 2 am 09.09.2013 werden die Begriffe “Prognose und Szenario” zum Thema. Der 6-minütige Videotrailer über das gesamte Filmprojekt ist seit dem 27.08.2013 online.

Übernommen von der Website Das Klimamanifest von Heiligenroth

Eine Antwort auf Schellnhubers genaue falsche Berechnung wird gerade in GeoScience veröffentlicht

Neue Studie in Nature Geoscience: Himalaya-Flüsse werden auch 2100 noch genügend Wasser führen




Windenergie: Verschwörung der ‚Grünmafia’

Der Bericht mit dem Titel Threat Assessment: Italian Organised Crime beschreibt die Aktivitäten einer ganzen Reihe von Mafia-ähnlich organisierten kriminellen Gruppen (OCGs) als eine „klare und gegenwärtige Bedrohung für die Europäische Union“ und eine Bedrohung, „wie sonst von keiner anderen organisierten Kriminalität in Europa“.

Die Autoren fühlen sich auch verpflichtet darauf hinzuweisen, dass der Bericht „eine Beschreibung des Zustands der Bedrohung ist und nicht eine historische Studie“. Er zeigt, wie moderne Bosse der Kriminalität es seit den zwanziger und dreißiger Jahren bevorzugen, „die legale Wirtschaft zu infiltrieren“. Und dies wird der Studie zufolge erreicht durch „sorgfältige Investitionen in bestimmten Bereichen“ sowie „fortgeschrittenen Methoden der Geldwäsche“. Und ein Industriezweig sticht aus der Menge der anderen besonders als Ziel hervor: der „Markt grüner oder alternativer Energie, zum Beispiel Investitionen in Windenergie-Parks“. Im Besonderen finden Mafia-Familien leichte Beute in „großzügigen Garantien und Steuersubventionen seitens MS [?] und EU“. Methoden, die unabhängige Unternehmen in der ersten Reihe erzeugen, getrennt von „der Ausbeutung umweltfreundlicher Anreize zu finanziellen Fortschritten“ und die es ihnen ermöglicht, „die Prozesse der Kriminalität via legaler Geschäftsstrukturen zu waschen“.

Dem Bericht zufolge besteht eines der Probleme darin, dass OCGs „sich selbst auf dem Markt als starke Wettbewerber präsentieren, die es sich leisten können, ‚mit Verlust’ zu operieren, was langfristig zu einer Quasi-Monopoly-Situation führt, die die grundlegenden Prinzipien des freien Marktes unterminiert“. Und er zitiert anonym einen „weithin bekannten italienischen Staatsanwalt“ mit der Erklärung: „Die OCGs in Italien sind heutzutage die einzigen EU-Wirtschafts-Mitbewerber, die unter dem entgegen gesetzten Problem aller anderen Unternehmer leiden: zu viel Geld und nicht genug Möglichkeiten, dieses zu re-investieren“.

Fette Profite”

Die Beteiligung der Mafia an der Windindustrie wurde zum ersten Mal schon im Jahr 1996 identifiziert, als der sog. „Lord des Windes“ Vito Nicastri wegen unsauberer Zahlungen in Höhe von 15 Millionen Euro und wegen Bestechung öffentlicher Funktionäre im Zusammenhang mit Windpark-Betrug verurteilt worden ist. Nicht dass das verhindert hätte, dass Nicastri weitere Lizenzen erworben hat. Im Jahr 2010 hat Nicastri fast 2 Milliarden Euro Firmenvermögen beiseite geschafft. Diese Holdings enthielten u. a. 43 Wind- und Solarunternehmen, 100 Immobilien, 66 Bankkonten, sieben Sportautos und Luxusyachten [Was macht er eigentlich mit all dem? A. d. Übers.].

Man glaubt, dass zahlreiche Zweige der Mafia stark in Wind- und anderen erneuerbaren Energie-Projekten in Europa involviert sind, mit Ablegern in Spanien, Frankreich, Deutschland und den Niederlanden. Ein früherer Bericht aus dem Jahr 2009 brachte Nicastri, den mutmaßlichen Boss der Cosa Nostra Oresto Vigorito und die gescheiterte [state-forfeited] italienische Vento Power Corporation in Verbindung mit zwei Windenergie-Unternehmen in Boston, USA.

Ein italienischer Verfassungsrechtler hat gegenüber [dem Sender] Al Jazeera eine Schlüsselstrategie der modernen Mafia beschrieben: „sie investiert überall dort, wo es eine gut geeignete Möglichkeit gibt, die wahrscheinlich hohe Profite verspricht“. Die kanadische Spezialistin im Kampf gegen Geldwäsche Christine Duhaime weist darauf hin, dass der European Regional Development Fund (ERDF) massive 295 Milliarden Euro als Darlehen für erneuerbare Energie bereit gestellt hat. Aber sie hat auch herausgefunden: Die EU verlangt von jedem Mitgliedsland die Einrichtung einer Behörde mit regulatorischen Funktionen für Legalität und Zahlungen. In der Praxis jedoch ist das in den meisten Staaten nur ein Lippenbekenntnis, „liegen gelassen am Straßenrand“. Duhaimes Untersuchungen zufolge „sind in geschätzten 50 Prozent der von der ERDF gezahlten Subventionen für mit der Windenergie zusammen hängende Infrastruktur-Maßnahmen Betrug oder andere Unregelmäßigkeiten im Spiel“. Im Einzelnen betrachtet sie Windenergieprojekte als „hohes Risiko“, vor allem, wenn es darum geht, die Front der Unternehmen in erneuerbarer Energie zu benutzen, um illegale Gewinne zu waschen.

Einer von der UK Remewable Energy Foundation veröffentlichten separaten Studie mit dem Titel The Performance of Wind Farms in the UK and Denmark zufolge ist es eine Tatsache, dass die Windindustrie jetzt „ausgereift“ sein müsste. Stattdessen ist sie selbst nach Jahrzehnten in Betrieb immer noch vollständig von öffentlichen Subventionen abhängig [hier], bleibt sie doch kommerziell nicht überlebensfähig und unattraktiv für private Investoren ohne umfangreiche Garantien der Regierung. Aber die Tage der großen Regierungsbeteiligungen könnten gezählt sein. Im vorigen Jahr hat das UK Public Accounts Committee die Kappung der „generösen“ und langzeitlichen Lizenz-Abkommen verlangt. Und es verdammte die Regierung wegen deren Garantie über läppische 17 Milliarden Pfund an nur zwei Ingenieurs-Unternehmen.

Wie ich zuvor schon in meinem Beitrag The Corruption of Wind Energy geschrieben habe, befinden sich alle Wind-Unternehmer nicht unter den „Sopranos“. Aber die Tage, an denen grüne Tarife auf Energierechnungen verschleiert werden, könnten gezählt sein. Die UK-Regierung beispielsweise verlangt gegenwärtig mehr Offenheit hinsichtlich der Elemente, aus denen sich die Energierechnungen für Industrie und Haushalte zusammen setzen. Das sollte helfen, die immer weiter zunehmende ökonomische „Sozialabgabe“ ans Tageslicht zu bringen, die die grüne Energie dem Steuern zahlenden Energieverbraucher aufbürdet. Ebenso dürfte auch ans Tageslicht kommen, in welch riesigem Umfang Wind- und erneuerbare Industrien weiterhin vom ‚Melken der Freundlichkeit der Regierung’ abhängig ist.

In scharfem Kontrast dazu sind die Steuerbefreiungen, die der Schiefergas-Industrie in UK angeboten worden sind, nicht mehr als eine Spuren-Förderung. Und einige Energie-Insider fragen, ob Schiefergas überhaupt diese Steuerbefreiungen braucht, wenn man die enormen ökonomischen Aspekte von Schiefergas betrachtet. Es ist an der Zeit, dass man die Windindustrie den gleichen Regeln der freien Märkte unterwirft wie die Mitbewerber. Oder, wie ich anderswo gesagt habe, „die Übernahme des Jargons eines ‚Grünmafia’-Filmes „sollte mit einem Versuch hinweg gepustet werden“. Inzwischen werden die den freien Markt verzerrenden Wind- und erneuerbare Energien-Subventionen nicht nur grüne Energieunternehmer-Milliardäre und Landbesitzer hervorbringen, sondern auch weiterhin leicht mitnehmbare Gelder bereitstellen, die abzusahnen die organisierte Kriminalität nicht widerstehen kann.

Mehr: http://www.energytribune.com/78768/wind-energy-the-greenfellas-connection#sthash.bjxQAzf8.B4UM1UZc.dpuf

Link: http://www.energytribune.com/78768/wind-energy-the-greenfellas-connection#sthash.bjxQAzf8.B4UM1UZc.dpbs

Übersetzt von Chris Frey EIKE




Die pazifische dekadale Oszillation kann die aktuelle Temperaturpause und die globale Erwärmung von 1975-1998 erklären

Die weiteren Ausführungen folgen dem Artikel der renommierten US-Klimaforscherin Judith Curry, für Details wird auf ihren Aufsatz verwiesen (hier). KX verwenden das bekannte GFDL Modell (hier) und führten damit Simulationen durch. Diese unterschieden sich durch die in das Modell eingesetzten Klimaantriebe. Neu an der Arbeit von KX war die Berücksichtigung der gemessenen Meerestemperaturanomalien im östlichen äquatorialen Pazifik. Die Ergebnisse der Modellrechnungen zeigt Fig. 1

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/presentation17.jpg

Fig. 1: Maßgebend sind die beiden rotgelben Kurven oben und unten. Oben wird die Messung gezeigt, unten das Modellergebnis OHNE den Einfluss des anthropogenen CO2, also nur durch die interne natürliche Variabilität verursacht. Die gute Übereinstimmung beider Kurven ist verblüffend gut.

Die Messung zeigt von 1975-1998 einen Temperaturanstieg von 0,68 °C, das Modell von 0,4 °C. Somit kann das Modell von KX mehr als die Hälfte der globalen Erwärmung mit natürlicher Klimavariabilität erklären. Bisher wurde dagegen die Erwärmung seitens der AGW-Verfechter und des IPCC ausschließlich dem anthropogenen CO2 zugeschrieben.

Das Ergebnis von KX passt zudem bestens mit den Temperaturänderungen zusammen, die man aus guten, bis etwa 2000 Jahre zurückreichenden Proxy-Reihen entnehmen kann. So enthält z.B. die Proxy-Reihe von Christiansen/Ljungqvist bereits vor 1700 n.Chr. (hier) mehrfach Temperatursteigerungen, aber auch Temperaturabfälle, die die des 20. Jahrhunderts an Stärke und Geschwindigkeit übertreffen. In zwei Publikationen des Verfassers (hier, hier) wird außerdem gezeigt, dass der Temperaturabstieg des 19. Jahrhunderts in seiner Stärke dem erneuten Anstieg im 20. Jahrhundert nicht maßgebend nachsteht. Anthropogenes CO2 erscheint daher zur Erklärung des globalen Temperaturverlaufs im 20. Jahrhundert nicht erforderlich, und die Klimasensitivität des CO2 wird mit hoher Wahrscheinlichkeit vom IPCC stark überschätzt.  

Es wäre pikant, wenn ausgerechnet Klimamodelle, deren Versagen der bekannte Klimaforscher Hans von Storch in einem SPIEGEL-Interview beklagte (hier), zwar einen ihrer vielen Mängel (nämlich die aktuelle globale Abkühlung nicht erklären zu können) zu beheben vermögen, dies aber nur zu dem Preis eines "Freispruchs für das anthropgene CO2".