1

Wetter: Achtung Klimawandel! Ein Kommentar von Dipl.-Met. Dominik Jung.

"Offenbach. Die Meteorologen des Deutschen Wetterdienstes (DWD) sehen in den ungewöhnlich vielen Unwettern der vergangenen Wochen "ein weiteres Zeichen des Klimawandels", so Gerhard Lux, Sprecher des Deutschen Wetterdienstes (DWD) in Offenbach, am Donnerstag.

So wurde es gestern vom Deutschen Wetterdienst erklärt und steht es unter anderem im Hamburger Abendblatt.

Es war ja fast schon nicht anders zu erwarten, dass nach den kräftigen Gewittern der letzten Wochen alsbald wieder die "Klimawandelkeule" geschwungen wird.

Da hatten wir einen zu trockenen Dezember 2013, zu trockenen Januar, Februar, März und April 2014 in Folge und nun kommt der zu nasse Juli, mit dem die Natur insgesamt wieder alles ausgleicht. Von den letzten 8 Monaten waren 6 zu trocken, einer – der Mai- brachte etwas mehr Regen als normal und der Juli rund 75 Prozent mehr Niederschlag als üblich.

Im Sommer 2003, dem heißesten und trockensten Sommer seit 1881, konnten wir noch die Schlagzeile lesen, dass nun künftig alle Sommer heißer und trockener werden würde, sogar von einer Sommer-Dürre in Deutschland war die Rede.

Im Jahr 2007 wurde sogar in den Medien vom Sahara-Sommer gesprochen: Klimaforscher Professor Mojib Latif (52), Leibniz-Institut, Kiel: "Die Wahrscheinlichkeit für einen extrem heißen Sommer steigt." Die Wärme und der fehlende Regen – für Professor Latif – Indizien dafür, dass die globale Erwärmung in Deutschland angekommen ist."

Das sei der Klimawandel hieß es damals. Nun sind wir elf Sommer danach und hatten nie wieder so einen trockenen Sommer wie 2003. Ganz im Gegenteil:

Die meisten Sommer nach 2003 brachten sogar mehr Regen als im langjährigen klimatologischen Durchschnitt, von einem Sahara-Sommer sind wir meilenweit entfernt. Sicherlich gibt es immer wieder mal einzelne kurze Hitzewelle, aber das ist völlig normal für einen typischen mitteleuropäischen Sommer. Die sind nun mal von der wechselhaften Art. Kühle und warme bis heiße Phasen wechseln sich rasch ab. Im Übergangsbereich gibt es Gewitter, oftmals auch Unwetter.

Zusammengefasst: 2003 war die Hitze und Trockenheit das Anzeichen für den Klimawandel, 2014 ist es nun ein zu nasser Juli-Monat? Wer soll das verstehen?

Es ist doch immer wieder erstaunlich. Noch gut erinnern wir uns an die zurückliegenden Winter, die teilweise massive Kältewellen nach Europa und Deutschland brachten und  d a s ,

wo es im Jahr 2001 noch hieß: "Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben", sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie.

Merkwürdig: Als man die Klimawissenschaftler mit den Kältewellen konfrontierte, bekam man zu hören, dass nun ein zu kalter Winter noch überhaupt nichts aussagen würde und schon gar nicht dem Klimawandel widersprechen würde.

Nun soll aber im Gegenzug EIN zu nasser Juli-Monat schon wieder zur Begründung des Klimawandel herhalten?

Das Wort Klimawandel wird überstrapaziert. Das Klima der Erde war schon immer im Wandel und das es die Erde gibt. Ich bestreite nicht, dass die weltweite Temperatur im globalen Mittel angestiegen ist, kritisiere aber den ständigen Alarmismus unserer Klima-Experten, sei es an den Universitäten oder beim Deutschen Wetterdienst.

Wer nimmt dieses hin und her noch ernst? Nachdem es dann mit den Winter ohne Eis und Schnee nichts wurde, wurde 2010 als Begründung die "Atempause der Klimaerwämung" aus dem Hut gezaubert.

Es drängt sich immer mehr der Verdacht auf, dass die Wissenschaft hier noch ziemlich im Dunkeln stochert. In den Augen der Bevölkerung stellt dieses hin und her sowie das ständige "Fähnchen in den Wind hängen" nicht gerade Kompetenz da.

Da verwundert es nicht, dass viele Menschen das alles nicht mehr wirklich ernst nehmen.

Ich weiß ja, dass man irgendwie seine Forschungsgelder rechtfertigen muss, aber ich fordere trotzdem von den führenden Klimaexperten mehr Sachlichkeit und Ernsthaftigkeit.

Man fragt sich langsam wirklich, wer hier wem folgt: Das Klima den Prognosen oder die Prognosen dem Klima.

Dominik Jung
Diplom-Meteorologe und Redaktionsleiter wetter.net

===================================================

Quellen:

"Sahara-Sommer"

Quelle: http://www.bild.de/news/2007/news/hitze-duerre-klima-1735512.bild.html

"Winter ade"

Quelle: http://www.spiegel.de/wissenschaft/mensch/winter-ade-nie-wieder-schnee-a-71456.html

"Atempause der Klimaerwärmung"

Quelle: http://www.fr-online.de/panorama/interview-mit-mojib-latif–erwaermung-macht-eine-art-atempause-,1472782,2903812.html

===================================================

Anmerkung EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen auf:

http://www.wetter.net/wetternews/wetter-achtung-klimawandel-ein-kommentar-von-diplmet-dominik-jung-8249.html   ; 08.08.2014

u n d

https://de.nachrichten.yahoo.com/blogs/heiter-bis-wolkig/achtung-klimawandel–091545108.html   ;   8. August 2014

EIKE dankt dem Autor DOMINIK JUNG für die Gestattung des ungekürzten Nachdrucks.

==================================================================

PDF zum Download unten

==================================================================

Related Files




Auch das noch: Warmduscher gefährden Eisbären




Der Mythos grüner Arbeitsplätze: Die europäischen Erfahrungen

Schlüsselpunkte in dieser Übersicht:

• Die Obama-Administration, deren Verbündete im Kongress und die Umweltgemeinschaft propagieren die Vorteile grüner Technologie und der Erzeugung grüner Arbeitsplätze, um die Arbeitslosigkeit zu lindern.

• Grüne Arbeitsplätze ersetzen kaum Arbeitsplätze in anderen Bereichen und tragen im Endeffekt weniger zum wirtschaftlichen Wachstum bei.

• Erfahrungen mit erneuerbarer Energie in Europa haben zu Verlusten von Arbeitsplätzen geführt ebenso wie zu höheren Energiepreisen und Korruption.

Grün ist das neue Schwarz, sowohl in den USA als auch in Europa. Fast jeder im linken Spektrum hat sich grüne Hosen angezogen, grüne Hemden und grüne Deckmäntel; zusammen mit der Versicherung, dass dies die Zukunft des Lebens auf der Erde ist, so wie wir sie kennen.

Präsident Obama spricht in seinen Reden regelmäßig die grüne Ökonomie an. Das Obama/Biden-Dokument mit dem Titel New Energy for America aus dem Jahr 2008 konzentriert sich auf grüne Arbeitsplätze, grüne Technologie, grüne Herstellungsprozesse, grüne Gebäude und sogar grüne Veteranen. In einer Rede vor dem Democratic National Committee im September 2010 hat Obama getönt: „Wir waren zurückgefallen, und jetzt sind wir wieder da und befinden uns in der Ersten Reihe von Forschung und Entwicklung. Wir haben die größten Investitionen in grüne Energie in unserer Geschichte getätigt, so dass wir jetzt Solarpaneele und Windturbinen überall im Lande errichten können“. (1)

In einer Rede vom 13. August hat Vizepräsident Joe Biden in die gleiche Kerbe gehauen: „Es reicht nicht, einfach nur die Wirtschaft zu retten, sondern wir müssen sie besser als zuvor aufbauen – und diese Arbeit beginnt damit, den amerikanischen Produzenten die Ressourcen zu geben, die die Grundlage für saubere, grüne Energie-Technologie unserer Wirtschaft im 21. Jahrhundert bildet. Mit der heutigen Einführung von 2,3 Milliarden Dollar Steuererleichterungen für grüne Produzenten sind wir dabei, die Herstellung von Materialien für grüne Energie in diesem Lande zu beschleunigen, während wir tausende neuer Arbeitsplätze genau hier in unserem eigenen Hinterhof schaffen. Von Wind- und Solarstrom bis zur Technologie von Elektroautos wird unsere Erholung befeuert von den Anreizen unserer Steuergesetze, die wir heute den Unternehmen anbieten, die dann morgen der Motor unserer Wirtschaft sein werden“. (2)

Die ehemalige Sprecherin Nancy Pelosi von den Demokraten unterstützt ebenfalls die Causa grün. Ein Waschzettel einer Pelosi-Rede vor der Stanley School in Waltham, Massachusetts beginnt mit den Worten: „Für eine bessere und blühendere Wirtschaft müssen wir in grüne Infrastruktur investieren, in eine grüne Wirtschaft und in grüne Schulen, um eine Arbeitswelt mit gut bezahlten grünen amerikanischen Arbeitsplätzen zu erschaffen“. (3)

Natürlich wurde auch Senator Harry Reid von den Demokraten nicht außen vor gelassen. Auf einem Gipfeltreffen der Senatoren von den Demokraten im Jahre 2009 über grüne Arbeitsplätze überschlug sich Reid mit Lobhudeleien auf seine grünen Leistungen: „Wir haben beispiellose Investitionen in saubere, erneuerbare Energien und neue, grüne Arbeitsplätze gesteckt, die niemals ausgelagert werden können. Im Jahre 2007 haben wir ein Eckpfeiler-Energiegesetz erlassen, das zur Entwicklung sauberer, erneuerbarer Treibstoffe hier bei uns führte sowie zur Erzeugung wichtiger amerikanischer Produktions-Arbeitsplätze. Wir haben zum ersten Mal in einer Generation die Standards bzgl. Energie-Effizienz angehoben und neue Energieeffizienz-Standards gesetzt für Beleuchtung, Haushaltsgeräte sowie öffentliche Gebäude und Fahrzeuge. Im Wirtschaftsplan, in diesem Jahr in Kraft gesetzt, investierten wir 67 Milliarden Dollar, um saubere Energie zu entwickeln, und weitere 500 Millionen Dollar, um neue Arbeiter in führenden grünen Positionen zu trainieren, die unsere Nation jeden Tag energieeffizienter und energieunabhängiger machen“.

[Was könnte man mit all diesem Geld tun, wenn es für sinnvollere Zwecke verwendet werden würde! Anm. d. Übers.]

Alles in allem heißt es also auf der Linken Seite einstimmig, dass die Zukunft der Welt grün ist: grüne Energie, die grüne Technologien antreibt; grüne Häuser erzeugt sowie Gebäude, Autos und Jobs, Jobs, Jobs. Aber basiert dieses Denken auf realistischer Ökonomie, realistischem Verständnis grüner Technologie oder realistischen Erwartungen hinsichtlich des Wachstumspotentials der grünen Bewegung? Dieser Artikel untersucht, ob die Regierung Arbeitsplätze mittels Subventionen aller Art erzeugt und schaut dann auf die besorglichen europäischen Erfahrungen mit grüner Energie und der Schaffung von Arbeitsplätzen.

Grüne Energie und grüne Arbeitsplätze

Um den Trugschluss der Regierung hinsichtlich der Schaffung grüner Jobs mittels Subventionen und Vorschriften zu verstehen, müssen wir den französischen Ökonom Frédéric Bastiat zu Rate ziehen. Bereits im Jahre 1850 hat Bastiat den Trugschluss erklärt, der solchen Denkweisen zugrunde liegt, und zwar in einem Essay über die unsichtbaren Kosten derartiger Bemühungen. Er nannte es den „Trugschluss des zerbrochenen Fensters“.

Der Trugschluss geht folgendermaßen: Man stelle sich vor, einigen Ladenbesitzern werden die Scheiben durch ein Steine werfendes Kind zerschlagen. Zunächst sympathisieren die Leute mit den Ladenbesitzern, bis jemand behauptet, dass die zerschlagenen Scheiben eigentlich gar nicht so schlecht sind. Schließlich „schaffen sie Arbeit“ für den Glaser, der dann in der Lage ist, mehr Nahrung zu kaufen, was wiederum von Vorteil für den Krämer ist, oder sich neue Kleidung zuzulegen, wovon der Schneider profitiert. Wenn nur genug Fenster zerschlagen werden, könnte der Glaser sogar einen Helfer einstellen – und hätte einen Arbeitsplatz geschaffen.

Hat also das Kind der Öffentlichkeit mit dem Zerschmeißen der Fenster einen Gefallen getan? Nein! Wir müssen auch in Betracht ziehen, was der Ladenbesitzer mit dem Geld gemacht hätte, das er für die Reparatur des Fensters ausgeben musste, wenn das Fenster nicht zerbrochen worden wäre. Höchstwahrscheinlich hätte der Ladenbesitzer dieses Geld wieder in seinen Laden investiert; vielleicht hätte er von seinem Händler noch mehr Güter gekauft oder neue Mitarbeiter eingestellt.

Wären die Fenster nicht zerschlagen worden, würde es in der Stadt immer noch die Arbeitsplätze geben, die durch das Geld des Ladenbesitzers geschaffen worden wären, plus das eingesparte Geld für die nicht zerbrochene Scheibe. Weil der Wert des Fensters zerstört worden ist, wurde er – und die Stadt als Ganzes – jedoch ärmer.

Es ist unter Ökonomen ein alter Hut, dass Regierungen keine Arbeitsplätze „schaffen“; der Wille der Unternehmer, ihr Kapital zu investieren, zusammen mit der Nachfrage der Verbraucher nach Gütern und Serviceleistungen macht dies. Alles, was die Regierung tun kann, ist einige Industrien zu subventionieren, während sie anderen höhere Kosten auferlegt. Im Falle grün zerstört sie Arbeitsplätze im konventionellen Energiesektor – und höchstwahrscheinlich auch in anderen industriellen Bereichen – durch Steuern und Subventionen für neue grüne Unternehmen, die die Dollars der Steuerzahler dazu verwenden, den Wettbewerb zu unterlaufen. Die durch Subventionen „geschaffenen“ Arbeitsplätze sind per definitionem weniger effizient bei der Verwendung von Kapital als Arbeitsplätze, die der Markt hervorgebracht hat. Das bedeutet, sie sind ökonomisch weniger produktiv als die Jobs, die sie ersetzen, und sie tragen weniger zum wirtschaftlichen Wachstum bei. Schließlich ist das Produkt, das durch von der Regierung geförderten Arbeitsplätzen entstanden ist, eine nicht ökonomische Ware, die auf unbestimmte Zeit gestützt werden muss, oftmals ohne einen wirtschaftlichen Nutzen, also anders als bei Straßen, Schienen, Massentransit und vielleicht Windmühlen, Installationen von Solarpaneelen oder andere grüne Technologien.

Um zu verstehen, wie das in der Praxis läuft, wende ich mich jetzt sechs europäischen Ländern zu, die für Erneuerbare außer Rand und Band geraten sind, während sie das Hohelied grüner Arbeitsplätze singen: Spanien, Italien, Deutschland, Dänemark, UK und die Niederlande.

Spanien

Spanien wurde lange als führend beim Übergang zu erneuerbarer Energie gesehen. Tatsächlich hat Obama in einer Rede im Jahre 2009 Spanien als rühmliches Beispiel hervorgehoben. Der Präsident hatte gesagt: „Es gibt enormen wirtschaftliche Verbindungen zwischen unseren beiden Ländern, und wir haben uns geschworen, hart zu arbeiten, um diese noch weiter zu stärken, besonders in Schlüsselbereichen wie erneuerbarer Energie und dem Transportwesen, wo Spanien weltweit führend war und die USA nach meiner Überzeugung ein enormes Potential haben voranzugehen“. (4).

Aber die Geschichte der führenden Rolle Spaniens hinsichtlich grüner Arbeitsplätze hat nach dieser Rede Obamas eine Reihe harter Rückschläge erlebt. Im März 2009 haben die Forscher Gabriel Calzada Alvarez und seine Kollegen an der Universidad Rey Juan Carlos eine Studie veröffentlicht, in der sie die ökonomischen und arbeitsplatztechnischen Auswirkungen der starken Offensive Spaniens zu Erneuerbaren untersucht. Ihre Ergebnisse haben die gewöhnliche Rhetorik bzgl. grüner Jobs gehörig durcheinander gewirbelt (5):

● Seit dem Jahr 2000 hat Spanien 571.138 Euro für jeden grünen Arbeitsplatz ausgegeben, einschließlich Subventionen von über 1 Million Euro pro Job in der Windindustrie.

● Die Programme, die zur Bildung dieser Arbeitsplätze geführt haben, haben fast 110.500 Arbeitsplätze anderswo in der Wirtschaft vernichtet (2,2 vernichtete Arbeitsplätze für jeden geschaffenen grünen Job).

● Die hohen Stromkosten betreffen hauptsächlich die Produktionskosten und das Beschäftigungsniveau in den Bereichen Metallurgie, nichtmineralischen Bergbau und die Erzeugung von Nahrungsmitteln sowie in der Getränke- und Tabakindustrie.

● Jedes installierte „grüne“ Megawatt vernichtet im Mittel 5,28 Arbeitsplätze in anderen Bereichen der Wirtschaft.

● Diese Kosten spiegeln noch nicht Spaniens besonderes Vorgehen, sondern vielmehr die Natur der Art und Weise, mit der erneuerbare Energiequellen vorangetrieben werden.

In Spanien hat man inzwischen herausgefunden, dass der Ausflug des Landes in die erneuerbaren Energien unhaltbar geworden ist. Bloomberg berichtet, dass Spanien seine Subventionen für neue Solarkraftwerke drastisch gekürzt hat (6). Der Analyst Andrew McKillop schreibt in dem Magazin Energy Tribune:

In Spanien beliefen sich die Subventionen in die massiven Windparks des Landes und deren abhängige Industrien schätzungsweise auf bis zu 12 Milliarden Euro allein im Jahr 2009, entweder direkt oder durch „Einspeisetarife“. Daher hat die Regierung diese Subventionen um mindestens 30% gekürzt. Bedeutende Firmen im Bereich Windenergie wie Gamesa haben begonnen, ihre Arbeitsplätze abzubauen, während sie gleichzeitig versuchen, außerhalb Europas ihre Produkte zu verkaufen, wobei ein schwächerer Euro hilfreich ist. Zusätzlich und wegen der hoch defizitiären Handelsbilanz Spaniens, was das Land zum Ziel von Spekulanten werden lässt, die darauf bauen, dass deren Kurse steigen müssen, wird die spanische Regierung wahrscheinlich auch den finanziellen Rückhalt der bestehenden Kraftwerke erneuerbarer Energien kürzen, obwohl diese in Erwartung garantierter Preise und Regierungs-Subventionen für 25 Jahre errichtet worden waren (7).

Und dann ist da noch das Problem der Korruption. Bloomberg Businessweek berichtet: „In einer Anhörung zur Solarstromerzeugung von November 2009 bis Januar 2010 kam heraus, dass einige Betreiber von Solarpaneelen dafür bezahlt worden sind, das ‚Unmögliche‘ zu schaffen – nämlich die Erzeugung von Sonnenstrom während der Nacht (8)“. Außerdem scheint es so, als ob die Solarenergie-Erzeuger „Dieselgeneratoren betrieben und den so erzeugten Strom als Solarstrom verkauft haben, was viele Male lukrativer ist als der Verkauf fossilen Stromes“. Neunzehn Personen im spanischen Sektor „saubere Energie“ sind verhaftet worden, und zwar unter Vorwürfen, die von Bestechung bis zu zwielichtigen Landverkäufen reichen, um Freunden und Familien Lizenzen auszustellen mit falschen Angaben zur Konstruktion. Der Guardian berichtet: „als die spanische nationale Kommission für Energie beschloss, 30 Solarfarmen zu inspizieren, kam es zu dem Ergebnis, dass nur 13 davon ordnungsgemäß errichtet worden waren und tatsächlich Strom in das Netz einspeisten“ (9).

Italien

Ähnlich ist die Lage in Italien, ebenfalls ein Führer bei der Entwicklung von Wind- und Solarenergie. Eine Studie von Luciano Lavecchia und Carlo Stagnaro vom Bruno Leoni-Institut in Italien fanden sogar eine noch schlimmere Lage:

Schließlich haben wir das Kapital pro Arbeiter im RES (Renewable Energy Systems) mit dem Kapital pro Arbeiter in der Industrie und der gesamten Wirtschaft verglichen. Wir fanden ein Verhältnis von jeweils 6,9 bzw. 4,8. Anders gesagt, die gleiche Kapitalmenge, die einen Arbeitsplatz im grünen Sektor schafft, würde 6,9 oder 4,8 Arbeitsplätze schaffen, wenn man dieses Kapital in die Industrie oder die Wirtschaft allgemein investiert – obwohl es innerhalb der Erneuerbaren selbst schon Unterschiede gibt. Windkraft wird wahrscheinlich mehr Arbeitsplätze schaffen als Photovoltaik. Diese Tatsache ist besonders relevant, weil wir nicht einmal den nicht-trivialen Wert der erzeugten erneuerbaren Energie betrachtet haben, sondern uns ausschließlich auf die Subventionen konzentriert haben. Falls wir den Energiewert in Betracht gezogen hätten, wäre das Kapital pro Arbeiter sogar noch höher. Da Subventionen gewaltsam dem wirtschaftlichen Kreislauf entzogen und für politische Zwecke verwendet werden, ist es besonders wichtig, sich darüber im Klaren zu sein, welche Konsequenzen das hat (10).

Die Forscher fanden auch heraus, dass die große Mehrheit der geschaffenen grünen Arbeitsplätze nur zeitweiliger Natur waren: „Aus verschiedenen Quellen haben wir einen Startpunkt mit 9000 bis 26.000 Arbeitsplätzen in der Windkraft und 5500 bis 14.500 Arbeitsplätzen im Bereich solar gewählt. Ausgehend von dieser Zahl haben wir berechnet, dass dank der von Rom versprochenen Subventionen die Anzahl der in der grünen Ökonomie beschäftigten Personen bis zum Jahr 2020 auf eine Gesamtzahl von 50.000 bis 112.000 steigen wird. Allerdings sind die allermeisten dieser Arbeitsplätze – mindestens 60% – bestimmten Gruppen vorbehalten, nämlich Installateuren und anderen Zeitarbeitern, die verschwinden werden, wenn die Windturbine oder das Solarpaneel erst einmal in Betrieb ist“ (11).

Und wie in Spanien kam es auch in Italien zu wild wuchernder Korruption im Sektor Erneuerbare. Aber nicht zahlreiche Individuen, die die Regierung hintergehen, sind das Problem, sondern die Mafia hat ihre Finger im Spiel. Nick Squires und Nick Meo berichten im Telegraph: „Angezogen durch die Aussichten generöser Zuwendungen, um den Verbrauch alternativer Energien zu befeuern, hat die sog. ,Öko-Mafia‘ damit begonnen, auf betrügerische Weise Millionen Euro von der italienischen Regierung und der Europäischen Union abzusahnen“ (12). Weiter berichten sie:

Acht Personen sind in der Operation „Eolo“ verhaftet worden, benannt nach Äolus, dem antiken griechischen Gott des Windes. Der Vorwurf: Bestechung von Funktionären in der Küstenstadt Mazara del Vallo, und zwar in Gestalt von Luxusautos und individuellen Zuwendungen von 30.000 bis 70.000 Euro.

Polizeiliche Abhöraktionen brachten das Ausmaß der Infiltration der Mafia im Windenergie-Sektor ans Licht. Sie hatten einen mutmaßlichen Mafioso abgehört, der seiner Frau gesagt hat: „Keine einzige Windturbine wird in Mazara errichtet, wenn ich dem nicht zustimme“.

In einer anderen Operation im November 2013 mit dem Codenamen „Gone with the Wind“ wurden 15 Personen unter dem Verdacht verhaftet, versucht zu haben, 30 Millionen Euro in Fonds der Europäischen Union unterschlagen zu haben. Unter den Verhafteten befand sich auch der Präsident der nationalen Windenergie-Vereinigung Italiens Oreste Vigorito.

Deutschland

Deutschlands Ausflug in die erneuerbare Energie begann in großem Stil im Jahre 1997, als die Europäische Union ein Ziel übernommen hat, 12 Prozent ihres Stromes aus erneuerbaren Quellen zu erzeugen (13). Der deutsche Weg zur Erreichung derartiger Ziele war ein Einspeisegesetz, welches die Einrichtungen zwang, unterschiedliche Arten erneuerbaren Stromes zu unterschiedlichen Preisen zu kaufen. In einer Studie zu den Auswirkungen der aggressiven Befürwortung Deutschlands von Wind- und Solarenergie fand Martin Frondel heraus, dass das deutsche Einspeisegesetz die Einrichtungen verpflichtete, Solarenergie zu einem Preis von 59 Cent pro Kilowattstunde zu kaufen, also zu einem weit höheren Preis als die konventionellen Stromkosten, die zwischen drei und zehn Cent lagen. Einspeise-Subventionen für Windkraft lagen seinen Ergebnissen zufolge um 300 Prozent höher als konventionelle Stromkosten (14).

Unnötig hervorzuheben, dass diese massive Subvention von Wind- und Solarenergie eine Menge Investoren anzog: Schließlich ist es so, falls die Regierung mehrere Jahrzehnte lang einen Markt garantiert und einen Preis festsetzt, der hoch genug ist, dass Erzeuger von Erneuerbaren noch Profit machen, wird Kapital in diesen Markt fließen. Deutschland wurde zum zweitgrößten Windenergie-Erzeuger nach den USA, und die Investitionen des Landes in Solarenergie waren genauso aggressiv.

Aber Frondel zufolge lief die Chose nicht so, wie die deutschen Politiker und die Umweltaktivisten gesagt haben. Anstatt ökonomische Vorteile zu zeitigen in Gestalt billigerer Energie und einer starken Vermehrung von Arbeitsplätzen bzgl. grüner Energie, hat die Einführung von Wind- und Solarenergie zu Stromkosten-Steigerungen für die Haushalte um 7,5 Prozent geführt. Außerdem waren die Kosten für Treibhausgas-Emissionen erstaunlich hoch: über 1000 Dollar pro Tonne für Solarenergie und über 80 Dollar pro Tonne für Windkraft. Angesichts des Umstands, dass der Kohlenstoffpreis im europäischen Handelssystem zu der Zeit bei 19 Dollar pro Tonne lag, waren Treibhausgas-Emissionen aus Wind und Solar keine großen Investitionen.

Frondel folgert: „Die deutsche Politik hinsichtlich erneuerbarer Energie und im Besonderen das übernommene Schema für Einspeisetarife war ein Fehlschlag hinsichtlich der Nutzung der Marktanreize, um eine zuverlässige und kosteneffektive Einführung erneuerbarer Energie in das Energie-Portfolio des Landes sicherzustellen, Im Gegenteil, die Methoden der Regierung zur Unterstützung [der Erneuerbaren] haben diese Anreize in vielfacher Hinsicht unterlaufen, was zu massiven Ausgaben führte, die wenig Aussicht auf eine Stimulierung der Wirtschaft zeigen, die Umwelt zu schützen oder die Energiesicherheit zu erhöhen. Im Falle Photovoltaik hat das deutsche Subventions-Regime ein Niveau erreicht, das bei Weitem die Löhne der Arbeiter übersteigt, und zwar um bis zu 175.000 Euro“. Er fügt hinzu:

Summa summarum hat es die Politik der Regierung nicht vermocht, sich die Marktanreize zunutze zu machen, die nötig sind, eine zuverlässige und kosteneffektive Einführung erneuerbarer Energie in das deutsche Energie-Portfolio sicherzustellen. Im Gegenteil, die deutschen grundsätzlichen Methoden, die erneuerbaren Technologien durch Einspeisetarife zu unterstützen, hat hohe Kosten verursacht, ohne auch nur eine einzige der vermeintlichen positiven Auswirkungen zu zeitigen, wie beispielsweise Reduktion von Emissionen, Beschäftigungsniveau, Energiesicherheit oder technologische Innovation. Die Politiker sollten also die Erfahrungen in Deutschland sehr sorgfältig untersuchen. Das gilt auch für die USA, wo gegenwärtig fast 400 Programme der [US-]Bundesregierung und der US-Staaten in Kraft sind, die finanzielle Anreize für erneuerbare Energie bringen. Obwohl das deutsche Vorantreiben erneuerbarer Energien allgemein in den Medien als „ein leuchtendes Beispiel für die Welt“ gepriesen wird (The Guardian 2007),sollten wir stattdessen die Erfahrungen dort als ein abschreckendes Beispiel einer ungemein teuren Umwelt- und Energiepolitik betrachten, der jedwede ökonomischen und umweltlichen Vorteile fehlen.

Wie in Spanien und Italien wird es auch in Deutschland immer schwieriger die Subventionen für Wind- und Solarenergie auf dem bestehenden Niveau aufrecht zu erhalten. Im Mai hat der Deutsche Bundestag die Subventionen für auf Dächern montierte Solar-Photovoltaik-Systeme um 16 Prozent gekürzt; bei frei stehenden Anlagen um 15 Prozent (15).

Anmerkung des Übersetzers: Hier folgt noch die Beschreibung der Verhältnisse in Dänemark, UK und den Niederlanden. Die Probleme sind jeweils etwas anders gelagert, laufen aber immer auf das Gleiche hinaus: Wind und Solar ist ein Flop.

Aus Zeitgründen wird hier darauf verzichtet, auch diese drei Abschnitte zu übersetzen, denn das Bild ist eigentlich klar. Der Autor fügt noch eine kurze Schlussfolgerung an:

Conclusion

Sowohl die Wirtschaftstheorie als auch die Erfahrungen europäischer Länder, die versucht haben, eine Wirtschaft auf der Grundlage grüner Energie zu etablieren mit dem Ziel, grüne Arbeitsplätze zu schaffen, enthüllen, dass diese Denkreise zutiefst trügerisch ist. Spanien, Italien, Deutschland, Dänemark, UK und die Niederlande haben allesamt versucht, positive Ergebnisse mit erneuerbarer Energie zu erzielen – und sind gescheitert. Einige wollen zeigen, dass die Verhältnisse in den USA anders sind und dass die US-Planer die Weisheit haben, hierzulande die grüne Wirtschaft zum Laufen zu bringen. Aber man kommt nicht um die Tatsache herum, dass man nicht unsere Wirtschaft verbessert oder Arbeitsplätze schafft, indem man Fenster zerschmeißt, und die US-Planer sind nicht allwissender als ihre europäischen Kollegen.

I would like to thank AEI research assistant Hiwa Alaghebandian for her valuable assistance with this Outlook.

Kenneth P. Green (kgreen@aei.org) is a resident scholar at AEI.

View this Outlook as a PDF

Notes

1. White House, "Remarks by the President at DNC Event," news release, September 16, 2010, www.whitehouse.gov/the-press-office/2010/09/16/remarks-president-dnc-event (accessed January 27, 2011).

2. White House, "Statement from Vice President Biden on Launch of $2.3 Billion Recovery Act Green Manufacturer Credit Program," news release, August 13, 2009, www.whitehouse.gov/the-press-office/statement-vice-president-biden-launch-23-billion-recovery-act-green-manufacturer-ta (accessed January 27, 2011).

3. Nancy Pelosi, remarks to the Stanley Elementary School, Waltham, Massachusetts, March 10, 2008.

4. White House, "Remarks by President Obama and President Zapatero of Spain after Meeting," news release, October 13, 2009, www.whitehouse.gov/the_press_office/Remarks-by-President-Obama-and-President-Zapatero-of-Spain-after-meeting (accessed January 27, 2011).

5. Gabriel Calzada Alvarez, Raquel Merino Jara, Juan Ramon Rallo Julian, and Jose Ignacio Garcia Bielsa, "Study of the Effects of Employment of Public Aid to Renewable Energy Sources" (draft, Universidad Rey Juan Carlos, March 2009), www.juandemariana.org/pdf/090327-employment-public-aid-renewable.pdf (accessed January 27, 2011).

6. Ben Sills, "Spain Slashes Prices 45% for New Ground-Based Solar Plants, 5% for Homes," Bloomberg, November 19, 2010.

7. Andrew McKillop, "The Bursting of the Green Energy Bubble?" Energy Tribune, June 4, 2010, www.energytribune.com/articles.cfm/4264/The-Bursting-of-the-Green-Energy-Bubble (accessed February 1, 2011).

8. Todd White, "Spanish Solar-Panel Trade Group Calls for Fraud Investigation," Bloomberg Businessweek, April 12, 2010.

9. Giles Tremlett, "Scandal Sullies Spain’s Clean Energy," Guardian, March 22, 2009.

  1. Luciano Lavecchia and Carlo Stagnaro, Are Green Jobs Real Jobs? The Case of Italy (Milan, Italy: Instituto Bruno Leoni, May 2010), http://brunoleonimedia.servingfreedom.net/WP/WP-Green_Jobs-May2010.pdf (accessed January 27, 2011).

11. Carlo Stagnaro and Luciano Lavecchia, "Clean Jobs, Expensive Jobs: Why Italy Can’t Afford a ‚Green Economy,’" Wall Street Journal, May 11, 2010.

12. Nick Squires and Nick Meo, "Mafia Cash In on Lucrative EU Wind Farm Handouts–Especially in Sicily," Telegraph, September 5, 2010.

13. Konrad Bauer, "German Renewable Energy Policy," German Energy Agency, October 24, 2007, www.gaccsanfrancisco.com/fileadmin/ahk_sanfrancisco/Dokumente/2007-10_Solar_Delegation/_1__California_Solar_Business_Delegation_Vortrag_Konrad_Bauer_241007.pdf (accessed January 27, 2011).

14. Manuel Frondel, Nolan Ritter, Christoph M. Schmidt, and Colin Vance, Economic Impacts from the Promotion of Renewable Energies, the German Experience (Germany: Rheinisch-Westfälisches Institut für Wirtschaftsforschung, 2009).

15. "German Bundestag Approves Solar Incentive Cuts," Reuters, May 6, 2010.

16. Igor Kossov, "Transcript: Obama’s Earth Day Speech," CBS News, April 22, 2009.

17. US Energy Information Administration,"Wind," http://tonto.eia.doe.gov/kids/energy.cfm?page=wind_home-basics-k.cfm (accessed January 28, 2011).

18. Hugh Sharman, Henrik Meyer, and Martin Agerup, Wind Energy: The Case of Denmark (Copenhagen, Denmark: Center for Politiske Studier, September 2009), www.cepos.dk/fileadmin/user_upload/Arkiv/PDF/Wind_energy_the_ case_of_Denmark.pdf

(accessed January 28, 2011).

19. Andrew Gilligan, "An Ill Wind Blows for Denmark’s Green Energy Revolution," Telegraph, September 12, 2010.

20. Paul Eccleston, "Labour Conference: Gordon Brown Says CO2 Targets Must Be Raised to 80% by 2050," Telegraph, September 23, 2008.

21. Hélène Mulholland, "Ed Miliband Announces Boost for Green Jobs," Guardian, September 17, 2009.

22. Catherine Airlie, "UK, India to Create Millions of ‘Green‘ Jobs, Cameron Says," Bloomberg Businessweek, November 15, 2010.

23. Fiona Harvey, "Go-Ahead for Wind to Generate 70,000 Jobs," Financial Times, October 25, 2010.

24. Richard Marsh and Tom Miers, Worth the Candle? The Economic Impact of Renewable Energy Policy in Scotland and the UK (Kirkcaldy, Scotland: Verso Economics, March 2011), www.versoeconomics.com/verso-0311B.pdf (accessed March 17, 2011).

25. Ibid.

26. Richard Littlejohn, "You Don’t Need a Weatherman to Know Which Way the Wind Blows," Daily Mail, December 27, 2010.

27. Greg Weston, "Ice Buildup on Wind Turbines Cuts Reusable Energy," Vancouver Sun, February 16, 2011.

28. Jose Mario, "The Dutch Lose Faith in Windmills," Energy Debate, January 16, 2011.

29. Ibid.

30. Michael Gassmann, "Holland’s Radical U-Turn on Climate and Energy Policy," Global Warming Policy Foundation, February 9, 2011.

31.The Netherlands Board of Tourism and Conventions, "The Land of the Windmills," May 21, 2007, http://us.holland.com/e/7779/The%20land%20of%20the%20windmills.php (accessed March 17, 2011).

 Link: http://www.aei.org/article/energy-and-the-environment/the-myth-of-green-energy-jobs-the-european-experience/

Übersetzt von Chris Frey EIKE




Anti-Fracking-Wissenschaftler hat hinsichtlich seiner Laufbahn gelogen

Bild rechts: hoch gestapelt! Bild: © knipseline  / pixelio.de

Die University of Glasgow, wo Mr. Smythe vor 16 Jahren gearbeitet hatte, hat ihm auch geschrieben und ihn aufgefordert, Behauptungen zu unterlassen, denen zufolge sein Institut seine Ansichten teilt.

Mr. Smythe, der sich mit dem Titel „Emeritus Professor of Geophysics, University of Glasgow” schmückt, war an vorderster Stelle dabei, den Rat des Landkreises West Sussex zu überreden, den Antrag einer Genehmigung für eine Schiefergas-Erkundungsbohrung abzulehnen. Er beschrieb den Antrag von Celtique Energy als „unvollständig, inkompetent und unaufrichtig“. Weiter sagte er, dass die hohe Zahl von Spalten im Schiefergestein unter England zu Verunreinigungen des Grundwassers führen könnte.

Er berät auch Frack Free Fernhurst, eine Gruppe, die gegen Fracking im South Downs National Park opponiert, und er hat sich im Namen von Campaignern gegen ein Kohle-Methan-Projekt in Falkirk ausgesprochen. In einem Statement aufgrund seiner Behauptungen beschreiben ihn Anti-Fracking-Aktivisten als „einen Weltklasse-Star geologischer Forschung“.

Allerdings hat Paul Younger, Professor für Energie-Ingenieurwesen an der University of Glasgow, gesagt, dass Mr. Smythe, der in den siebziger Jahren in der Punk Rock-Band The Rezillos Bassgitarre gespielt hatte, bevor er zum Akademiker wurde, nicht für Experten-Ratschläge hinsichtlich Fracking qualifiziert sei.

Professor Younger sagte: „Er hat nichts zu Schiefergas in irgendeinem seriösen wissenschaftlichen Forum veröffentlicht – zweifellos weil er wusste, dass er niemals mit seiner pseudowissenschaftlichen Panikmache durch den Begutachtungsprozess gekommen wäre.

Er behauptet fälschlich, ein verbriefter Geologe zu sein. Das ist Betrug. Es ist absichtliche Unwahrheit.

Ich mache mir Sorgen hinsichtlich des Schadens für den Ruf jener Universität von jemandem, der niemals müde wird, seinen Anschluss an seine Universität zu betonen“.

Professor David Manning, Präsident der Geological Society, schrieb vorigen Monat an Mr. Smythe und forderte ihn auf, nicht mehr den Titel „verbriefter Geologe“ zu verwenden.

[Interessant, mit welchen Methoden reaktionäre Kräfte versuchen, den Fortschritt aufzuhalten! Anm. d. Übers.]

Full story

Link: http://www.thegwpf.org/anti-fracking-scientist-lied-about-his-credentials/

Übersetzt von Chris Frey EIKE




US Klima-Behörde NOAA kassiert klammheimlich US-Hitzerekord aus dem Juli 2012: Neuer Spitzenreiter ist jetzt das Jahr 1936!

Juli war in den USA der heißeste Monat seit 1895
Die USA haben im Juli den heißesten Monat seit Beginn der Wetteraufzeichnungen im Jahr 1895 erlebt. Wie die US-Wetterbehörde NOAA am Mittwoch mitteilte, lag die Durchschnittstemperatur mit 25,3 Grad Celsius 1,8 Grad über dem Durchschnittswert der Juli-Monate im 20. Jahrhundert. Der bislang heißestes Juli war 1936 mit einer Durchschnittstemperatur von 25,2 Grad gemessen worden.

Abbildung rechts: Entwicklung der Juli-Temperaturen in den USA seit 1895. Temperaturangaben in Fahrenheit. Quelle: NOAA (Daten), WUWT(Graphik).

Nun hat man zwischenzeitlich bei der NOAA noch einmal etwas genauer nachgerechnet. Und, oh Wunder, der Rekord wurde jetzt wieder einkassiert. Eine Pressemitteilung durch die NOAA hierzu unterblieb jedoch. Es musste erst jemand von außerhalb kommen, um die peinliche Degradierung aufzudecken. Es war Anthony Watts von WUWT der kürzlich die aktuellen, offiziellen US-Temperatur-Werte in der NOAA-Datenbank überprüfte und den Vorgang ans Licht brachte: Der Juli 2012 ist jetzt nur noch mit 24,87°C gelistet. Der neue Rekordmonat ist nun plötzlich wieder der Juli 1936 mit 24,89°C . Diesmal berichtete allerdings keine der großen Zeitungen. Der neue Rekordhalter passt einfach nicht ins Konzept und wird daher totgeschwiegen.

Übernommen von "die kalte Sonne" Siehe auch Beitrag in The Daily Caller.




Suche nach der angeblich im Ozean versunkenen Wärme endet mit Fehlschlag: Tiefe Meeresschichten kühlten sich in den letzten 20 Jahren ab

Eine schöne Theorie, aber wieviel Wahrheit steckt dahinter? Gibt es Messdaten, die dieses Modell untermauern? Zuallererst muss man sich die Komplexität der Fragestellung vor Augen führen: Wir möchten herausfinden, ob es in den Weltozeanen Wasserschichten gibt, die sich erwärmt haben. Die Temperatur der Wasseroberfläche lässt sich anhand der modernen Satelliten relativ leicht ermitteln. Bei den bis zu 11 km tiefen Ozeanen wird es allerdings schwieriger. Satelliten helfen hier nicht weiter, denn sie erhalten aus der Tiefe der Ozeane keine Informationen. Die oberen Wasserschichten verdecken die darunterliegenden. Um die Temperaturdaten in allen drei Dimensionen, Fläche und Tiefe sowie die zeitliche Veränderung der Werte zu erfassen, müssen Wiederholungsmessungen in der Wassersäule vor Ort durchgeführt werden, was sich bei 362 Millionen Quadratkilometern Meeresoberfläche als logistisches Problem darstellt.

Aufgrund der enormen Bedeutung solcher Daten hat sich die Wissenschaft in den letzten Jahren jedoch etwas einfallen Lassen. Seit 2007 gibt es zur Bestimmung der Temperatur der Tiefsee das sogenannte Argo-Programm, das aus mehr als 3600 automatischen Tauchbojen besteht, die in den Weltozeanen treiben und regelmäßig die Wassersäule von 2000m Tiefe bis zur Wasseroberfläche durchtauchen und dabei Temperatur und Salzgehalt messen. Wikipedia hat die Einzelheiten:

Diese Messroboter sind relativ klein und wiegen zwischen 20 und 30 kg. Alle profilierenden Treibbojen, die zum Argo-Programm gehören, unterliegen einer gemeinsamen Datenpolitik und die Daten werden in Echtzeit ohne Einschränkung für die Allgemeinheit verfügbar gemacht. In der Mehrzahl der Fälle treiben die Floats in Tiefen von 1000 m (der sogenannten Parktiefe) und tauchen alle zehn Tage dann zunächst auf 2000 m ab, um von dieser Tiefe aus an die Oberfläche aufzusteigen. Während des Aufstiegs zur Meeresoberfläche messen die Floats Temperatur, Leitfähigkeit und Druck in der Wassersäule. Mit der Hilfe der gemessenen Parameter können dann auch noch der Salzgehalt und die Dichte des Meerwassers berechnet werden. Dichte ist eine wichtige Größe in der Ozeanographie, da horizontale Dichteunterschiede die großskaligen Strömungen im Ozean antreiben. Das mittlere Strömungsfeld in der Parktiefe lässt sich aus der zurückgelegten Distanz und der Richtung aufeinanderfolgender Floatpositionen bestimmen. Dabei werden die Positionen aber nicht in der Parktiefe gemessen, sondern erst an der Oberfläche durch die Positionierungssysteme der GPS- oder ARGOS-Satelliten. Die Übertragung der gemessenen Daten erfolgt ebenfalls per Satellit an internationale Datenzentren wo alle Daten gesammelt, in Echtzeit qualitätsgeprüft und dann zur Nutzung bereitgestellt werden.

Abbildung 1: Lagekarte der Argo-Bojen am 2. August 2014. Abbildung: Argo-Webseite.

Der folgende Cartoon von Malou Zuidema & Esmee van Wijk beschreibt den Argo-Messablauf sehr eindrücklich:

Während das Argo-Programm einen Riesenschritt nach vorne bedeutet, fehlen immer noch systematische Messungen aus Wassertiefen unterhalb von 2000 m. Die Datenlücke ist enorm, wenn man bedenkt, dass die durchschnittliche Tiefe der Ozeane bei knapp 3700 m liegt. Auch fehlen natürlich verlässliche, weltumspannende Daten aus der Vor-Argo-Ära, also vor 2007. Der gut abgedeckte Argo-Messzeitraum beträgt lediglich 7 Jahre, was gegenüber dem klimatischen Mindestintervall von 30 Jahren äußerst gering ist.

Bevor wir nun in die vorliegenden Messdaten gehen, müssen wir noch einen Begriff einführen, der bei der Beschreibung und Zusammenfassung der ozeanischen Temperaturverhältnisse und Veränderungen eine wichtige Rolle spielt, der sogenannte „Wärmeinhalt der Ozeane“, auf englisch „Ocean Heat Content“ (OHC). Wikipedia erläutert:

Als Wärmeinhalt der Ozeane […]  wird die im Meer oder auch Teilen desselben (z. B. Ozeanen) gespeicherte thermische Energie (die Wärmemenge) bezeichnet. Wasser hat eine höhere Wärmekapazität als die Luft, daher ist der Wärmeinhalt der Ozeane höher als in der Atmosphäre. Die Atmosphäre enthält nur etwa 2% der gesamten Wärmekapazität der Erde.

Und dies ist einer der Hauptgründe, weshalb wir uns mit allen Wasserschichten der Ozeane beschäftigen sollten und nicht nur mit der Wasseroberfläche: In der Gesamtheit des Ozeanwassers kann tausend Mal mehr Wärme gespeichert werden, als in der Atmosphäre. Selbst kleine Veränderungen in den Ozeanen haben daher eine Bedeutung.

Veränderungen des ozeanischen Wärmeinhalts in den letzten 50 Jahren

Die Entwicklung des ozeanischen Wärmeinhalts (OHC) wird üblicherweise für bestimmte Wassertiefenbereiche dargestellt. Die Nordamerikanische Ozeanographische Behörde NOAA zeigt in der folgenden Abbildung die OHC für die letzten 60 Jahre für das Tiefenintervall 0-700m, also einen zusammenfassenden Wert für den globalen Wasserkörper von der Wasseroberfläche bis in eine Tiefe von 700 m:

Abbildung 2: Entwicklung des ozeanischen Wärmeinhalts für die letzten 60 Jahre (Tiefenintervall 0-700m). Quelle: NOAA.

Der OHC stieg in den letzten Jahrzehnten spürbar an, was wenig verwundert, da die globale Erderwärmung in der gleichen Zeit um ein halbes Grad fortgeschritten ist. Die Datengrundlage in der Vor-Argo-Zeit ist selbstverständlich recht dünn. Nehmen wir trotzdem einmal an, dass der Trend so stimmt. Vielleicht haben Sie schon bemerkt, dass an der Y-Achse keine Temperaturen aufgetragen sind, sondern die Energie in Joules. Diese Energie lässt sich jedoch in Temperaturen zurückübersetzen (mit Dank an Lucia / The Blackboard):

Abbildung 3: OHC-Veränderung der letzten 60 Jahre, ausgedrückt in Grad Celsius. Quelle: Lucia / The Blackboard.

Haben Sie es bemerkt? Die OHC-Veränderung der letzten 60 Jahre umfasst eine Änderung um weniger als 0,1°C. Ein äußerst geringer Betrag, selbst wenn man die enorme Wärmekapazität des Ozeans gegenüber der Atmosphäre berücksichtigt (siehe auch Bob Tisdales Kurven auf WUWT).

Schauen wir jetzt in die tieferen Wasserschichten, 0-2000m:

Abbildung 4: OHC der letzten 60 Jahre, 0-2000m. Quelle: NOAA.

Im Prinzip ähneln sich die Entwicklungen der Wassertiefenintervalle 0-700m und 0-2000m. Die Schichten 0-2000m nehmen einen Tick mehr Wärme auf, vermutlich vor allem weil die Wassersäule viel größer ist als im Fall 0-700m.

Bei den Kurven handelt es sich um globale Mittelwerte. Interessanterweise unterscheiden sich die Entwicklungen der einzelnen Ozeane zum Teil deutlich (siehe Darstellungen von Bob Tisdale auf WUWT). So kühlte sich der nördliche Nordatlantik im Tiefenbereich 0-700m zwischen 1955-1997 stetig ab. Eine Forschergruppe um Sirpa Häkkinen vom NASA Goddard Space Flight Center konnte zudem in einer 2013 im Journal of Geophysical Research publizierten Studie zeigen, dass der Wärmeinhalt des nördlichen Nordatlantiks stark durch Ozeanzyklen geprägt ist. Die OHC-Entwicklung verläuft weitgehend parallel zur Atlantischen Multidekadenoszillation (AMO), die durch einen quasizyklischen 60-Jahresverlauf gekennzeichnet ist.

Die zyklische 60-Jahres-Komponente im globalen OHC-Verlauf wird umso deutlicher, wenn man längere Datenreihen betrachtet. Ein Team um Viktor Gouretski von der Universität Hamburg durchforstete die globalen ozeanographischen Datenbanken und fand darin Temperaturdaten aus Wassertiefen bis in 400m, die bis 1900 zurückreichten. Die Arbeit erschien 2012 in den Geophysical Research Letters. Die OHC-Kurve 0-400m (grüne Kurve in Teilabbildung b unten) verläuft dabei weitgehend parallel mit der bekannten globalen Temperaturentwicklung: Es sind zwei Erwärmungsphasen zwischen 1900-1945 sowie 1970-2003 zu erkennen, unterbrochen von einer Erwärmungspause. Die Daten der Studie stammen laut Autoren aus:

1) bottle casts, 2) Conductivity-Temperature-Depth (CTD) profilers, 3) Mechanical BathyThermographs (MBT), 4) eXpendable BathyThermographs (XBT), 5) Argo profiling floats, and 6) pinniped mounted sensors (sensors attached to marine mammals).

 

Abbildung 5: Entwicklung des globalen ozeanischen Wärmeinhalts für die letzten 110 Jahre nach Gouretski et al. 2012. Grüne Kurve in Teilabbildung b zeigt OHC für das Tiefenintervall 0-400m.

Im Jahr 2012 veröffentlichte ein Team um Dean Roemmich von der Scripps Institution of Oceanography im Fachmagazin Nature Climate Change sogar eine Studie zur Erwärmung der Ozeane während der letzten 135 Jahre, wobei sie unter anderem Daten der bekanntenChallenger-Expedition 1872–1876 nutzten. In einer dazugehörigen Pressemitteilung erläutert Roemmich, dass die Erwärmung der Ozeane ein Prozess ist, der nicht erst im Zeitalter der industriell gesteigerten CO2-Emissionen einsetzte, sondern vor mehr als 100 Jahre einsetzte:

“The significance of the study is not only that we see a temperature difference that indicates warming on a global scale, but that the magnitude of the temperature change since the 1870s is twice that observed over the past 50 years,” said Roemmich, co-chairman of the International Argo Steering Team. “This implies that the time scale for the warming of the ocean is not just the last 50 years but at least the last 100 years.”

Veränderungen des ozeanischen Wärmeinhalts in den letzten 10 Jahren

Wie wir gesehen haben, ist der OHC im Zuge der Wiedererwärmung des 20. Jahrhunderts im Anschluss an die Kleine Eiszeit langfristig angewachsen. 60-Jahres-Ozeanzyklen und andere Prozesse haben den Erwärmungsverlauf moduliert und geformt. Nun haben einige IPCC-nahe Forscher gemutmaßt, dass die fehlende Erwärmung an der Erdoberfläche während der letzten 16 Jahre durch ein Versenken der Wärme in den Weltozeanen verschuldet sei. Wir wollen daher im Folgenden vor allem die letzten ein, zwei Jahrzehnte näher unter die Lupe nehmen. Glücklicherweise können uns hierbei – zumindest für die obere Hälfte der Wassersäule – die neuen Argo-Daten helfen.

Laut Argo-Daten des US-amerikanischen National Oceanographic Data Center (NODC) der NOAA ist der OHC für die beiden Tiefenbereiche 0-700m und 0-2000m in den letzten 10 Jahren angestiegen (Abbildung 6). Eine Beschleunigung der Erwärmung gegenüber dem davorliegenden Jahrzehnt ist jedoch nicht zu erkennen (Abbildungen 2-4).

Abbildung 6: Entwicklung des OHC für die beiden Tiefenbereiche 0-700m und 0-2000m in den letzten 10 Jahren. Daten: NODC, Graphik: Bob Tisdale.

Die an der Meeres- und Landoberfläche beobachtete Erwärmungspause gilt also offenbar nicht für die obersten 2 km der Wassersäule. Hier setzt sich die Erwärmung gemäß NODC-Datensatz fort. Man sieht die IPCC-Anhänger bereits lustig um ein Freudenfeuer tanzend: „Yippie, die Erwärmung geht weiter! Hatten wir Euch doch immer gesagt. Müsst Ihr halt nur an der richtigen Stelle suchen!“. Erwärmung im Ozean ja, aber um wieviel? An dieser Stelle bricht die Party plötzlich ab: Der aktuelle Ewärmungstrend der oberen Ozeanhälfte beträgt nur klägliche 0,03°C pro Jahrzehnt (Abbildung 7). In 30 Jahren kommt hier nur ein Zehntelgrad zusammen, in 300 Jahren ein volles Grad – falls die Erwärmung so weiter ginge wie bisher. Eine Hitzekatastrophe sieht anders aus.

Abbildung 7: Globale Temperaturentwicklung der Meere für die beiden Tiefenbereiche 0-700m und 0-2000m in den letzten 10 Jahren. Daten: NODC, Graphik: Bob Tisdale.

Der IPCC-nahe US-Wissenschaftler Kevin Trenberth – bekannt für seinen “it’s a travesty!”-Email-Schluchzer zur Erwärmungspause – musst in einer im Mai 2014 im Journal of Climate erschienenen Arbeit sogar einräumen, dass sich die Erwärmung der Ozeane zwischen 2001-2010 verlangsamt hat, die Rate der OHC-Zunahme also abgenommen hat (Abbildung 8).

Abbildung 8: Entwicklung der Rate der OHC-Änderung 1980-2010. Aus Trenberth et al. 2014.

Offenbar gibt es jedoch unter den Wissenschaftlern Meinungsunterschiede, wie die heterogenen Messdaten aufzubereiten sind. Forscher desPacific Marine Environment Laboratory (PMEL) der NOAA vermuten, dass Daten aus den XBT-Messungen (expendable bathythermograph)nicht korrekt verarbeitet worden sind. In einer verbesserten Analyse kommen die PMEL-Wissenschaftler auf eine OHC-Entwicklung für das Tiefenstockwerk 0-700m, die seit 2003 kaum noch einen Anstieg der Kurve enthält (Abbildung 9). Somit wäre die Erwärmung der Ozeane bis in eine Tiefe von 700 also doch quasi zum Stillstand gekommen.

Abbildung 9: Entwicklung der OHC für das Tiefenintervall 0-700m während der letzten 20 Jahre. Daten und Graphik: NOAA Pacific Marine Environment Laboratory (PMEL)

Im März 2014 erschien im Journal of Climate ein Paper der beiden PMEL-Forscher John Lyman und Gregory Johnson, in dem sie zudem auf Probleme mit dem gewählten klimatologischen Referenzzeitraum hinwiesen. Wählt man den Zeitraum, auf den sich die Anomalien beziehen zu früh, gehen viele interpolierte Werte mit ein und verändern die Trends. Die räumliche Abdeckung und die Unsicherheiten durch “Infill” wachsen mit zunehmendem Zeitabstand zur Gegenwart. In der Arbeit werden die OHC- Anomalien 1950-2011 neu bestimmt, indem ein Referenzzeitraum 2005-2010 gewählt wird, mit den genauesten monatlichen Daten die verfügbar sind: Argo. Das Ergebnis lässt aufhorchen (Abbildung 10): Der OHC hatte ca. 2003 einen Peak und stagniert seitdem. Kein Nachweis von “missing heat” in Tiefen bis 1800m.

Abbildung 10: OHC-Entwicklung für (a) 0-100m, (b) 0-300m, (c) 0-700m, (d) 0-1800m. Aus Lyman & Johnson 2014.

Auch das UK Met Office hat einen OHC-Datensatz (UKMO EN3) entwickelt, der seit 2003 nahezu keine Erwärmung mehr in den 0-700m und 0-2000m Kurven zeigt (siehe Abbildungen 4 und 5 in Bob Tisdales Beitrag auf WUWT).

Wiederum unterscheiden sich die Entwicklungen der einzelnen Ozeane sehr voneinander. Während sich der Indische Ozean und Südatlantik überdurchschnittlich stark erwärmen, hat sich der Wärmeinhalt im Nordatlantik und Pazifik in den letzten 10 Jahren kaum geändert (Tiefenintervall 0-2000m) (Abbildung 11). Auch der Südliche Ozean um die Antarktis scheint derzeit eher Wärme zu verlieren als anzuhäufen, wie Schulz et al. 2012 dokumentierten.

Erneut sei der Warnhinweis genannt, dass hier auf jeden Fall Ozeanzyklen zu berücksichtigen sind, die über Zeiträume wirken, die die Argo-Messära um ein Vielfaches übersteigen. Eine simplistische Fortschreibung der festgestellten Argo-Trends in die kommenden 20-30 Jahre macht daher wenig Sinn.

Abbildung 11: OHC-Trends aus der Argo-Ära, aufgeschlüsselt auf die wichtigsten Ozeane. Daten: NODC, Graphik: Bob Tisdale

Am Rande kurz erwähnt sei, dass die OHC-Werte von Jahr zu Jahr größere Schwankungen zeigen. Daher werden in der Praxis oft laufende Mittelwerte über mehrere Jahre dargestellt, um dieses „Rauschen“ zu unterdrücken. Die jährlichen Schwankungen rühren von Änderungen im Pazifik her, wo sich El Nino- und La Nina-Phasen bemerkbar machen und den globalen OHC-Haushalt beeinflussen. Wikipedia weiß hierzu:

Modell-Studien ergaben, dass während La-Niña-Jahren durch wechselnde Winde vermehrt wärmere Wassermassen über Meeresströmungen in tiefere Meeresschichten transportiert werden. Dies führt zu mehr Wärmeaufnahme der Tiefsee und weniger Wärmeaufnahme der Atmosphäre und der Oberflächen Temperatur des Meeres. Jahre mit Zunahme der Temperatur in tieferen Gewässern werden mit einer negativen Phase der interdekadischen Pazifischen-Oszillation (IPO) in Verbindung gebracht. Während den El-Niño-Jahren der ENSO-Zirkulation befördern Meeresströmungen wesentlich weniger Wassermassen in die Tiefsee, dadurch steigen die Temperaturen des Wassers an der Meeresoberfläche und der atmosphärischen Grundschicht über der Meeresoberfläche stärker an.

Die unbekannte Tiefe: Verbirgt sich hier vielleicht die vermisste Erwärmung?

Es wird immer klarer, dass die an der Erdoberfläche ausgebliebene Erwärmung nicht in die obere Hälfte des Ozeans umgeleitet wurde. Die mittlerweile bis 2000 m Tiefe zur Verfügung stehenden Messdaten deuten vielmehr darauf hin, dass sich auch hier die Erwärmung abgeschwächt hat, möglicherweise sogar seit neun Jahren zum Stillstand gekommen ist. Bleibt also der Tiefseebereich darunter. Verbirgt sich hier vielleicht die vermisste Erwärmung? Die Datenlage ist dürftig, da die Argo-Bojen in diesen Bereich nicht vordringen. Trotzdem gibt es auch hierzu Untersuchungen und Indizien zur OHC-Entwicklung. So veröffentlichte Carl Wunsch von der Harvard University zusammen mit Patrick Heimbach vom Massachusetts Institute of Technology (MIT) dieses Jahr (2014) im Journal of Physical Oceanography ein Paper, das sich mit dem Abyssal, also den untersten Stockwerken der Ozeane beschäftigt. Das Fazit fällt deutlich aus: Die Wassermassen unterhalb von 2000m haben sich in den letzten 20 Jahren abgekühlt (Abbildung 12). Keine Spur von der ominösen Wärme, die einige IPCC-nahe Forscher hier vermutet hatten. In der Zusammenfassung schreiben die Autoren:

A dynamically consistent state estimate is used for the period 1992-2011 to describe the changes in oceanic temperatures and heat content, with an emphasis on determining the noise background in the abyssal (below 2000 m) depths. Interpretation requires close attention to the long memory of the deep ocean, and implying that meteorological forcing of decades to thousands of years ago should still be producing trend-like changes in abyssal heat content. Much of the deep ocean volume remained unobserved. At the present time, warming is seen in the deep western Atlantic and Southern Ocean, roughly consistent with those regions of the ocean expected to display the earliest responses to surface disturbances. Parts of the deeper ocean, below 3600 m, show cooling. Most of the variation in the abyssal Pacific Ocean is comparativelyfeatureless, consistent with the slow, diffusive, approach to a steady state expected there.

 

Abbildung 12: OHC-Entwicklung der letzten 20 Jahre. Das Tiefenwasser unterhalb 2000m hat sich in diesem Zeitraum offenbar stetig abgekühlt. Abbildung aus Wunsch & Heimbach 2014.

 

Abbildung 13: OHC-Änderung 1993-2011 für Wasserschichten unterhalb 2000m. Mit Ausnahme des westlichen Atlantiks und des Südlichen (zirkumantarktischen) Ozeans ist nur Abkühlung zu verzeichnen. Abbildung aus Wunsch & Heimbach 2014.

Wunsch und Heimbach deuten im Diskussionsteil des Papers an, dass die Datenlage wohl eher gegen das Modell von in der Tiefsee zwischengelagerter Wärme spricht:

…the uncertainties remain too large to rationalize e.g., the apparent “pause” in warming

Ähnlich sieht es Judith Curry, die im Januar 2014 in ihrem Blog schrieb:

All in all, I don’t see a very convincing case for deep ocean sequestration of heat.

Bereits 2012 hatten Mauritzen et al. in einer in Nature Geoscience veröffentlichten Studie von einer Abkühlung des Tiefenwassers im nördlichen Nordatlantik für den Zeitraum 1953-2007 berichtet. Auch Roemmich et al. 2012 scheinen auf globalem Maßstab Hinweise hierauf gefunden haben. Der Vergleich mit den Challenger-Daten von vor 135 Jahren deutet auf eine Abkühlung unterhalb von 1500m hin (Fig. 3hier).

Veränderungen des ozeanischen Wärmeinhalts im Kontext der letzten 10.000 Jahre

Abschließend lohnt noch ein Blick auf den langfristigen Kontext der Entwicklung der Ozeantemperaturen. Im November 2013 veröffentlichte ein Team um Yair Rosenthal von der Rutgers University im Fachjournal Science eine Rekonstruktion der OHC-Entwicklung im Pazifik während der vergangenen 10.000 Jahre. Anhand von temperatursensitiven Foraminiferen aus Bohrkernen rekonstruierten sie die Temperaturgeschichte einer Wasserschicht aus „mittlerer Tiefe“ bei ca. 500-1000m, des sogenannten ‚North Pacific Intermediate Water‘. Das Ergebnis ist spektakulär: Interessanterweise waren die untersuchten Wassermassen während eines Großteils der letzten zehn Jahrtausende deutlich wärmer als heute (Abbildung 14). So lagen die Temperaturen im Nordpazifik 9000-6000 Jahre vor heute zur Zeit des mittelholozänen Optimums ganze 2°C über dem heutigen Wert. Und während der Mittelalterlichen Wärmeperiode vor 1000 Jahren war es noch immer knapp ein Grad wärmer als heute, wie die Autoren in der Kurzfassung zu ihrem Paper schreiben:

Observed increases in ocean heat content (OHC) and temperature are robust indicators of global warming during the past several decades. We used high-resolution proxy records from sediment cores to extend these observations in the Pacific 10,000 years beyond the instrumental record. We show that water masses linked to North Pacific and Antarctic intermediate waters were warmer by 2.1 ± 0.4°C and 1.5 ± 0.4°C, respectively, during the middle Holocene Thermal Maximum than over the past century. Both water masses were ~0.9°C warmer during the Medieval Warm period than during the Little Ice Age and ~0.65° warmer than in recent decades.

 

Abbildung 14: Temperaturentwicklung des nordpazifischen Intermediate Water (IWT) für die Wassertiefen 500m (links) und 600-900m (rechts). Die Nulllinie entspricht dabei dem Durchschnitt der ausgehenden Kleinen Eiszeit 1850-1880. Quelle: Rosenthal et al. 2013.

Ein herber Dämpfer für die Theorie der drohenden Hitzekatastrophe: Selten zuvor war es in den vergangenen 10.000 Jahren kühler als heute! Die Autoren bekamen es offenbar mit der Angst zu tun und erstellten zusammen mit der Pressestelle des Lamont-Doherty Earth Observatory schleunigst eine Pressemitteilung, die kaum noch etwas mit dem Paper zu tun hatte. Als Schwerpunkt des Pressetextes wurde kurioserweise die drohende Klimakatastrophe gewählt. Man wollte es sich offenbar mit der IPCC-Clique und den damit verbundenen üppigen Forschungsgeldquellen nicht verscherzen. Während das Hauptresultat der Studie – also die langfristige Abkühlung des Pazifiks – in der Mitte des Textes gut versteckt wurde, hebt die Meldung vor allem auf etwas ganz Anderes ab: Angeblich würde die Studie zeigen, dass sich Teile des Pazifiks in den letzten Jahrzehnten 15 mal schneller erwärmt hätten als jemals zuvor in den letzten 10.000 Jahren. Auszug aus derPressemitteilung vom 28. Oktober 2013:

Parts of Pacific Warming 15 Times Faster Than in Past 10,000 Years
[…] over the last 60 years, water column temperatures, averaged from the surface to 2,200 feet, increased 0.18 degrees C […]. That might seem small in the scheme of things, but it’s a rate of warming 15 times faster than at any period in the last 10,000 years, said [co-author Braddock Linsley, a climate scientist at Columbia University’s Lamont-Doherty Earth Observatory]. […] The study’s long-term perspective suggests that the recent pause in global warming may just reflect random variations in heat going between atmosphere and ocean, with little long-term importance, says Drew Shindell, a climate scientist with joint appointments at Columbia’s Earth Institute and the NASA Goddard Institute for Space Studies, and a lead author on the latest IPCC report. 

Herrlich zu sehen, wie die Studie in der Pressemitteilung in ihr komplettes Gegenteil verkehrt wird. Die klimaalarmistische Presse fing den ihr zugespielten Ball nur zu gerne auf. Bei Spiegel Online war der gemäßigte Axel Bojanowski wohl gerade im Urlaub, so dass der IPCC-Freund Markus Becker freie Bahn hatte. In einer von ihm verfassten Meldung vom 1. November 2013 schaffte er es doch tatsächlich, die langfristige Abkühlung des Pazifiks bis zur Heutezeit mit keiner Silbe zu erwähnen (Auszug):

Klimawandel: Ozeane haben Wärmespeicherung stark beschleunigt
[…] Ein Team um Yair Rosenthal von der Rutgers University im US-Bundesstaat New Jersey hat die Temperaturen der Meere nun für die vergangenen 10.000 Jahre rekonstruiert. Das Ergebnis: Die Wärmeaufnahme ist zuletzt dramatisch gestiegen. Wie die Forscher im Fachblatt “Science” schreiben, haben sich die mittleren Tiefenschichten der Meere in den vergangenen 60 Jahren 15-mal schneller erwärmt als bei jeder natürlichen Schwankung der vergangenen 10.000 Jahre. […] Die Ergebnisse halten die Forscher für durchaus besorgniserregend, denn sie deuten darauf hin, dass die Ozeane die Wirkung der menschlichen Treibhausgas-Emissionen noch stärker gedämpft haben könnten als bisher angenommen. “Möglicherweise haben wir die Effizienz der Meere als Lagerstätte für Wärme und Energie unterschätzt”, sagt Rosenthal. “Das könnte uns mehr Zeit verschaffen. Aber wie viel, weiß ich nicht.”

Ähnliche Berichte erschienen in US-amerikanischen Zeitungen, zum Beispiel der New York Times. Die renommierte Klimaforscherin Judith Curry erkannte sofort, dass da etwas nicht stimmen konnte. In einem Beitrag am 1. November 2013 erläuterte sie, dass die Erwärmungsrate der letzten Jahrzehnte überhaupt nicht mit den historischen Daten der Studie vergleichbar ist. Offensichtlich werden hier Äpfel mit Birnen verglichen, denn die Auflösung der Temperaturkurve in der Rosenthal-Arbeit reicht bei weitem nicht an jene der modernen Messungen heran. Schnelle Erwärmungs- oder Abkühlereignisse würden in der historischen Kurve überhaupt nicht sichtbar sein. Judith Curry schreibt:

…we have the very high rate of increase at the end of the time series, but it seems that the temporal resolution is pretty low, century resolution at best.  So if the signal from AGW is say since 1970, this seems well below the resolution of the analysis, so I am not sure how significant this rapid rate of increase in context of AGW attribution. […] The key issue for AGW detection is to get paleo proxy resolution at decadal time scales.  If the temporal resolution of the paleo time series is a century or lower, but sees an ‘uptick’ at the end of the time series, to me this doesn’t say anything about AGW detection, which at best is detectable since about 1975.

Aber es kommt noch besser. Steve McIntyre hat sich auf Climate Audit die Mühe gemacht und die von Rosenthal und Kollegen in der Arbeit abgebildeten Temperaturkurven auf Erwärmungsraten hin zu untersuchen. Es stellte sich dabei heraus, dass es in den letzten 10.000 Jahren offenbar eine Vielzahl von Phasen gegeben hat, in der Erwärmungsraten erreicht wurden, die jener der letzten Jahrzehnte ähnelten bzw. sogar übertrafen (Abbildung 15). Die Behauptung „die mittleren Tiefenschichten der Meere [haben sich] in den vergangenen 60 Jahren 15-mal schneller erwärmt als bei jeder natürlichen Schwankung der vergangenen 10.000 Jahre“ ist schlichtweg falsch. Eigentlich müsste Spiegel Online schnellstmöglch eine Korrekturmeldung nachschieben. Man hat den Lesern einen Bären aufgebunden, vermutlich um die klimaalarmistische Bewegung zu befördern.

 

Abbildung 15: Temperaturentwicklung des North Pacific Intermediate Water (grüne Kurve, Fig. 2c aus Rosenthal et al. 2013). Steve McIntyre hat die Entwicklung der letzten 2000 Jahre (hellblau, Fig. 3b aus Rosenthal et al. 2013) sowie moderne OHC-Messungen (rot) ergänzt. Quelle:Climate Audit.

Damit schließen wir diese kleine Einführung in die phantastische Welt des ozeanischen Wärmeinhalts. Vielleicht ermöglicht die Zusammenschau es dem ein oder anderen, nun effektiver in die öffentliche Diskussion einzusteigen und Fiktion von Wahrheit besser zu unterscheiden. Für den Fall, dass Sie einmal selber mit den OHC-Daten des National Oceanographic Data Center (NODC) der NOAA experimentieren wollen, finden Sie sie gut aufbereitet online auf der Opens window for sending emailKNMI-Webseite (Rubrik „Heat Content“).

Der Beitrag erschien zuerst bei "die kalte Sonne" hier




Einführung der CO2-Themenseite bei WUWT

Die NASA hat uns erzählt, dass „Kohlendioxid selbst ein wirksames Treibhausgas (GHG) ist“, und bei NOAA’s UCAR heißt es, dass „die gegenwärtige Spitze des Kohlendioxids sicher zu einer rapiden Zunahme der globalen Temperatur“ führt. Die anthropogenen CO2-Emissionen haben seit 1990 um über 60% zugenommen:

Globales Kohlenstoff-Projekt, Le Quere et al. 2013, Carbon Dioxide Information Analysis Center.

…und „die Welt hat der Atmosphäre von 2000 bis 2010 etwa 100 Milliarden Tonnen Kohlenstoff zugefügt“.

Carbon Dioxide Information Analysis Center

„Das ist etwa ein Viertel des gesamten CO2-Eintrags durch die Menschheit seit 1750. Und doch stellt James Hansen, Leiter des Goddard Institute for Space Studies GISS der NASA fest, dass die fünfjährig gemittelte globale Temperatur seit einer Dekade flach verläuft“. (Economist)

National Aeronautics and Space Administration (NASA) Goddard Institute for Space Studies (GISS) – Bezugsperiode 1951-1980.

National Oceanic and Atmospheric Administration (NOAA) – Earth System Research Laboratory (ESRL).

Um es einfacher zu machen zu beobachten, wie der atmosphärische CO2-Gehalt steigt (siehe 4. Abbildung), während die Temperatur der Erde dies nicht tut, freuen wir uns, die neueste WUWT-Errungenschaft vorstellen zu können, nämlich die WUWT CO2 Reference Page. Die WUWT CO2 Page zeigt eine Reihe von Graphiken zum atmosphärischen CO2-Gehalt, den anthropogenen CO2-Emissionen und den CO2-Schätzungen auf der Grundlage von Landverbrauch. Wir empfehlen sehr, auch bei unseren anderen Reference Pages vorbeizuschauen:

Man beachte, dass WUWT keine Garantie für die Genauigkeit der Daten innerhalb der Reference Pages übernehmen kann, da WUWT einfach nur ein Dienstleister ist. Alle Daten sind verlinkt aus Quellen Dritter. Zweifel an den Inhalten der Reference Pages werden gerne in Kommentaren entgegengenommen.

[Bei Bedarf kann ich daraus gerne auch übersetzen. Anm. d.Übers.]

Link: http://wattsupwiththat.com/2014/08/02/introducing-the-wuwt-co2-reference-page/

Übersetzt von Chris Frey EIKE




Lasst uns es Kalifornien nachmachen! Weniger Arbeitsplätze, weniger Geld, weniger Energie! Fühlen Sie die grüne Großartigkeit!

Wenn es um saubere Energie geht, können wir die australische Antwort auf Kalifornien sein“ – Rob StokesNSW-Umweltminister.*

Maurice Newman gab ihm im The Australian die passende Antwort:

Kurz gesagt: Unternehmen flüchten aus einem grünen Kalifornien nach Texas, wo der Strom nur halb so viel kostet. Aus irgendwelchen Gründen folgen Arbeitsplätze, Profite, Produkte und Gelegenheiten der Energie. Die Arbeitslosenquote liegt in Kalifornien bei 7,4%, in Texas bei 5,1%.

Der kalifornische Traum von NSW ist verrückt

,,Die Regierung von NSW ist sich des stetigen Exodus‘ von kalifornischen Unternehmen und Arbeitsplätzen nicht bewusst. Unternehmen wie Toyota, dessen Hauptquartier nach 60 Jahren nach Texas oder Occidental Petroleum, das nach 50 Jahren nach Houston umgezogen ist. Chevron ist der nächste. Andere Unternehmen wie ARCO, Getty Oil, Union Oil, Fluor, Calpine und Intel sind alle gegangen auf der Suche nach einem unternehmensfreundlicheren Standort mit niedrigeren Energiekosten. Texas hat am meisten davon profitiert. Dort wurden im Energiesektor im vorigen Jahrzehnt 200.000 neue Arbeitsplätze geschaffen, während es in Kalifornien gerade mal 20.000 waren. Texas liegt bei Hi-Tech-Exporten weit vor Kalifornien.

Inzwischen liegt die Arbeitslosenquote in der realen Welt in Kalifornien bei 7,4% (vierthöchste der Nation). Im Vergleich: Texas 5,1% und im Durchschnitt der Nation 6,1%. Die relative Arbeitslosigkeit in Kalifornien verleiht der Versa-Economics-Studie aus UK Gewicht, die zu dem Ergebnis gekommen war, dass für jeden in der Windindustrie geschaffenen Arbeitsplatz anderswo 3,7 Arbeitsplätze verloren gehen.

Obwohl die Strompreise bereits um 40% über dem nationalen Mittel liegen und doppelt so hoch sind wie in Texas, ist es die Absicht der aggressiven Politik, die Preise während der nächsten 16 Jahre um weitere 47% steigen zu lassen. Ist das wirklich das, was die Baird-Regierung anstrebt?”

The Australian.

Die gesamte Regierung von NSW muss dringend mal etwas anderes lesen als den Sydney Morning Herald und anstelle von the ABC das Internet konsultieren.

*Willkommen in der australischen Politik – die Baird-Regierung von NSW ist nach australischem Standard konservativ. Es ist kaum zu glauben, wie effektiv unser Medienfilter ist.

Link: http://joannenova.com.au/2014/07/lets-copy-california-and-have-less-jobs-less-money-less-energy-feel-that-green-glory/

Übersetzt von Chris Frey EIKE




Neue Studie von Nic Lewis zur Klimasensitivität korrigiert ,frühere‘ Fehler in einer Arbeit, die der IPCC-Bericht AR 4 zitiert

Abbildung 1: Verteilungen der Klimasensitivität wurden vom IPCC bei ihrer Durchsicht der Literatur beibehalten (und in einigen Fällen umgestaltet). Quelle: IPCC AR 4.

Er hat nachgewiesen, dass diese fehlerhaft bis hin zu einem Punkt war, der im Normalfall Grund für ein Zurückziehen des Beitrags gewesen wäre. Aber das hier ist Klimawissenschaft, bei der Falsches einfach eine weitere Grauschattierung ist, weder schwarz noch weiß.

Er schreibt:

Die Originalgraphik von Frame und Allen (Abbildung 1) zeigte, dass der Gebrauch einer einheitlichen Wahrscheinlichkeit [uniform prior – weil ich nicht weiß, ob das eine passende Übersetzung ist, behalte ich diesen Terminus im Folgenden bei. Anm. d. Übers.] eine sehr hohe Obergrenze für die Klimasensitivität ergibt, während eine uniform Prior bei der Stärke von Rückkopplungen (das Reziprok von ECS) – die bei Quadrierung der ECS abnimmt – eine Untergrenze von 95% ergibt. Eine uniform Prior in beobachtbaren Variablen (AW und EHC) ergibt ebenfalls eine 95%-Grenze unter einer halb so großen Grundlage einer uniform Prior in ECS; der Gebrauch eines Prior, der bei vorübergehenden Klimareaktionen eher einheitlich ist (TCR) als in AW und auch in EHC einheitlich ist, gibt eine fast identische PDF.

[Aus zeitlichen Gründen kann ich der Bedeutung der vielen Abkürzungen hier nicht nachgehen. Ich gehe davon aus, dass die Fachleute wissen, was gemeint ist. Anm. d. Übers.]

Abbildung 2: Reproduktion der Abbildung (c) von Frame und Allen aus , Observational Constraints and Prior Assumptions on Climate Sensitivity‘ [etwa: beobachtbare Hindernisse und frühere Hypothesen zur Klimasensitivität], Workshop zur Klimasensitivität, IPCC 2004. Vertikale Balken zeigen die 95%-Grenzen.

Allerdings ist die Behauptung von Frame et al. 2005, dass hohe Sensitivität oder Fälle mit hoher Wärmeaufnahme nicht ausgeschlossen werden können, nicht korrekt: in solchen Fällen hätte sich der Ozean exzessiv erwärmt relativ zur beobachtbaren Unsicherheits-Bandbreite. Es folgt, dass Frame und Allen mit ihrem Vorschlag, eine uniforme Prior in ECS zu verwenden, wenn es ECS ist, die abgeschätzt werden soll, in Wirklichkeit nicht die von ihnen gestellte Frage beantwortet, nämlich was die Studie aussagt über ECS ohne vorheriges Wissen darüber. Natürlich bin ich nicht der Erste, der darauf hinweist, dass Frame und Allens Verfahren, eine uniforme Prior bei der ECS zu verwenden, um die ECS abzuschätzen, sinnlos ist. James Annan und Julia Hargraves haben das schon vor Jahren getan.

Die in Verfahren 2 nicht informative Prior zeigt Abbildung 3. Der Prior zeigt einen sehr hohen Spitzenwert bei niedriger ECS, eine niedrige Kv-Ecke und liegt bei einer ECS von 5°C bei mittleren Kv-Werten unter einem Hundertstel seines Spitzenwertes. Was Klimawissenschaftler auswählen würden, die ein subjektives baynesianisches Verfahren verwenden, wäre ein gemeinsames Prior für ECS und Kv, das genauso aussieht. Würden sie überhaupt irgendein Prior dieser Art hinzuziehen, falls sie die Sensitivität bei der Wahl der Priors erkunden? Die meisten Klimawissenschaftler würden behaupten, dass ich ein lächerliches Prior gewählt habe, dass a priori die Möglichkeit ausschließt, dass die ECS hoch ist. Und doch, wie ich in meiner Studie zeige, erzeugt die Verwendung dieses Priors identische Ergebnisse wie jene, die die Transformation von Variablen in den Formeln für PDFs für AW und EHC ergeben, die von Frame et al. 2005 abgeleitet worden waren. Auch sind es fast die gleichen Ergebnisse, wie wenn man das nicht-bayesianische Profil verwendet.

Abbildung 3: Das nicht informative Prior von Jeffrey, das ECS und Kv aus der (AW, EHC) Wahrscheinlichkeit ableitet. (Die angepasste EHC-Verteilung ist hier anderes parametrisiert als in meiner Studie, aber die Form des Prior ist fast identisch).

Während meine Studie den Begutachtungsprozess durchlief, erstellten die Autoren von Frame et al. 2005 ein Korrigendum zu Frame et al. 2005 in den GRL in Beziehung zum Wahrscheinlichkeits-Funktionsfehler und der Falschberechnung der Änderung des ozeanischen Wärmegehaltes. Sie haben nicht die Gelegenheit ergriffen zurückzuziehen, was sie ursprünglich geschrieben hatten über die Auswahl der Priors oder ihre Behauptung, dass man hohe ECS-Werte nicht ausschließen könne, die auf Beobachtungen im 20. Jahrhundert basieren. Meine Studie [v] ist jetzt verfügbar bei Early Online Release hier.

Link: http://wattsupwiththat.com/2014/07/30/new-paper-from-nic-lewis-on-climate-sensitivity-corrects-prior-errors-in-a-ipcc-ar4-reference/

Übersetzt von Chris Frey EIKE, der aber inhaltlich wieder einmal nicht viel verstanden hat.




Putin wird sich die Hände reiben: EU-Kommission geht gegen die Schiefer-Entwicklung in Polen vor

Falls Warschau die Eingaben der Kommission bis Ende August nicht zu dessen Zufriedenheit beantwortet, wird der Prozess eine viele Monate dauernde Reise durch die Instanzen antreten, die vor dem Europäischen Gerichtshof [European Court of Justice (ECJ)] landen könnte.

Polen sagt, dass eine Überarbeitung seines EIA-Gesetzes im Juni 2013 Schieferbohrungen in ,sensitiven‘ Gebieten wie Natura 2000 enge Grenzen setzt.

Aber ,,da Schiefergas-Reserven in Polen zumeist in Tiefen zwischen 1000 und 4500 m zu finden sind und die ,sensitiven‘ Gebiete nur 23% der Landfläche Polens ausmachen, fallen die meisten Schiefergas-Erkundungsprojekte nicht unter die EIA-Direktive”. Das sagte Joe Hennon, ein Sprecher des Umweltministers Janez Potočnik gegenüber EurActiv.

Dieses Gesetz verpflichtet Schiefergas-Erzeuger, alle Faktoren einschließlich der verbrauchten Wassermenge, die Anzahl der Bohrstellen und die umweltlichen Auswirkungen von Schwerlastverkehr zu den Bohrstellen zu analysieren und darüber zu berichten.

Die genaue Örtlichkeit der Projekte sowie das Risiko von Unfällen muss ebenfalls betrachtet werden, besonders in Wäldern und dicht besiedelten städtischen Gebieten.

[Komisch! Für Windräder gilt das alles nicht! Anm. d. Übers.]

Full story

Link: http://www.thegwpf.org/putin-will-be-smiling-eu-commission-begins-legal-proceedings-against-polish-shale-development/

Übersetzt von Chris Frey EIKE




Wie eine Weltmeisterschaft vor leeren Zuschauerrängen: Antarktisches Meereis eilt von Rekord zu Rekord – und die deutsche Presse schweigt

Ein erstaunlicher All-Time-Rekord im Zeitalter der Klimaüberhitzungsangst. Die deutsche Presse verschlief den Rekord.

 

Abbildung 1: Ausdehnung des antarktischen Meereises seit Beginn der Satellitenmessungen 1979.

Interessant ist zudem die Arktis-Meereisprognose für September 2014 des Sea Ice Prediction Networks vom 19. Juni 2014. Der September ist wegen des Ende des Nordsommers traditionell der Monat mit dem geringsten arktischen Meereis:

The median Outlook value for September 2014 sea ice extent is 4.7 million square kilometers with quartiles of 4.2 and 5.1 million square kilometers.

Dies ist deutlich mehr als in den Minusrekordjahren 2007 (blau) und 2012 (dunkelgrün gestrichelt) (Abbildung 2).

 

Abbildung 2: Ausdehnung des arktischen Meereises (Quelle: NSIDC)

————————-

Anmerkung der Redaktion:

Trotz dieser klaren Befunde, die auch jederzeit von den Klima- und Umwelt-"Experten" des ZDF ermittelt hätten werden können, konnte es sich nicht verkneifen in einer Ankündigung ihrer Doku über Grönland zu berichten, dass sich dort "der Klimawandel so deutlich aus(wirkt), wie sonst nirgends auf der Erde. Das Eis der Arktis schmilzt, der Meeresspiegel wird steigen. Reporterin Oster am Eisfjord von Ilulissat."

Vermutlich wären ohne diesen grottenfalschen Hinweis die Produktionskosten dieser Dokusoap der ZDF Reporterin Annegret Oster nicht zu rechtfertigen gewesen. Dass diese sich von den "Wissenschaftlern" des Geomar, insbesondere des Oberpanikers Mojib Latif mangels eigener Sachkenntnis ohne Probleme und gern ein X für ein U vormachen lässt, kann man aus ihrer Vita ableiten. Dort finden wir über

Annegret Oster – Studio Kiel

Annegret Oster, geboren 1968 in Karlsruhe, studierte Literaturwissenschaft, Germanistik und Ethnologie in Mainz, Abschluss als Magister Artium. Schon während ihres Studiums arbeitete sie für das ZDF, war außerdem mehrere Jahre als Hörfunkredakteurin und -moderatorin tätig. Zudem war sie Dozentin für Fernsehen und Sprechtechnik am Studienzentrum für Journalismus der Uni Karlsruhe. 

Die gesamte Information finden Sie hier

Der Beitrag erschien zuerst auf "Die kalte Sonne" 




Atom Havarie Fukushima: Ein Industrieunfall ohne Personenschaden

UNSCEAR 2013 Report, Volume I,

REPORT TO THE GENERAL ASSEMBLY SCIENTIFIC ANNEX A

Levels and effects of radiation exposure due to the nuclear accident after the 2011 great east-Japan earthquake and tsunami

UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) wurde 1955 gegründet, um Regierungen objektiv und unabhängig zu beraten.

Nun, unsere Regierung und auch die Landesregierungen sind da beratungsresistent. Sie bleiben bei Ansichten, wie sie z.B. der Niedersächsische Umweltminister Stefan Wenzel vertritt: „Die Ereignisse in Japan übersteigen die schlimmsten Befürchtungen von Atomkraftgegnern…….In Japan zeigt sich das ganze Grauen der Unbeherrschbarkeit der Risikotechnologie Atomkraft.“ (Stefan Wenzel >Home Juli 2011).

Politiker stehen nun einmal mit der Wirklichkeit auf Kriegsfuß und richten damit Schaden an; im letzten Jahrhundert hatten wir schlimmere.

Dass wir trotzdem ganz gut leben, verdanken wir anderen Berufsgruppen, z.B. den Medizinern. Leider gibt es aber auch unter denen manche, die Tatsachen nicht anerkennen und nicht logisch denken können. Durch eine solche Ärztin wäre ich fast Witwer geworden.

Insofern sind die bei IPPNW (International Physicians for the Prevention of Nuclear War) organisierten Ärzte (in Deutschland 6.500) gefährlich. Wer wäre nicht gegen Atomkriege, aber leider haben sie ihr Tätigkeitsfeld erweitert.

Der Verein schreibt (IPPNW-Seite April 2014):

UNSCEAR-Bericht zu Fukushima vertuscht gesundheitliche Folgen der Atomkatastrophe

Behauptet wird:

  1. Es sind mehrere 10.000 zusätzliche Krebserkrankungen zu erwarten.
  2. Die Mitarbeiter von UNSCEAR haben kritiklos die Angaben der Betreiber und atomfreundlicher Organisationen übernommen.
  3. Bei Kindern wurden extrem hohe Zahlen von Schilddrüsenveränderungen und von Schilddrüsenkrebs gefunden.
  4. Die betroffenen Menschen wurden nicht offen über die Risiken aufgeklärt.

Zum Schluss der Glaubenssatz aller Kernkraftgegner:

Unumstritten ist: Jede noch so kleine Dosis von Radioaktivität geht mit einem erhöhten Risiko für Krebserkrankungen einher.

Es mag zu viel der Ehre für IPPNW sein, wenn ich meine Zusammenfassung über den 314 Seiten langen Bericht von UNSCEAR anhand obiger Behauptungen gliedere. Der Bericht ist aber so lang und so gründlich, dass ich mich auf Weniges beschränken muss, und da hat IPPNW doch einige brauchbare Punkte zusammengestellt:

1. Wie beurteilt UNSCEAR biologische Strahlenwirkungen?

Der UNSCEAR-Bericht ignoriert komplett die steigende Zahl wissenschaftlicher Arbeiten, welche auf einen positiven Effekt geringer Strahlendosen hinweisen. Nach UNSCEAR hat Radioaktivität entweder keinen oder einen negativen Einfluss auf die Gesundheit, eine positive Wirkung wird nicht in Erwägung gezogen.

Wie man anhand einer Internet-Recherche zu diesem Thema schnell herausfinden kann, ist aber die Behauptung von IPPNW, die schädliche Strahlenwirkung wäre unumstritten, eine glatte Lüge.

Strahlendosen ab 100 Millisievert (mSv) werden von UNSCEAR als möglicherweise krebserzeugend angesehen. Allerdings berichtet UNSCEAR auch, dass viele Menschen in einigen Regionen der Welt von Natur aus 20 mSv pro Jahr ausgesetzt sind, diese 100 mSv also jeweils in 5 Jahren erhalten, ohne dass gesundheitliche Folgen beobachtet werden.

Strahlendosen unter 100 mSv beurteilt UNSCEAR sehr vorsichtig. Eine schädliche Wirkung wird nicht völlig ausgeschlossen. Es wird jedoch dargelegt, dass sie sich in einer Gesundheitsstatistik niemals zeigen kann.

Wäre die Evakuierung von etwa 100.000 Menschen nicht erfolgt, hätte es nach UNSCEAR keine erkennbare Erhöhung der Krebsraten gegeben. Die Unannehmlichkeiten der Umsiedlung waren für manche Menschen jedoch so schlimm, dass man sie ins Krankenhaus bringen musste, wo über 50 sehr bald gestorben sind.

UNSCEAR lehnt das Konzept der Kollektivdosis nicht ab, macht aber für Dosen im Bereich der natürlichen Umgebungsstrahlung keinen Gebrauch davon. Für Kernkraftgegner und auch die deutsche Politik ist es jedoch das Fundament. Damit werden die zehntausende von Toten begründet. Würde man dieselben Vorstellungen auf Blut anwenden, sähe das so aus:

Verliert jemand 5 l Blut, ist er tot. Verlieren 1.000 Menschen je 5 ml, dann sind das zusammen wieder 5 l, und es gibt genau einen Todesfall.

So zählt man die Strahlendosen aller betroffenen Personen zusammen, das hat UNSCEAR mit den in 10 Jahren zu erwartenden Dosen getan und ist auf die beeindruckende Zahl von 36.000 Sievert gekommen. Den nächsten Schritt hat UNSCEAR unterlassen, aber das tun die Experten von IPPNW und andere. Sie rechnen so: Dosis ist Dosis, egal auf wie viele Menschen sie sich verteilt. Da nach ICRP 103 (International Commission on Radiological Protection) bei einer Dosis von einem Sievert 4,2 Krebsfälle unter 100 Personen zu erwarten sind, hat man damit den Risikofaktor 0,042 Fälle/Sievert und multipliziert:

36.000 Sv ∙ 0,042 = 1.512 Krebstote.

Der Faktor ist aus Vorsicht eher zu hoch angesetzt, wie man das von Strahlenschützern auch erwarten muss. Aber IPPNW hätte gern mehrere 10.000 Tote, das erreichen sie mit einem höheren Faktor. Gerade kleine Strahlendosen wären überproportional gefährlich, das behaupten sie.

Aber, das steht nicht im UNSCEAR-Bericht, berechnen wir doch einmal die Kollektivdosis der 11 Millionen Menschen in den betroffenen Regierungsbezirken Fukushima, Miyagi, Tochigi, Gunma und Ibaraki aufgrund ihrer natürlichen Lebensdosis von 170 mSv. Ergebnis:

11 x 10^6 x 0,17 = 1,87 x 10^6,

also fast 2 Millionen. Die Erhöhung durch den Unfall von Fukushima beträgt

36 ∙ 10^3 : 1,87 ∙ 10^6 ∙ 100 ≈ 2 %.

Würden die Leute nach Indien oder Brasilien auswandern, dann könnten sie ihre Kollektivdosis um 500 bis 1000 % steigern, ohne dass es mehr Krebsfälle gäbe.

Ich nehme an, im Medizinstudium wird gelehrt, wie man den Tod von Menschen feststellt; durch einfache Multiplikation geht es jedenfalls nicht. Es ist anzunehmen, dass kleine Strahlenschäden vollständig repariert werden, wie auch eine kleine Wunde mit 5 ml Blutverlust. Das bei Medizinern bekannte Nachschlagewerk von Pschyrembel schreibt vorsichtig:

„….da die Bedeutung von Reparatursystemen nach Strahleneinwirkungen nur unvollkommen abgeschätzt werden kann …… Hieraus kann allerdings nicht direkt geschlossen werden, auch kleinste Strahlendosen könnten das Karzinomrisiko maßgeblich erhöhen.“

2. Haben die Mitarbeiter kritiklos Daten der Betreiber und Behörden übernommen?

Natürlich nicht. Ausführlich wird die Herkunft sämtlicher Daten offen gelegt und diskutiert. Schwachpunkte werden aufgezeigt. So gibt es für die Personendosen des Personals in den ersten Tagen und auch Wochen tatsächlich nur die Angaben von TEPCO. Zum Zeitpunkt der Untersuchungen durch UNSCEAR lagen aber die Ergebnisse der medizinischen Untersuchungen vor. Strahlenschäden hatte keiner.

Doch gab es beim Personal 7 Todesfälle, 2 direkt durch den Tsunami, 4 durch Infarkte und tatsächlich einen durch Leukämie. Keiner der Leute hatte in hoch belasteten Bereichen gearbeitet, ihre Strahlendosen lagen im Bereich von 0,7 bis 25 mSv.

Die Ermittlung von biologisch wirksamen Dosen ist immer schwierig, daher hat UNSCEAR durchgehend obere Abschätzungen verwendet, die oft über den von Behörden oder TEPCO erhaltenen Daten liegen, einmal bis zum Faktor 4. Diese Ungenauigkeiten haben aber keinen Einfluss auf die Schlussfolgerungen; auch bei wesentlich höheren Dosen hätte es keine erkennbare Erhöhung der Krebsrate gegeben.

Ein Beispiel für die Schwierigkeiten der Dosisermittlung und die Gründlichkeit von UNSCEAR: Man hat sich auch um Pflanzen und Tiere gekümmert. In den Bergwäldern leben schwarze Bären (Ursus thibetanus). Wie viel Radioaktivität haben die nun in ihren Körpern? Um dies zu ermitteln, hat man keinen erlegt, auch keinen gefangen und dann in den Ganzkörperzähler geschoben. Vielmehr wurde die Radioaktivität im Körper anhand der Ernährungsgewohnheiten errechnet. In den meisten Fällen konnte man es auch bei der Ermittlung menschlicher Körperdosen nicht anders machen.

Die Radioaktivität der Lebensmittel wurde genau gemessen, obwohl IPPNW das bestreitet. UNSCEAR hat realistische Ernährungsgewohnheiten zugrunde gelegt. Auch Japaner kaufen die meisten Lebensmittel im Lebensmittelmarkt und leben nicht vorwiegend aus dem eigenen Garten.

UNSCEAR hat alle bisher veröffentlichten Arbeiten über mutierte Schmetterlinge und dergleichen aufgelistet, konnte aber leicht zeigen, wie unplausibel das alles ist.

3. Gibt es Veränderungen der Schilddrüsen?

In den betroffenen Regierungsbezirken werden praktisch alle Kinder und Jugendlichen auf solche Veränderungen und auf Schilddrüsenkrebs untersucht. Dabei fielen tatsächlich Veränderungen auf. Dies ist aber auf die gründliche Untersuchung zurückzuführen. Zum Vergleich wurden solche Untersuchungen in genau der gleichen Weise in nicht betroffenen Gebieten durchgeführt; der Prozentsatz von Auffälligkeiten war teilweise höher.

4. Information der Bevölkerung über die Risiken

Darüber hat UNSCEAR nicht berichtet. So umfangreich der Bericht ist, man hat sich beschränkt auf die Ausbreitung von Radioaktivität, Aktivitätskonzentrationen in Luft, Wasser und Boden, Tieren und Pflanzen, sowie Personendosen  und mögliche gesundheitliche Folgen.

Eine ehrliche Information über die Risiken der Personen in Gebieten mit zu erwartenden Strahlendosen über 20 mSv wäre so gewesen: „Wenn Sie bleiben, steigt nach einer sehr zweifelhaften Hypothese Ihr Krebsrisiko von 35 % auf maximal 35,3 %. Wollen Sie tatsächlich in eine Notunterkunft?“




Wasser – ein wahrhaft himmlisches wie rätselhaftes Wetterelement

Das „Feuer“ passt nicht in das Schema, ist aber als Energielieferant unverzichtbar. Das „Licht“ nimmt eine Sonderstellung an, denn es ist keine Erscheinungsform von Materie, sondern eine Folge von Materie, wie man bei der Herstellung von Eisen erkannte und darum unlösbar mit Materie verbunden. Die gesamte lebendige Materie in Gestalt von Pflanzen, Tieren und Menschen ist zudem ohne das Licht nicht denkbar. Diese schlichte Wahrheit steckt in dem Wort „Photosynthese“, bei der grüne Pflanzen aus den zwei anorganischen Stoffen Kohlenstoffdioxid und Wasser mit Hilfe des Lichts organische Materie, also „Nahrung“ für Tier und Mensch, produzieren. Zudem wird dabei de zur Nahrungsverbrennung notwendige Sauerstoff durch Spaltung des Wassermoleküls freigesetzt.

Die Urstoffe wiederum seien aus kleinsten unteilbaren Materieteilchen zusammengesetzt, den Atomen. Diese Auffassung vertrat Demokrit (470-380 v. Chr.). Wenn ein Kind zu einem stattlichen Mensch heranwächst und als Greis stirbt und verwest, dann kehren, so Demokrit, die Atome, „die sich in uns für kurze Zeit zu Lust und Leid gefügt haben“, in den ewigen Kreislauf der Natur zurück. Man erkannte auch, dass die Atome von elementaren Kräften, der Anziehung und Abstoßung, beherrscht werden. Sie sagten: „Das Lieben und Hassen der Atome verursacht die Unruhe der Welt.“ Wenn sich am Himmel eine Wolke bildet, sammeln sich die einzeln und unsichtbar herumfliegenden „Wasseratome“ zu sichtbarem Nebel, winzigen Wassertropfen. Diese können bald wieder verdunsten oder wachsen und als Regen zur Erde fallen. Verdunstet der Regen, dann steigen die „Atome“ wieder in die Atmosphäre auf und werden über die Erde, wenn auch extrem ungleichmäßig, verteilt. Heute wissen wir, dass sich das „Wasseratom“ aus drei Atomen (H2O) zusammensetzt, also ein aus Wasserstoff und Sauerstoff bestehendes „Wasserdampfmolekül“ ist, mit ungewöhnlichen Eigenschaften.

Der Regen fällt vom Himmel, doch wie kommt er in den Himmel?

Kluge Leute haben berechnet, dass die Lufthülle der Erde 13 x 10^12 m3 Wasser enthält. Das sind 13 Billionen Tonnen. Wer jedoch hat die Kraft oder die Energie, diese Riesenmenge an Wasser in die Luft zu heben? Wie viele Tanklaster mit 10 Tonnen Fassungsvermögen braucht man dazu? Die Erdoberfläche insgesamt hat eine Fläche von 510 x 10^6 km2. Würde alles Wasser auf einen Schlag ausregnen und gleichmäßig über die Erde verteilt zu Boden fallen, dann würden auf jeden Quadratmeter 25 Liter (25 mm) Regen fallen. Wäre dies die Jahresausbeute, die gesamte Erde wäre eine einzige Wüste. Walfischbai, eine Hafenstadt am Rande der Wüste Namib, einer typischen Küstenwüste in Namibia, misst im Mittel einen Jahresniederschlag von 22 mm. In Aden im Jemen, der trockensten Stadt des Nahen Ostens, sind es 46 mm.

Andere kluge Leute haben ausgerechnet, dass der mittlere globale Niederschlag etwa 1000 mm oder 1000 Liter pro m2 beträgt. Wenn dies wahr wäre, die Erde wäre keine Wüste sondern grün, vorausgesetzt der Regen wäre gleich verteilt und überall würde die „Globaltemperatur“ von 15° Celsius herrschen. Dies zum Sinn oder Unsinn von Globalwerten. Sie sind „schön“, aber nirgends zu gebrauchen. Wenn 25 mm an Wasser in der Atmosphäre sind, aber im Jahresverlauf 1000 mm ausregnen, dann muss sich im Jahresverlauf die Wassermenge der Luft 40 Mal oder knapp alle 10 Tage komplett erneuern.

Machen wir mal eine Überschlagrechnung: Pro Minute fällt auf der ganzen Erde 1 Milliarde Tonnen Regen. Doch diese müssen zuerst einmal verdunsten und in den Himmel gehoben werden. Dazu wird Energie benötigt, die nicht der Mensch sondern einzig und allein die Sonne zur Verfügung stellt. Um 1 Liter Wasser zu verdunsten oder zu verdampfen, benötigt man etwa 0,63 Kilowattstunden. Bei 1 Tonne sind dies 630 und bei 1 Milliarde Tonnen 630 x 10^9 kWh. Diese Leistung an Verdunstungsenergie muss permanent vorgehalten werden, damit der Wasserkreislauf zwischen Niederschlag und Verdunstung in Gang gehalten werden kann. Bei einem Preis von 20 Cent pro kWh kosten 630 kWh 126 EURO. Die Menschheit müsste also pro Minute rund 125 Milliarden EURO für Verdunstungskosten aufwenden, damit 1 Milliarde Tonnen Regen vom Himmel fallen. Und das Jahr hat 8760 Stunden und diese wiederum 60 Minuten. Nach „Adam Riese“ (1492-1559) müsste die Sonne der Menschheit pro Jahr für die Belieferung mit Regen eine saftige Rechnung über 65.700 Billionen EURO schicken, Jahr für Jahr. Doch wegen der extrem ungleichmäßigen Verteilung des Regens -Arica in der Atacama-Wüste Chiles erhält 0,8 mm und der Berg Wai’ala’ale auf der Insel Kauai in Hawaii im Mittel 11 684 mm- gäbe es enormes Konfliktpotential, die Kosten einigermaßen „gerecht“ unter den Völkern aufzuteilen.

Diese Energie liefert einzig und allein die Sonne mittels Licht und Wärme. An der Obergrenze der Atmosphäre beträgt im Mittel die „Solarkonstante“ von 1368 W/m2. Kalkuliert man mit einem Verlust von 30 %, dann kommen im Mittel an der Erdoberfläche 960 W/m2 an und dienen deren Erwärmung. Von diesen müssen noch 30 Prozent für Verdunstung abgezogen werden. Bleiben 640 W/m2. Diese dienen der Erwärmung des Bodens und werden als Wärme per Leitung und Konvektion an die Atmosphäre weitergegeben. In Deutschland beträgt die mittlere Globalstrahlung etwa 1000 kWh/m2 pro Jahr, ohne von der Sonne eine Rechnung zu erhalten.

Zur Wärme als gestaltende Kraft der Natur

Speziell auf das Wasser bezogen spielt die Wärme, also die Temperatur, eine wichtige Rolle. Wir kennen seine drei Aggregatzustände: fest, flüssig und gasförmig. Alle drei Zustände können gleichzeitig auftreten. Geht Eis in Wasser über und dieses in Wasserdampf, der für uns unsichtbar ist, dann ändert sich die Anordnung der Atome. Man spricht von Phasenübergängen, deren Ursache wiederum in der Energie liegt, die einem Stoff von außen zugeführt oder entzogen wird. Es ändern sich die Gitterstrukturen. Bei Eis sind die Atome zu Gittern montiert, ist jedes Atom über die Elektronen seiner äußeren Schale mit seinen Nachbaratomen fest verklammert. Wird dem Eis Wärme zugeführt, geraten die Atome immer mehr in Schwingung, bis irgendwann der Punkt erreicht ist, an dem sie so stark ausschwingen, dass die atomaren Bindungskräfte nicht mehr stark genug sind, die Atome an ihrem Ort im Gitter zu halten. Übersteigt die Bewegungsenergie die Bindungsenergie, dann geht der Körper in den flüssigen Zustand über, er schmilzt. Führt man dem Wassert weiterhin Energie zu, dann bewegen sich die Atome mit ständig wachsender Geschwindigkeit. Immer mehr Moleküle durchstoßen die Oberfläche des Wassers und entweichen gasförmig als Wasserdampf in die Luft.

Diesen Vorgang kann man in der Natur nach jedem Regen beim Abtrocknen der Straßen und dem Verschwinden der Pfützen beobachten. Auch das Trocknen der Wäsche auf der Leine geschieht ohne Zutun des Menschen. Immer herrschen winzige Luftbewegungen und Temperaturänderungen, mit denen sich die Aufnahmefähigkeit der Luft für Wasserdampf ändert. Schnell trocknen Straße und Wäsche, wenn das Sättigungsdefizit groß und die Aufnahmefähigkeit der Luft für Wasserdampf hoch ist. Bei O°C kann die Luft maximal 4,8g H2O, bei 10°C schon 9,4g und bei 30°C ganze 30,3g pro m3 aufnehmen, bis zur Sättigung. Die Geschwindigkeit, mit der Boden abtrocknet, hängt vom Sättigungsdefizit der Luft wie dem Wind ab und nicht allein von der Temperatur. Extrem trockene und kalte Polarluft wirkt über dem warmen Golfstrom wie ein Schwamm und kann erhebliche Mengen an Wassersdampf aufnehmen und zu ergiebigen Regenfällen führen.

Ist Wasser zu Wasserdampf und damit zu einem unsichtbaren Gas geworden, dann sind die H2O-Moleküle vollkommen frei beweglich und rasen mit kaum vorstellbarer Geschwindigkeit umher, wobei sie sich ständig anrempeln und abstoßen. Ist der Raum begrenzt, wird Luft in einem Behälter eingefangen, stoßen die Moleküle nicht nur gegenseitig zusammen, sondern sie prallen auch auf die Gefäßwände und üben dadurch auf diese einen Druck aus. Erhöht man die Temperatur des eingeschlossenen Gases, dann erhöht sich die Geschwindigkeit der Moleküle, der Gasdruck wächst. Der Druck kann schließlich so groß und die Bewegungsenergie so heftig werden, dass der Behälter platzt. Unter freiem Himmel ist dies nicht möglich, da die von der Erde ausgeübte Schwerkraft proportional dem Quadrat der Entfernung abnimmt, der Raum größer wird. Mit zunehmender Höhe nehmen der Druck und die Temperatur ab. Ein Luftpaket, das thermisch aufsteigt, kühlt sich um 1 Grad pro 100 m Höhe ab. Man nennt dies den trockenadiabatischen Temperaturgradienten. Die Temperaturabnahme mit der Höhe hat schon Alexander vom Humboldt (1769-1859) bei seiner Amerika-Reise 1799-1804 untersucht und die Höhenstufen der Anden beschrieben von der Tierra Caliente bis zur Tierra Nevada oberhalb 5000 Meter. Wird beim Aufsteigen der Luft der Taupunkt unterschritten, setzen Sättigung und Kondensation ein, dann wird die bei der Verdunstung benötigte Wärme als Kondensationswärme wieder freigesetzt und die Abkühlung der aufsteigenden Luft auf 0,5 Grad reduziert. Fließt Luft über ein Gebirge, so erklärt sich hieraus auf der auf der Luvseite der Staueffekt und auf der Leeseite der Föhneffekt.

Struktur des Wassermoleküls bei den Phasenübergängen

Bevor der Mensch Temperatur und Wärme messen konnte, hatte er beobachtet, dass sich feste Körper bei Erhitzung ausdehnen und bei Abkühlung wieder zusammenziehen. Je höher die Temperatur wird, umso heftiger bewegen sich die Moleküle und desto mehr Raum beanspruchen sie. Beim Abkühlen nehmen die Eigenschwingungen der Moleküle ab, das Volumen verringert sich. Gehen Körper vom flüssigen in den festen Zustand über, dann nimmt das Volumen im Schnitt um 10 Prozent ab. Dies gilt allerdings nicht für das Wasser. Es ist ein einzigartiger Stoff. Eis, also Wasser im festen Zustand, hat eine geringere Dichte, ein größeres Volumen und das ist der Grund, warum Eis schwimmt.

Wasser, das abgekühlt wird, verhält sich anfangs wie alle anderen Stoffe auch, es wird dichter. Doch nur bis 4° Celsius. Dann beginnt es, sich wieder auszudehnen, bis es bei O°C fest wird. Dieses ungewöhnliche Verhalten des H2O-Moleküls liegt an der einzigartigen Atombindung der beiden Wasserstoffatome und des Sauerstoffatoms. Die chemische Formel H2O gilt streng genommen nur für den Gaszustand, wo sich die einzelnen Moleküle frei im Raum bewegen, zwar gelegentlich zusammenstoßen, aber sonst nichts miteinander zu tun haben. Kühlt der Wasserdampf ab, dann nimmt nicht nur die Heftigkeit der Zusammenstöße ab, die Moleküle beginnen aneinander zu haften und ein lockeres „Flüssigkeitsgitter“ zu bilden. Der Grund liegt in der speziellen atomaren Bindung. Das O-Atom teilt sich mit jedem H-Atom ein Elektronenpaar und bildet eine stabile Achterschale. Geometrisch hat es die Form eine Pyramide, eines verzerrten Tetraeders, in dessen Zentrum das O-Atom sitzt. Die beiden H-Atome befinden sich an zwei der vier Ecken des Tetraeders. An den beiden anderen Ecken sammeln sich die Elektronen und bilden Wolken negativer Ladung. Dadurch wird das Wassermolekül polar, mit einem positiven und negativen Ladungspol. Diese Polarität führt zwischen einander berührenden Wassermolekülen zu Wasserstoffbrückenbindungen. So entstehen Riesenmoleküle, wobei im flüssigen Zustand ein andauernder Wechsel der Bindungspartner stattfindet.

Dies ändert sich schlagartig bei Unterschreiten der 4° Celsius. Das Knüpfen und Lösen von Wasserstoffbrücken hat ein Ende. Die Moleküle suchen sich einen festen Platz im sich verfestigenden Gitter, treten aber auch plötzlich in Distanz zueinander. Die Dichte des sich abkühlenden Wasser nimmt nicht weiter zu, sondern ab. Bei der Eisbildung werden regelrechte Hohlräume zwischen den Tetraeder-Molekülen gebildet. Diese machen etwa 10 Prozent des Gesamtvolumens aus, weshalb Eis um etwa 10 Prozent leichter ist als Wasser und somit schwimmt. Die Tatsache, dass Eis leichter ist als Wasser, bewirkt, dass Seen und Flüsse von der Oberfläche her und nicht vom Untergrund her zufrieren. Die oben schwimmende Eisdecke schützt das Leben in tieferen Gewässerschichten vor der Kälte des Winters, garantiert Fischen das Überleben im 4 Grad „warmen“ Wasser. Die Fähigkeit, sehr viel Wärme zu speichern, ermöglicht die Entstehung großer warmer Meeresströmungen, etwa des Golfstroms als Art Warmwasserheizung für die Nordwestküsten Europas.

Die einzigartige molekulare Struktur des Wassers macht Wasser zu einem ungemein lösungsfreudigen Stoff. Die polare Ladungsverteilung bewirkt, dass sich Salze im Wasser in ihre Ionen auflösen, also Kochsalz in seine Ionen Na+ und Cl-. Wasser löst aber nicht nur Salz- und Zuckerkristalle auf, sondern auch Gase wie Sauerstoff (O2), Stickstoff (N2), Ammoniak (NH3) oder Kohlenstoffdioxid (CO2). Die Lösungsfreudigkeit des Wassers macht es erst möglich, dass Pflanzen in der Lage sind, die für ihr Wachstum lebenswichtigen Mineralien über die Wurzeln aufzunehmen. Fische können im Wasser nur leben, weil es sehr viel gelösten Sauerstoff enthält, den sie mit ihren Kiemen einatmen. Das CO2, das die Fische ausatmen, wird ebenfalls im Wasser gelöst und wird von den Wasserpflanzen genutzt, die ihrerseits H2O aufspalten und Sauerstoff abgeben, wie die grünen Landpflanzen auch.

Wie „Klimaexperten“ die Natur uminterpretieren und auf den Kopf stellen

Alle Energie für alles organische Leben auf der Erde stammt als elektromagnetische Energie von der Sonne. Wie angenehm ist die wärmende Wirkung der Sonnenstrahlen bei Frost auf der Haut! Und wie erbarmungslos können sie die Haut erhitzen, bis zum Hitzschlag. Ist es dem Wüstensand „gleichgültig“, ob er am Tage auf über +70°C erhitzt wird und sich nachts unter -O°C abkühlt, so gilt dies nicht für „Warmblüter“ wie den Menschen. Er benötigt eine „konstante“ Körpertemperatur von +37°C und muss sich daher gleichermaßen vor Überhitzung wie Unterkühlung schützen. Die unbekleidete menschliche Körperoberfläche strahlt, wie jeder tote physikalische Körper, Wärme ab. Je höher die Temperatur, desto mehr. Die Wärmestrahlung steigt oder fällt mit der vierten Potenz der absoluten Temperatur, die in Kelvin angegeben wird. Bei wolkenlosem Himmel bei windschwachem Hochdruckwetter folgen die Bodentemperatur und auch die bodennahe Lufttemperatur dem Sonnengang, sommers wie winters. Es ist ein stetiges Wechselspiel zwischen der solaren Einstrahlung wie der terrestrischen Ausstrahlung, unter Abzug der Verdunstungsverluste.

Doch wie stark die Erdoberfläche erwärmt wird, hängt nicht nur vom Einfallswinkel der Sonnenstrahlen und der Wärmeaufnahmefähigkeit des Untergrundes ab. Die Feuchtigkeit des Bodens spielt eine ganz gewaltige Rolle. Wasserflächen werden nicht nur deswegen langsamer erwärmt als Fels- oder Sandboden, weil das Wasser die höchste spezifische Wärme hat, sondern weil dem Wasser und feuchten Boden durch Verdunstung immer wieder Wärme entzogen wird. In der Fachliteratur ist zu lesen, dass etwa 25 bis 30 Prozent der eingestrahlten Sonnenenergie allein ob der Verdunstung und der Aufrechterhaltung des Wasserkreislaufs “verbraucht“ werden. Diese Energie geht für die Erwärmung des Erdbodens „verloren“, sie ist aber dennoch nicht verloren, sondern steigt als „latente Wärme“ auf und wird bei der Kondensation mit der Bildung von Wolken wieder freigesetzt. Erst über die dann freigesetzte Kondensationswärme entwickeln Gewitter bei labil geschichteter Atmosphäre ihre volle Kraft und stoßen bis zur Tropopause vor, wo sie sich in Form eines Amboss ausbreiten.

Wenn die beiden Klimaexperten des Potsdam-Institut für Klimafolgenforschung S. Rahmstorf und H. J. Schellnhuber in der 7. Auflage ihres Buches „Der Klimawandel“ (2012) schreiben, „Unser Klima ist im globalen Mittel das Ergebnis einer einfachen Energiebilanz: Die von der Erde ins All abgestrahlte Wärmestrahlung muss die absorbierte Sonnenstrahlung im Mittel ausgleichen.“, dann ist das schlichtweg einfach falsch! Die Erde muss gar nichts ausgleichen! Die Erde strahlt nur das an Energie ab, was sie vorher von der Sonne erhalten, sprich absorbiert, hat. Es ist einzig und allein die Sonne mit ihrer Strahlungsenergie, welche die Temperaturen auf der rotierenden Erdkugel bestimmt. Diese differieren je nach Tages- und Jahreszeit, je nach geographischen Breite oder Länge. Es gibt keine „Einheits- oder Globaltemperatur“, es gibt auch kein „Globalklima“, sondern eine Klimavielfalt, die anhand der irdischen Wettervielfalt berechnet wird.

Alle angestellten theoretischen Betrachtungen sind auch deswegen, und das sollte hier gezeigt werden, reine Fiktion, weil schlichtweg bei den Bilanzberechnungen rund ein Drittel der Solarenergie unterschlagen, unter den Tisch gekehrt wurde. Dieses Drittel dient nicht der Erderwärmung, sondern wird sinnvollerweise von der Natur in den Wasserkreislauf investiert. Was wäre das Leben ohne Wasser, was ein Himmel ohne Wind und Wolken, ohne Regen? Wer „Energiebilanzen“ betrachtet, sollte es sich nicht zu „einfach“ machen, wenn er sich nicht dem Vorwurf der gezielten Bilanzfälschung ausgesetzt sehen will. Bilanzfälschung ist kein Kavalierdelikt, zumal der „Schutz des Globalklimas“ ohnehin ein leeres Versprechen ist!

Oppenheim, den 2. August 2014                                                                     Dipl.-Met. Dr. phil. Wolfgang Thüne




Behauptung: Natürliche Variation ‚maskiert’ die globale Erwärmung und ist Grund für den ‚Stillstand‘

In einer in diesem Monat in den Geophysical Research Letters veröffentlichten Studie kommt Lovejoy zu dem Ergebnis, dass eine natürliche Abkühlungs-Fluktuation während dieser Periode großenteils die Erwärmungs-Effekte der fortgesetzten anthropogenen Emissionen von Kohlendioxid und anderer Treibhausgase maskiert.

Diese neue Studie wendet ein statistisches Verfahren an, das von den Forschern bei McGill in einer früheren Studie entwickelt worden war, die im April in dem Journal Climate Dynamics veröffentlicht worden war. Diese frühere Studie – die vorindustrielle Temperatur-Proxys verwendet hat, um historische Klimaverhältnisse zu analysieren – schloss mit einer Sicherheit über 99% die Möglichkeit aus, dass die globale Erwärmung in der Industrie-Ära lediglich eine natürliche Fluktuation des Erdklimas sei.

In seiner neuen Studie wendet Lovejoy das gleiche Verfahren auf die 15-jährige Periode nach 1998 an, während der die global gemittelten Temperaturen nach historischen Standards hoch waren, jedoch unter den meisten Vorhersagen der komplexen Klimamodelle lagen, die von Wissenschaftlern zur Abschätzung der Auswirkung von Treibhausgas-Emissionen generiert worden waren.

Die Abnahme des Temperaturanstiegs während dieses 15-jährigen Zeitraumes wird manchmal als ein „Stillstand“ oder eine „Ruhepause“ der globalen Erwärmung bezeichnet. Er hat Fragen aufgeworfen, warum die Rate der Erwärmung auf der Erde markant niedriger lag als in den Jahrzehnten zuvor. Angesichts dessen, dass die Treibhausgase während der gesamten Periode kontinuierlich weiter gestiegen sind, haben einige Skeptiker geltend gemacht, dass der gegenwärtige Vorgang die Theorie der zum großen Teil vom Menschen verursachten Erwärmung während der Industrie-Ära durch das Verbrennen fossiler Treibstoffe widerlegt.

Lovejoys neue Studie kommt zu dem Ergebnis, dass es seiner Analyse zufolge seit 1998 zu einer natürlichen Abkühlungs-Fluktuation von 0,28°C bis 0,37°C gekommen war – was in Einklang steht mit Variationen, die historisch alle 20 bis 50 Jahre auftreten. „Es gibt viele Beispiele dieser Variationen bei Temperatur-Rekonstruktionen aus präindustrieller Zeit, und zwar auf der Grundlage von Proxys wie Baumringen, Eisbohrkernen und See-Sedimenten“, sagt Lovejoy. „Basierend auf Klimaaufzeichnungen vermeidet dieses Verfahren jedwede Verzerrungen, die die hochmodernen Computermodelle beeinflussen könnten, die allgemein zum Verständnis der globalen Erwärmung verwendet werden“.

Mehr noch, der beobachtete Abkühlungs-Effekt von 1998 bis 2013 “folgt exakt einem etwas größeren Erwärmungs-Ereignis vor dem Stillstand, also von 1992 bis 1998, so dass die natürliche Abkühlung während des ‚Stillstands‘ nichts weiter ist als eine Rückkehr zu einer längerfristigen natürlichen Variabilität“, folgert Lovejoy. „Der Stillstand hat also eine überzeugende statistische Erklärung“.

Er fügt noch hinzu, dass die Verfahren, die Lovejoy in seinen beiden letzten Studien entwickelt hatte, auch von Forschern verwendet werden können zur Analyse von Niederschlags-Verteilungen und der regionalen Klimavariabilität, und um neue stochastische Verfahren der Klimavorhersage zu entwickeln.

——————————————————————————————————

Die Studie:

„Wiederholte Perioden von Klimafluktuationen und der Stillstand“, Shaun Lovejoy, Geophysical Research Letters, published online July 14, 2014. DOI: 10.1002/2014GL060478

Abstract

Ein ergänzendes Verfahren zu den allgemeinen Klima-Zirkulationsmodellen (GCMs) wurde kürzlich zur Quantifizierung menschlicher Auswirkungen entwickelt. Es verwendet den anthropogenen CO2-Strahlungsantrieb als eine lineare Sammelbezeichnung für alle anthropogenen Antriebe (Lovejoy 2014). Unter Verwendung präindustrieller Multiproxy-Reihen und geeigneter Skalierung wurde berechnet, dass die Wahrscheinlichkeiten natürlicher Fluktuationen bis zu 125 Jahre hinterherhinken. Die Hypothese, dass die Erwärmung während der industriellen Epoche eine riesige natürliche Fluktuation war, wurde mit einer Gewissheit von 99,9% zurückgewiesen. In dieser Studie wird diese Methode ausgeweitet auf die Bestimmung der Zeiten wiederkehrender Ereignisse. Während der Periode von 1880 bis 2013 wird das größte 32-Jahres-Ereignis mit 0,47 K erwartet, was die Abkühlung in der Nachkriegszeit (Amplitude 0,42 bis 0,47 K) effektiv erklärt. Genauso ist der „Stillstand“ seit 1998 (0,28 bis 0,37 K) eine Wiederkehr-Periode von 20 bis 50 Jahren (nicht gar so ungewöhnlich). Sie wird nahezu kompensiert durch die Erwärmung vor dem Stillstand (1992 bis 1998, Wiederkehr-Periode 30 bis 40 Jahre). Der Stillstand ist also nichts weiter als natürliche Variabilität.

Vorabdruck hier:

http://www.physics.mcgill.ca/~gang/eprints/eprintLovejoy/neweprint/Anthropause.GRL.final.13.6.14bbis.pdf

Link: http://wattsupwiththat.com/2014/07/21/claim-natural-variation-masked-global-warming-creating-the-pause/

——————————————————————————————————-

Klarer Fall: Dieser Autor rechnet mit einer neuen und verstärkt einsetzenden Erwärmung. Aber um die Tatsache, dass der natürliche Einfluss den vermeintlich anthropogenen Einfluss offensichtlich überdeckt, kommt auch er nicht vorbei.

Im Übrigen wird die Liste der Entschuldigungen für den Stillstand immer länger, wie Anthony Watts eindrucksvoll zusammengestellt hat:

Liste der Entschuldigungen für den ,Stillstand’ umfasst jetzt 29 Dinge

Anthony Watts

Das letzte Mal, als ich dazu etwas geschrieben hatte waren es zehn:

[Siehe Bild oben rechts!]

Hier folgt eine aktualisierte Liste mit 29 Entschuldigungen für den nunmehr 18-jährigen ‚Stillstand‘ hinsichtlich der globalen Erwärmung (Dank an den Hockey Schtick):

Wenn man den Stillstand nicht erklären kann, kann man auch den Grund dafür nicht erklären.

Abbildung: RSS-Satellitendaten, aus denen der 18-jährige ‚Stillstand‘ hinsichtlich der globalen Erwärmung hervorgeht.

Eine aktualisierte Liste von mindestens 29 Entschuldigungen für den 18-jährigen ‚Stillstand der globalen Erwärmung, einschließlich jüngster wissenschaftlicher Studien, Medienzitaten, Blogs und damit verbundene Widerlegungen:

1) geringe Sonnenaktivität

2) Ozeane haben die globale Erwärmung gefressen [widerlegt] [widerlegt] [widerlegt]

3) Chinesischer Kohleverbrauch [widerlegt]

4) Montreal-Protokoll 

5) Welcher ‚Stillstand? [widerlegt] [widerlegt] [widerlegt] [widerlegt]

6) Vulkanische Aerosole [widerlegt]

7) Stratosphärischer Wasserdampf

8) Stärkere Passatwinde im Pazifik [widerlegt]

9) Stadium Waves [?]

10) ‚Zufall!’

11) Kieferpollen

12) Es ist „nicht so ungewöhnlich” und „nichts weiter als natürliche Variabilität ”

13) „Wissenschaftler schauten auf die falschen ‚lausigen’ Daten ”

14) Kalte Nächte werden auf der Nordhemisphäre immer kälter

15) Wir haben vergessen, die Rosinen aus den Modellen zu picken, um sie in Einklang zu bringen mit der natürlichen Variabilität [widerlegt]

16) Negative Phase der Interdekadischen Pazifischen Oszillation

17) AMOC Ozean-Oszillation

18) „Globale Aufhellung” hat aufgehört

19) „Ahistorische Medien ”

20) „Es ist die wärmste Dekade denn je” Dekadische Mittel wurden verwendet, um den ‚Stillstand zu verstecken [widerlegt]

21) Nur wenige El Ninos seit 1999

22) Temperaturvariationen liegen „in etwa in der Mitte der AR 4-Modellergebnisse ”

23) „Nicht statistisch relevant”

24) Die falschen El Nino-Typen

25) Schwächere Passatwinde [widerlegt]

26) TDas Klima ist weniger sensitiv bzgl. CO2 als ursprünglich gedacht [siehe auch hier]

27) PDO und AMO natürliche Zyklen und hier

28) ENSO

29) Vom Sonnenzyklus getriebene ozeanische Temperatur-Variationen

Link: http://wattsupwiththat.com/2014/07/30/list-of-excuses-for-the-pause-now-up-to-29/

Übersetzt von Chris Frey EIKE




Tiefe Kratzer am Sauberstrom-Image – Feuer und Tod: Die verschwiegenen Gefahren der Windenergie

Wegen der großen Turmhöhen sind Brände in Windenergieanlagen kaum zu löschen

Nach Erkenntnissen der Untersuchung sind Windenergieanlagen wesentlich anfälliger für teils schwerwiegende technische Defekte als man der Öffentlichkeit bisher glauben machen wollte. Demnach werden jeden Monat durchschnittlich zehn Windturbinen allein durch Feuer zerstört. Die Häufigkeit solcher Ereignisse lässt sich auch daran erkennen, dass eine Internetsuche nach Begriffen wie „Turbines on Fire“ sofort zahlreiche Hinweise und spektakuläre Bilder bzw. Filme liefert [FIR1, FIR2, FIR3]. Eine Website, die sich auf dieses Thema spezialisiert hat, berichtet, dass der „Daily Telegraph“ beispielsweise am 11. Dez. 2011 meldete, dass „RenewableUK“ bestätigt habe, dass es allein in Großbritannien in den letzten fünf Jahren 1500 Vorfälle und Unfälle mit Windturbinen gegeben habe [TOFI].

Video:

Windkraftanlage in Neukirchen bei Heiligenhafen (OH) brennt ab. NDR aktuell 19.04.2012

Allerdings dokumentiert diese Webseite auch eine Schwachstelle des oben erwähnten Berichts, weil dort ausgesagt wird, dass bei solchen Bränden bisher noch keine Menschen zu Schaden gekommen seien. Dass dies nicht stimmen kann, dokumentiert ein Bericht der niederländischen RTL Nieuws vom 29.10. 2013, über den auch in englischer Sprache auf einer internationalen Webseite berichtet wurde [FTOD]. Demzufolge wurden zwei Monteure bei der Wartung einer Vestas-Turbine von einem Feuer im Maschinenraum überrascht, das ihnen den Fluchtweg abschnitt. Aufgrund der leichten Brennbarkeit wesentlicher Bestandteile einer solchen Windenergieanlage – dazu gehören auch Hunderte Liter brennbaren Schmieröls – hatten die beiden keine Chance, da das gesamte Maschinenhaus abbrannte. Einer der beiden stürzte auf der Flucht vor dem Feuer zu Tode, der andere starb im Maschinenhaus an Brandverletzungen. Besonders erschütternd war dabei die Tatsache, dass beide noch sehr jung waren: Einer war 21, der andere sogar nur 19 Jahre alt. Wie meist bei solchen Bränden in großer Höhe auf freiem Feld hatte die Feuerwehr so gut wie keine Chance, etwas zu unternehmen.

Feuer nur die Spitze des Eisbergs

Doch Schäden durch Feuer sind nur die Spitze des Eisbergs. So zitiert „Turbines on Fire“ Ergebnisse aus einem Bericht des Internationalen Verbandes der Engineering-Versicherer (IMIA) über Schäden an Windenergieanlagen im dänischen Markt, der einen Zeitraum von 15 Jahren umfasste. Dem Bericht zufolge lag der Anteil von Bränden bei lediglich 7 % der Schadenssumme. Rechnet man dies mit den berichteten 10 Ereignissen im Monat hoch, so kommt es jährlich zu rund 1700 Schadensereignissen im Zusammenhang mit Windenergieanlagen. Hiervon betreffen 40 % mechanische Ausfälle wie Rotorblattschäden, 28 % gehen auf das Konto der Elektrik (LOP=Loss of Power, Kurzschlüsse etc.), weitere 20 % sind auf Blitzeinschläge zurückzuführen, während Sturmschäden 4 % des Schadensaufkommens ausmachten [TOFI].

Erschreckend viele Todesfälle

Besonders wirksam ist offensichtlich der ideologische Schleier, den die Windkraft-Lobby mit tatkräftiger Mithilfe ihrer zahlreichen Sympathisanten in den Medien über die tatsächlich recht erheblichen Gefahren der Windenergie für Leib und Leben geworfen hat. Zwar erhalten Meldungen über Feuer oder den Absturz eines Rotorblatts auf lokaler Ebene eine gewisse Aufmerksamkeit, doch werden selbst schwere Personenschäden oder gar Todesfälle so selbstverständlich hingenommen, dass sich in der Öffentlichkeit der Eindruck verfestigt hat, als sei die Windkraftbranche gegen solche Vorkommnisse mehr oder weniger gefeit. Auch eine Schnellsuche im Internet mit Suchbegriffen wie „Wind Unfall“ fördert vordergründig zumeist lediglich Einzelmeldungen zutage, wobei nur selten Todesfälle gemeldet werden. Eine deutsche Website, die sich explizit des Themas Windrad-Unfälle annimmt [WIUN], ist lediglich ein Torso ohne großen Nutzen, weil sie offensichtlich schon kurz nach dem Beginn der Recherche nicht mehr weitergeführt wurde. Auch bei Wikipedia findet man – kaum verwunderlich angesichts der bekannten Dominanz grüner Ideologen in diesem Medium – nur eine sehr unvollständige Auflistung ohne Erwähnung von Todesfällen. Erst im englischsprachigen Netz findet sich eine recht gute Dokumentation [UNFA], welche für den Zeitraum von 1975 bis 30.9.2009 insgesamt 674 Einzelereignisse auflistet, die sehr sorgfältig nach Merkmalen zugeordnet, beschrieben und mit Quellenangaben dokumentiert sind. Leider befindet sich das Material hinter einer Bezahlschranke und wurde zudem ab Oktober 2009 nicht mehr fortgeführt. Für den Berichtszeitraum dokumentiert es jedoch immerhin 60 Todesfälle im Zusammenhang mit Windenergieanlagen. Vergleicht man dies mit anderen Zahlenangaben – z.B. den 1500 Unfällen innerhalb von fünf Jahren allein in Großbritannien –, so erscheint es gerechtfertigt, die Zahl der weltweit seit 1975 aufgetretenen Todesfälle mit einem Faktor von mindestens 5, eher jedoch 10 anzusetzen. Es darf daher angenommen werden, dass die Windenergie im Zeitraum von 1975 bis heute mindestens 300 und möglicherweise sogar bereits über 600 Menschenleben gefordert hat. Das Saubermann-Image der Branche bricht damit in sich zusammen und erweist sich als nichts anderes denn als geschicktes Lügengebäude.

Fred F. Mueller

[FIR1] http://www.wind-watch.org/video-germanfire.php

[FIR2] http://www.youtube.com/watch?v=54YOaQixRUo

[FIR3] http://www.youtube.com/watch?v=eQrtXx3aJdM

[TOFI] http://turbinesonfire.org/

[INGD] http://www.ingenieur.de/Fachbereiche/Windenergie/Unterschaetzte-Gefahr-Jeden-Monat-geraten-zehn-Windturbinen-in-Brand

[FTOD] http://www.epaw.org/multimedia.php?lang=en&article=a19

http://www.rtlnieuws.nl/nieuws/binnenland/monteur-overleden-bij-brand-windmolen-ooltgensplaat

[UNFA] http://de.scribd.com/doc/23856814/Wind-Turbine-Accidents

[WIUN] http://docs.wind-watch.org/unfalldatei_2006.html