1

Extrem-Wetter-Hysterie … und kein Ende !? Oder neues aus der Anstalt!

Man muß genau hinschauen:

Es handelt sich (wieder mal) fast ausschließlich um Zukunfts-Projektionen,sgn. Modell-Szenarien, also noch nicht einmal um – "nur" unsichere – "Prognosen",   sondern um Modell-Spekulationen, die für Entscheidungen mit teueren Folgen für die Bevölkerung unbrauchbar sind !Die Realitäten sehen soundefined aus. oder undefinedso, oder undefinedso, oder undefinedso, oder undefinedso

Sogar IPCC und die Medien mußten im Dez. 2011 nach einem IPCC-Sonderbericht vor der Klima-Konferenz in Durban eingestehen, daß es weltweit keine signifikanten Trends zu mehr Extrem-Wetter undefinedgibt:

Dabei ist es so einfach: Alle IPCC-Berichte sind aus dem Internet frei herunterladbar (allerdings nur in englischer Sprache). Bereits im IPCC-Bericht des Jahres 2001 ist das umfangreiche Kapitel 2.7 "Has Climate Variability, or have Climate Extremes Changed"? dem Problem der Extremwetterzunahme gewidmet. Ergebnis: Nichts maßgebendes aufzufinden! Dann wieder in 2011 der IPCC-Bericht für Politiker mit exakt der gleichen Aussage (s. hierzu auch die EIKE-News vom 9.12.2011 mit dem Titel "Der aktuelle Extremwetterbericht – kommentiert von den Klimaforschern Judith Curry und Hans von Storch"). Das IPCC spricht stets nur von Zukunftsereignissen aus der Kristallkugel seiner "Klimamodelle". Die Verlässlichkeit dieser Kristallkugel ist dann wieder ein anderes Thema.

Aktuell wird die Münchner Rück zitiert (NZ 21.03.2012, S.8): 

"Die Daten in unserer Natur-Katastrophen-Datenbank zeigen ganz eindeutig:    Die Anzahl der wetterbedingten Naturkatastrophen in Deutschland hat sich seit 1970 mehr als    verdreifacht" und w.a.a.O.: "Ohne den Klimawandel sei dies "vermutlich" nicht zu erklären…".    

Interessant dabei, daß die NZ das Wort "vermutlich" in Anführungs-Strichelchen setzt. Aus gutem Grund, denn bei genauerem Hinsehen weist auch die Münchener Rück selbst immer wieder darauf hin – wie auch andere Rück-Versicherer  – daß die eigentlichen Ursachen steigender Schäden ganz woanders zu finden sind, nämlich in den sich verändernden "sozio-ökonomischen" Randbedingungen :

"… der Hauptgrund für die markant steigenden Schadensummen durch Naturkatastrophen (ist) in den sozio-ökonomischen Bedingungen (Wertekonzentration und Besiedlung exponierter Regionen, Bevölkerungszunahme, höhere Schadenanfälligkeit) zu suchen."(Quelle: Münchener Rückversicherung, T. Grimm, "Starke Zunahme der Schäden durch Hurrikane"; in: WETTERmagazin 04/2006, Extremwetter-Kongreß HH, S.31).

Dazu ausführliche Begründungen und Zitate  undefinedh i e r:

Ob MünchnerRück, SWISS-Re oder andere … bei genauem Hinsehen bleibt bei den steigenden Schädenfür die "Klima-Katastrophe" nicht viel übrig:

Übrigens  –  bezüglich einer angeblich "verdreifachten Anzahl der wetterbedingten Naturkatastrophen" argumentiert die MünchnerRück offensichtlich gegen ihre eigenen Statistiken, zumindest gegen diejenigen, die sie noch im Vorjahr selber publiziert hat:

 

Wie schreibt doch der bekannte Klima-Forscher Hans von Storch ganz richtig:

“Ein recht bekanntes Bild zeigt die Abb.3 (Anm.: in der Quelle), in der die zunehmenden Schadenskosten aufgrund extremer Wetterereignisse dargestellt werden. Der größte Anteil steht mit Stürmen in Verbindung. Beim ersten Betrachten könnte man versucht sein, die Abbildung als Beweis zu akzeptieren, daß es immer häufigere oder heftigere extreme Wetterlagen gäbe.  Aber dieses ist nicht der Fall … Ein unverändertes Sturmklima geht einher mit deutlich höheren Schäden als früher. Abb.3 ist also zuallererst eine Darstellung des zunehmenden Wohlstandes … derartige Diagramme stammen aus der Versicherungsindustrie, die natürlich keine Einwände gegen den Eindruck eines erhöhten Wetterrisikos haben kann, verbessert dies doch die Marksituation.“

(Quelle: Prof. Dr. Hans von Storch, Veränderliches Küstenklima, Mitt. OVR 61, 6 (2006), S.227-240, vgl. auch Abb.3, S. 239.

KE Puls EIKE

Dazu passend die jüngste Pressemitteilung aus dem Potsdam Institut für Klimaforschungsfolgen PIK:

Neues aus der Anstalt :

Pressemitteilung des Potsdam-Instituts für Klimafolgenforschung (PIK) 23.03.2012

SPERRFRIST bis einschließlich 25. März, 19.00 Uhr
Wetterrekorde als Folge des Klimawandels: Ein Spiel mit gezinkten Würfeln

Das vergangene Jahrzehnt war eines nie dagewesener Wetterextreme. Dass diese Häufung nicht einfach nur Zufall ist, belegen jetzt Wissenschaftler des Potsdam-Instituts für Klimafolgenforschung (PIK). Aus den vielen einzelnen Ereignissen fügt sich ein Bild zusammen. Zumindest bei extremen Regenfällen und extremen Hitzewellen ist der Zusammenhang mit der vom Menschen verursachten globalen Erwärmung deutlich, so zeigen die Wissenschaftler in ihrer Analyse des Forschungsstands in der Fachzeitschrift Nature Climate Change. Weniger klar ist dagegen der Zusammenhang bei Stürmen, trotz der beobachteten Zunahme der Stärke von Hurricans.

Allein 2011 gab es in den USA 14 Wetterextreme, von denen jedes Kosten in Höhe von mehr als einer Milliarde Dollar verursachte – in mehreren Bundesstaaten waren die Monate Januar bis Oktober die nassesten, die dort jemals gemessen wurden. Aber auch in Japan gab es Rekord-Regenfälle, und im Becken des chinesischen Jangtse-Flusses Rekord-Trockenheit. Ähnlich in den Jahren zuvor. 2010 erlebte Westrussland den heißesten Sommer seit Jahrhunderten, und Pakistan und Australien Spitzenwerte bei den Niederschlägen. 2003 war in Europa der heißeste Sommer seit mindestens einem halben Jahrtausend. Und 2002 fiel auf die Wetterstation von Zinnwald-Georgenfeld im Erzgebirge an einem Tag mehr Regen als in Deutschland je zuvor gemessen wurde – hierauf folgte die Jahrhundertflut der Elbe.

„Die Frage ist, ob diese Wetterextreme Zufall oder eine Folge des Klimawandels sind“, sagt Dim Coumou, Haupt-Autor des Artikels. „Im Einzelfalls lässt sich die Erderwärmung als Ursache meist nicht dingfest machen – in der Summe aber wird der Zusammenhang mit dem Klimawandel deutlich.“ Dies hat seine Untersuchung von Daten und Studien ergeben.  „Das Ganze ist keine Frage von Ja oder Nein, sondern eine Frage von Wahrscheinlichkeiten“, erklärt Coumou. Die Häufung von Wetterrekorden, sagt er, ist nicht mehr normal.

„Es ist wie ein Spiel mit gezinkten Würfeln“, so Coumou. „Eine Sechs kann es auch so ab und zu mal geben, und man weiß nie, wann das passiert. Aber jetzt gibt es viel öfter die Sechs. Weil wir den Würfel verändert haben.“ Die vergangene Woche illustriert dies: In Nordamerika wurden allein zwischen dem 13. und 19. März an mehr als eintausend Orten historische Wärmerekorde übertroffen.

Dabei stützen die Forscher ihre Analyse auf gleich drei Pfeiler: elementare Physik, statistische Analyse und Computersimulationen. Bereits grundlegende physikalische Prinzipien legen nahe, dass die Erwärmung der Atmosphäre zu mehr Extremen führt. So kann warme Luft mehr Feuchtigkeit halten ( aufsteigende IR-Wärme entzieht der Luft die Feuchtigkeit sehen Sie Miskolczi-Diagramm = Verdoppelung des C02-Gehaltes ergibt eine Annahme der Feuchtigkeit um 3% (HHüne) ), bis diese plötzlich abregnet. Zweitens ließen sich statistisch in den Temperatur- und Niederschlagsdaten klare Trends finden, wie die Forscher erklären. Und drittens bestätigen auch detaillierte Computersimulationen den Zusammenhang zwischen Erwärmung und Rekorden bei Temperatur und Niederschlag.

Tropenstürme – je nach Region Taifune oder Hurricans genannt – sollten bei wärmeren Wassertemperaturen zwar stärker werden, aber nicht häufiger, so der Stand des Wissens. Im abgelaufenen Jahrzehnt sind mehrere Rekordstürme aufgetreten, beispielsweise Hurrican Wilma 2004. Allerdings sind die Zusammenhänge komplex und teils noch nicht entschlüsselt. Die beobachtete starke Zunahme der Intensität von Tropenstürmen im Nordatlantik 1980 bis 2005 etwa könnte neben der globalen Erwärmung auch eine Abkühlung der obersten Luftschichten als Ursache haben. Zudem sind die historischen Daten teilweise nicht genau genug.

Kälte-Extreme nehmen mit der globalen Erwärmung insgesamt ab, fanden die Forscher. Allerdings gleiche dies nicht die Zunahme der anderen Extreme aus. 

„Einzelne Wetterextreme haben oft mit regionalen Prozessen zu tun, wie einem blockierten Hochdruckgebiet oder natürlichen Phänomenen wie El Niño“, sagt Stefan Rahmstorf, Ko-Autor des Artikels und Leiter des Forschungsbereichs Erdsystemanalyse des PIK. „Das sind komplexe Prozesse, die weiter erforscht werden. Aber diese Prozesse entfalten sich jetzt vor dem Hintergrund einer globalen Klimaerwärmung. Und die kann dann aus einem Extremereignis ein nie zuvor beobachtetes Rekordereignis machen.“
Artikel: Coumou, D., Rahmstorf, S. (2012): A Decade of Weather Extremes. Nature Climate Change [DOI: 10.1038/NCLIMATE1452]

Weblink zum Artikel, wenn er veröffentlicht ist:http://dx.doi.org/10.1038/NCLIMATE1452  

Und noch etwas aus dem Tollhaus: 

Meteorologen erklären 2011 zum wärmsten La-Niña-Jahr

Auszug (kompletter Link hier):

Die Messungen zeigten, dass "der Klimawandel jetzt stattfindet und nicht eine Gefahr in irgendeiner fernen Zukunft ist", sagte WMO-Generalsekretär Michel Jarraud. "Die Welt erwärmt sich aufgrund menschlicher Aktivitäten und das hat weitreichende und potentiell nicht rückgängig zu machende Auswirkungen auf unsere Erde, die Atmosphäre und die Ozeane", sagte er.




Der Graben zwischen Monckton und einem Geowissenschaftler und Aktivisten am Union College

Die Meinung eines Lords kann mit der wissenschaftlichen Wahrheit nicht mithalten

Foto rechts: Erin Delman (links), Präsidentin des Environmental Club, diskutiert mit Monckton (Foto von Charlotte Lehman) plus: der Vorsitzende des Fachbereichs und Professor der Geologie  Donald Rodbell (rechts) befragt Lord Christopher Monckton auf der Veranstaltung über die „andere Seite“ der globalen Erwärmung (Foto von Rachel Steiner, Concordiensis)

Von Donald Rodbell und Erin Delman in Opinions | March 7, 2012

Als Geowissenschaftler sind wir zerrissen. Die Republikaner am College sowie das Committee for a Constructive Tomorrow (CFACT) empfingen Lord Monckton, einen weltweit anerkannten Klimaskeptiker am 5. März, und wir waren ziemlich unsicher, wie wir darauf reagieren sollten. Im Klartext, unsere Gefühle schwankten zwischen äußerster Empörung und reinem Zorn [between utter disgust and sheer anger]. Einerseits erschien es aberwitzig, Lord Monckton nur eine Sekunde zu geben oder nur einen einzigen Gedanken an ihn zu verschwenden. Andererseits jedoch bestand das Risiko, dass eine Ablehnung seines Auftritts Eindruck machen würde, noch dazu einen gefährlichen.

Und daher haben sich die Umweltaktivisten des Colleges – einschließlich Mitglieder des Umweltclubs, die Leiter und Mitglieder von U-Sustain, besorgte Bürger und renommierte Wissenschaftler mit PhD aus prestigeträchtigen Institutionen – entschlossen, gegen die Anwesenheit Lord Moncktons auf unserem Campus zu opponieren.

Lord Monckton steht mit seinen Gedanken in dieser Sache nicht allein: allerdings sind überwältigende 97% der Wissenschaftler gegen seine Ansichten. Er besteht weiterhin darauf, dass diese Debatte einem rigorosen wissenschaftlich basierten Schema folgen muss, und dass der Konsens der Experten als solcher eine ungenügende Basis ist, auf der man über die Wahrhaftigkeit der Beweise für eine signifikante, vom Menschen beeinflusste Erwärmung befinden könne.

Eine ernsthafte wissenschaftliche Debatte kann weder in der Blogosphäre noch in hochbezahlten und politisch motivierten Präsentationen geführt werden, weder von Lord Monckton noch von Al Gore. Tatsache ist, dass die Wissenschaft gesprochen hat, und die überwältigende Masse der Beweise hat sehr, sehr klar gezeigt, dass die globale Erwärmung im Gange ist und zumindest zum größten Teil vom Menschen verursacht ist. Während ein wissenschaftlicher Konsens falsch sein kann, ist er es meistens nicht.

(Ende der Auszüge)

===============================================================

Seufz, da ist sie wieder, diese lächerliche Zahl von 97%. Man würde denken, dass diese „gebildeten“ Leute sich die Mühe machen würden, solche Dinge zu hinterfragen, bevor sie sie geistlos wieder hervor würgen und sich zu Schmeichlern degradieren. Und dann dies: „Eine ernsthafte wissenschaftliche Debatte kann nicht in der Blogosphäre geführt werden…“. Nun, dann sagen Sie BITTE RealClimate, damit aufzuhören, genau das zu tun, und zwar auf Kosten der Steuerzahler.

Es scheint, dass Erin Delman alles tut, um zu einer  professionellen, umwelt-legalen Unruhestifterin zu werden…

Sie ist daran interessiert, einen kombinierten PhD und einen juristischen Grad in Geologie und der Umweltgesetzgebung zu erlangen. Und sie überdenkt eine Karriere in Umweltpolitik, besonders wenn es um Wasserrechte geht.

…also denke ich, dass man über diesen Artikel nicht überrascht sein sollte. Mit diesem kalifornischen Hintergrund und den verletzten Wasserrechten sage ich voraus, dass sie bald am Pacific Institute die Mission eines Gleick ergänzen wird.

Der ganze Artikel steht hier: A lord’s opinion can’t compete with scientific truth

===============================================================

Monckton antwortet in Kommentaren auf diesen Artikel:

Monckton of Brenchley | Permalink

Oh, reden Sie doch keinen Unsinn, Professor!

Von Christopher Monckton of Brenchley

Professor Donald Rodbells persönlicher Angriff auf mich in Concordiensis verdient eine Antwort. Der Professor scheint nicht sehr erpicht auf die Redefreiheit zu sein: Nachdem er davon erfahren hatte, dass ich vor Studenten am Union College einen Vortrag halten würde, sagte er, dass seine „Gefühle schwankten zwischen äußerster Empörung und reinem Zorn“. Mann, oh Mann!

Der Professor sollte sich an das erste Gebot der Verfassung der Vereinigten Staaten erinnern: „Der Kongress sollte kein Gesetz verabschieden…, welches die Redefreiheit einschränkt“. Ich habe von der Redefreiheit am Union College Gebrauch gemacht. Der Professor mag anderer Ansicht sein (obwohl sein Artikel beklagenswert verschwommen daher kommt, mit welchen Punkten meines Vortrages – wenn überhaupt – er nicht übereinstimmt); aber laut Verfassung darf er nicht mein Recht in Abrede stellen oder einschränken, es zu sagen.

Er und seine ihm folgenden Klimaextremisten hätten daher nicht davon sprechen sollen, „gegen die Präsenz Lord Moncktons zu opponieren“, weil das meine Redefreiheit einschränken würde. Es wäre fair von dem Professor gewesen, darüber zu reden, gegen meine Argumente zu opponieren – und komischerweise ist es genau das, was in dem Artikel bei Concordiensis vollständig fehlt.

Der Professor sagt, es ist sicher, dass „sich die Welt erwärmt, dass sich die Klimaverhältnisse ändern und dass die Menschen eine treibende Kraft dabei sind“. Diese drei Feststellungen wollen wir einmal näher beleuchten.

– Die Welt erwärmt sich gegenwärtig nicht. Sie hat sich seit fast eineinhalb Jahrzehnten nicht erwärmt, obgleich es jetzt wärmer ist als im Jahre 1695. Während der 40 Jahre bis 1735, sogar bevor die industrielle  Revolution begonnen hatte, ist die Temperatur in Zentralengland (keine schlechte Proxy für die globale Temperatur) um 4°F (ca. 2°C) gestiegen, verglichen mit dem 1°F (ca. 0,5°C) im gesamten 20. Jahrhundert.

– Die Klimaverhältnisse ändern sich tatsächlich. Aber sie haben sich seit 4567 Millionen Jahren verändert, und das werden sie auch bis in ferne Zukunft noch tun. Allerdings sagt uns die Tatsache der Klimaveränderungen nichts über deren Ursache.

– Die Menschen üben tatsächlich einigen Einfluss aus. Tatsächlich habe ich im Gegensatz zu anders lautenden Behauptungen des Professors explizit in meinem Vortrag darauf hingewiesen, dass das IPCC recht haben könnte, wenn es sagt, dass mehr als die Hälfte der Erwärmung seit 1950 durch uns verursacht worden ist. Allerdings sagt uns das wenig darüber, eine wie starke Erwärmung wir in Zukunft erwarten können. Meine beste Schätzung lautet, dass das CO2, das wir der Atmosphäre zuführen, bis zum Jahr 2100 zu einer Erwärmung um 1°C führen wird. Aber das liegt nicht weit entfernt von der zentralen Schätzung des IPCC von 1,5°C.

Als nächstes behauptet der Professor ohne jeden Beweis, dass „97% der Wissenschaftler überwältigend gegen (Moncktons) Ansichten sind“. Abgesehen von der Doppelaussage (das Wort „überwältigend“ hätte nicht kommen dürfen), gab es meines Wissens keine Übersicht darüber, wie viele Wissenschaftler oder wie viel der öffentlichen Meinung gegen meinen Standpunkt sind. Ich weiß von zwei Umfragen, in denen 97% der Wissenschaftler erklären, dass sich die Welt während der letzten 60 Jahre erwärmt habe, aber in dieser Hinsicht stimmen sie mit meinem Standpunkt überein. Es gab aber keine Umfrage, die ergeben hat, dass 97% der Wissenschaftler mit der viel extremeren Version des IPCC übereinstimmen, dass ungebremste CO2-Emissionen sehr wahrscheinlich zu einer gefährlichen globalen Erwärmung führen. Und selbst wenn es eine solche Erhebung gegeben hätte –  die Ansicht, dass Wissenschaft durch eine derartige Erhebung stattfindet, ist die logische Täuschung des argumentum ad populum [Wikipedia: Argumentum ad populum (lateinisch argumentum ad populum ‚Beweisrede für das Volk‘) bezeichnet eine rhetorische Taktik, bei der etwas als wahr behauptet wird, weil es der Meinung einer relevanten Mehrheit von Personen, z. B. der öffentlichen Meinung entspricht. A. d. Übers.] Diese Täuschung wurde zum ersten Mal von Aristoteles vor 2300 Jahren beschrieben, und es ist deprimierend zu sehen, dass ein Professor das heute immer noch ausführt.

Wissenschaft wird nicht betrieben, indem man die Anzahl der Wissenschaftler ermittelt. Sie wird betrieben durch Messungen, Beobachtungen und Experimente, sowie durch Anbringen etablierter Theorien an die Ergebnisse. Bis Einstein haben 100% aller Wissenschaftler geglaubt, dass Raum und Zeit unveränderlich seien. Sie lagen alle falsch. So viel zum Stichwort Konsens.

Als nächstes meinte der Professor, ich mache „zahlreiche Ungenauigkeiten und Falschbehauptungen“. Und doch spricht er nicht eine einzige in seinem Artikel an, der in Wirklichkeit zu einer bloßen Handbewegung mutiert. Dann behauptet er, ich habe „kein wie auch immer geartetes Interesse daran, einer echt wissenschaftlichen Vorgehensweise zu folgen“. Wer zugegen war, wird jedoch gemerkt haben, dass ich große Mengen von Daten und Analysen präsentiert habe, die zeigen, dass die grundlegenden Schlussfolgerungen aus jedem der vier IPCC-Klimabehauptungen fehlerhaft sind; dass die durch Verdoppelung des CO2-Gehaltes zu erwartende Erwärmung 1°C betragen wird; und dass – selbst falls man eine Erwärmung im 21. Jahrhundert um 3°C zugrunde legt – es 10 bis 100 mal billiger und kosteneffektiver ist, jetzt nichts zu tun und sich schwerpunktmäßig später anzupassen als zu versuchen, die Erwärmung durch Kontrolle des CO2 anzuhalten.

Der Professor fährt fort, dass „das Fundament aller Wissenschaft begutachtete Veröffentlichungen sind”. Nein: nur rigoroses Denken ist der Eckpfeiler der Wissenschaft. Das ist es ja, was in der Vorgehensweise des IPCC fehlt. Alle seine grundlegenden Schlussfolgerungen basieren auf Modellierungen. Und nicht eines dieser Modelle jedoch, auf die sich das IPCC verlässt, ist wissenschaftlich begutachtet. Auch ist irgendeines der IPCC-Dokumente nicht in akzeptierter Weise begutachtet. Es gibt Gutachter, aber den Autoren wird gestattet, sie zu überstimmen, und das ist in keiner Weise Begutachtung. Darum auch ist der grobe Fehler hinsichtlich des angenommenen Verschwindens der Himalaya-Gletscher bis 2035 nicht korrigiert worden. Schlimmer noch, fast ein Drittel aller im 4. Zustandsbericht 2007 aufgeführten Referenzen war ebenfalls nicht begutachtet worden. Sie wurden von  Umweltaktivisten, Journalisten und sogar Studenten geschrieben. Das ist nicht gut genug.

Als nächstes sagt der Professor, dass ich „fundamental unwissenschaftlich“ sei, weil ich meine eigene Analyse der „globalen Erwärmung“ nicht in einem begutachteten Journal veröffentlicht habe. Und doch hat er nie Al Gore in die Verantwortung genommen, der ebenfalls niemals irgendetwas in einem begutachteten Journal veröffentlicht hat. Warum dieses Messen mit zweierlei Maß? Das Wichtigste wäre mit Sicherheit die Zerschlagung des IPCC, dessen Vorgehen – mit dem eigenen Begutachtungstest des Professors – „fundamental unwissenschaftlich“ ist.

Der Professor fährt fort und sagt, dass es „unmöglich sei, (Moncktons) Methoden, seine Berechnungen und Schlussfolgerungen ohne eine vollständige und detaillierte begutachtete Veröffentlichung eingehend zu prüfen, in der die wichtigen Details erläutert werden“. Das Gegenteil ist richtig: Meine Bilder sind öffentlich verfügbar und zeigen präzise, wie ich zu meinen Schlussfolgerungen gekommen bin, mit zahlreichen Referenzen begutachteter Literatur und der (nicht begutachteten) Zustandsberichte des IPCC.

Als nächstes sagt der Professor, dass mir „ziemlich substantielle Fehler“ im Union College vorgehalten worden sind. Und doch war ich in der Lage, alle vorgebrachten Punkte zu beantworten: und der Professor sagt hier ebenso wie anderswo nicht im Einzelnen, welche „Fehler“ ich gemacht haben soll. Ich habe auf einige sehr ernste Fehler in den Dokumenten des IPCC hingewiesen: Warum schaut der Professor in die andere Richtung, wenn er mit diesen „offiziellen“ Fehlern konfrontiert wird? Auch hier scheinen verschiedene Maßstäbe angelegt zu werden.

Der Professor endet mit den Worten, dass „die Wissenschaft gesprochen habe“ und dass „ein wissenschaftlicher Konsens zwar falsch sein kann, dies aber meistens nicht ist“. Nun, der Konsens der Eugenik in den zwanziger Jahren, demzufolge Menschen wie Rennpferde gezüchtet werden müssen, um das Erbe zu verbessern, war fast universal unter den Wissenschaftlern, aber er war falsch und führte direkt zu den Todeszügen nach Oswiecim und Treblinka. Der Lysenko-Konsens der vierziger und fünfziger Jahre, demzufolge das Austreiben von Saatgut durch das Tränken mit Wasser während des Winters verbessert werden könne, zerstörte 20 erfolgreiche Ernten in der Sowjetunion und tötete 20 Millionen des Proletariats. Der Konsens zur Verbannung von DDT in den sechziger Jahren hat zu 40 Millionen Malariatoten, vor allem Kindern geführt (die Zahl steigt immer noch), davon allein im vergangenen Jahr 1,25 Millionen. Der Konsens zu AIDS [the don’t-stop-AIDS consensus] der achtziger Jahre tötete 33 Millionen, mit weiteren 33 Millionen, die sich angesteckt haben und auf den Tod warten.

Der Klima-„Konsens” tötet ebenfalls Millionen, und zwar durch die Umverteilung von Milliarden Dollar, ursprünglich gedacht für die Armen, zur Bereicherung von Regierungen, Bürokraten, Bankiers, Landbesitzern, Windparkbetrügern und umweltlicher Geschäftemacher – und um der Dritten Welt den Zugang zu Energie aus fossilen Treibstoffen zu verwehren, die sie so dringend braucht. Es ist Zeit, das Töten zu beenden. Wenn ich für eine vernünftigere und wissenschaftlich basierte Politik eintrete, um das Abschlachten unserer Mitbürger auf diesem Planeten zu beenden, werde ich das weiterhin tun, ob der Professor das nun mag oder nicht.

Er sollte sich durch und durch über sich selbst schämen!

Link: http://wattsupwiththat.com/2012/03/17/monckton-in-a-rift-with-union-college-earth-scientists-and-activists/

Übersetzt von Chris Frey EIKE

*Im Original steht wirklich das deutsche Wort „angst“. A. d. Übers.




Energiewende wirkt: EU will Wohnhäuser zwangssanieren lassen

Update 29.3.12: Mail des EU-Parlamentariers Herbert Reul (s.U.).

Es handelt sich ja nur um einen wohlwollend in Kauf genommener Kollateralschaden der Ideologie von der menschgemachten Klimakatastrophe, die vorgibt nur das Beste für die zukünftigen Generationen zu wollen. Die katastrophalen Schäden dieser Politik wird mit jedem Tag klarer. Die Welt schreibt dazu:

Die EU will mit einer Richtlinie den Energieverbrauch von Wohnhäusern stark senken. Den Besitzern drohen Kosten von mehr als 100.000 Euro.

Das EU-Parlament wolle die energetische Sanierung von Wohngebäuden massiv vorantreiben, sagt Ingrid Vogler vom GDW Bundesverband deutscher Wohnungs- und Immobilienunternehmen. Deshalb seien sehr scharfe Vorgaben in den Richtlinienentwurf aufgenommen worden…

Nach dem Entwurf der EU-Richtlinie müssten Immobilien, die bis Ende 2010 nach der EnEV 2009 errichtet wurden, nun so aufwendig saniert werden, dass der Verbrauch auf nur noch 1,4 Liter Heizöl pro Quadratmeter und Jahr sinkt.

Sollte dieser Wert Standard werden, kämen auf Besitzer älterer Häuser noch weit höhere Kosten zu. Das zeigen Berechnungen der Bundesvereinigung Spitzenverbände der Immobilienwirtschaft (BSI). Danach sind Investitionen von mehr als 110.000 Euro nötig, um den Energieverbrauch für Heizung und Warmwasser in einem in den 50er-Jahren errichteten Einfamilienhaus auf einen derart niedrigen Verbrauch zu bringen….

…Selbst wenn die Heizkosten durch die Sanierung um 2500 Euro pro Jahr gesenkt werden, würde es bei einem Kostenvolumen von 110.000 Euro mindestens 44 Jahre dauern, bis die Investition durch die Einsparungen beim Öl- oder Gasverbrauch wettgemacht sind…

…Tatsächlich dürften sogar mehr als 60 Jahre verstreichen, bis sich die Aufwendungen rentieren, weil die meisten Besitzer die Sanierung nicht ohne einen Kredit stemmen können und deshalb zusätzlich noch Zinsen abtragen müssen.

Mail des EU-Parlamentariers Herbert Reul:

Sehr geehrter Herr Limburg,
 
mit Interesse verfolge ich die Aktivitäten des EIKE. Ich finde es wichtig, dass die oft sehr einseitige Klimadebatte auch von einer anderen Seite betrachtet wird.
 
Zu der unten aufgegriffenen Meldung der WELT vom 22.03.2012, dass die EU Wohnhäuser zwangsanieren möchte, folgendes:
 
Es ist richtig, dass das Europäische Parlament über die Energieffizienzrichtlinie abgestimmt hat, aber falsch, dass in dem Text die Zwangssanierung gefordert wird. Dies war eine Forderung des grünen Berichterstatters Claude Turmes, ist aber durch den Einsatz der Fraktion der Europäischen Volkspartei (EVP, aus Deutschland CDU und CSU) entschärft worden. Der beschlossene Text des Parlaments erhält nur noch die Empfehlung, Wohnhäuser zu sanieren, aber keine Verpflichtung mehr. Endgültig ist jedoch noch nichts, denn der Rat, also die EU-Mitgliedstaaten, muss sich noch mit dem EP auf einen endgültigen Text einigen. Ich habe die Hoffnung, dass die Regierungen etwas  realitätsnähere Positionen vertreten, als manch einer meiner Abgeordnetenkollegen aus dem grünen Spektrum.
 
Mit freundlichen Grüßen
 
Herbert Reul MdEP
 
 




Das Ende des Ökologismus: Die Autopsie

Power Line: Anknüpfend an den Beitrag von gestern über das langsame, qualvolle Sterben der Öko-Bewegung: hätte das jemand voraussagen können? Tatsächlich hat das jemand getan, und zwar zu Beginn des modernen Ökologismus, so um den ersten Earth Day herum. Der Politikwissenschaftler Anthony Downs stellte seine Theorie des “issue-attention cycle” (Zyklus der medialen Aufmerksamkeit) in einem zum Klassiker gewordenen Artikel 1972 in der Quartalszeitschrift The Public Interest vor, in dem er die fünf Stufen darstellt, die praktisch alle Themen in ihrem medialen Leben durchlaufen. Ausdrücklich sagte Downs voraus, dass der Umweltthemen-Zyklus länger als gewöhnlich dauern würde.

Der Zyklus der medialen Aufmerksamkeit wird eingeleitet durch Experten und Interessengruppen, die ein Problem oder eine Krise thematisieren, worauf dieses Thema bald danach alarmiert von Nachrichtenmedien und breiteren politischen Kreisen aufgegriffen wird. Diese zweite Stufe ist typischerweise geprägt durch euphorischen Enthusiasmus — man könnte sie die „Dopamin-Stufe“ nennen — in der Aktivisten das Thema unter den Gesichtspunkten globaler Rettung und Erlösung wahrnehmen. Einer der größten Schwachpunkte des Ökologismus von Anfang an war dieses Wahrnehmen: nicht als ein praktisches Problem öffentlicher Gesundheit oder öffentlichen Ärgernisses, sondern – aus Al Gores Sicht – als ein Ausdruck tiefer spiritueller und sogar metaphysischer Probleme, die sich aus unserer „disfunktionalen Zivilisation“ ergeben. Diese Leute wollen nicht unseren Auspuff reinigen; sie wollen unsere Seelen reinigen.

Die dritte Stufe ist der Dreh- und Angelpunkt. Wie Downs erläutert, setzt sich “schrittweise die Erkenntnis durch, dass die Kosten zur ‘Lösung’ des Problems exorbitant hoch sein werden.“ Auf dieser Stufe befinden wir uns seit dem in Kyoto vorgeschlagenen, vollkommen unrealistischen Kurzfrist-Einsparungen bei fossilen Energieträgern als einzigem Heilmittel gegen den Klimawandel — einer fanatischen Monomanie, welcher die Kampagne für den Klimaschutz unerschütterlich nachhängt und die die Öko-Bewegung aufgezehrt und ihren Tod beschleunigt hat. Rückblickend lässt sich heute die Ironie erkennen, die darin liegt, dass die offene Weigerung von Präsident George W. Bush, die Kyoto-Regelungen anzunehmen, der Klima-Kampagne mit der Allzweck-Ausrede des mangelnden „Fortschritts“ zum Weiterleben verhalf. Jetzt, wo Bush weg ist, lassen sich die immanenten Schwächen der Farce zur CO2-Reduzierung nicht mehr verstecken.

„Die vorhergehende Stufe“, führt Downs aus, „gleitet kaum wahrnehmbar in eine vierte Stufe über: ein schrittweises Abnehmen der Intensität des Interesses der Öffentlichkeit an diesem Problem. In der letzten [Nach-Problem-] Stufe“, fährt Downs fort, „geht ein Thema, das aus dem Zentrum des öffentlichen Interesses gerückt ist, in den Zustand eines verlängerten Übergangsstadiums über — einem Gebiet des Zwielichts aus weniger Beachtung und sprunghaftem Wiederaufflammen des Interesses.“

Das Todesröcheln des Ökologismus wird ohrenbetäubend sein. Es ist zuviel politische Eigendynamik und fanatische Hingebung im Spiel, als dass dies still und leise vonstatten gehen könnte. Das Öko-Establishment ist ein Milliardengeschäft und es gibt eine Menge einfältig-schuldbewußter reicher Leute, idiotischer Hollywood-Berühmtheiten und Direktwerbungsopfer, so dass die Agitationsmaschinerie noch für viele Jahre weiterlaufen kann. Die Architektur der Umweltgesetze und –regulierungen, die administrative Eigendynamik der Umweltministerien, all das stellt sicher, dass diese Zombie-Bewegung der Wirtschaft weiterhin und über für viele Jahre hinweg großen Schaden zufügen kann. Aber machen wir uns nichts vor — es ist nur ein Haufen hirntoter Zombies, die uns heute mit der Öko-Bewegung gegenüberstehen.

Benny Peiser

dankend übernommen von ACHGUT

Als Todesursache in der amtlichen Sterbeurkunde lässt sich vermerken: „Selbstmord, verschuldet durch Hybris“.

Übersetzung aus dem Englischen H.B.




Aktualisierung von Scafettas Vorhersage

Das vorgeschlagene astronomisch basierte empirische Modell präsentiert eine alternative Methode, um Klimaänderungen zu rekonstruieren und vorherzusagen (derzeit im globalen Maßstab); und zwar alternativ zu der analytischen Methode, die in den allgemeinen Zirkulationsmodellen des IPCC enthalten ist. In meiner Studie habe ich bewiesen, dass alle Modelle des IPCC dabei versagt haben, alle dekadischen und multidekadischen Zyklen zu rekonstruieren, die in den Temperaturaufzeichnungen seit 1850 beobachtet worden waren. Für Details siehe meine unten gelisteten Veröffentlichungen.

Wie die Abbildung (rechts) zeigt, betrug die Temperatur im Januar 2012 0,218°C, was verglichen mit der Temperatur von Dezember 2011 eine Abkühlung darstellt. Außerdem liegt der Wert um 0,5°C unter dem Wert der mittleren IPCC-Projektion (der dünnen Kurve in der Mitte der grünen Zone). Man beachte, dass dies eine sehr signifikante Diskrepanz zwischen den Daten und der IPCC-Projektion ist.

Im Gegensatz dazu sind die Daten weiterhin in guter Übereinstimmung mit meinem empirischen Modell, was, wie ich erinnern möchte, als eine vollständige Vorhersage seit Januar 2000 konstruiert worden ist.

Tatsächlich werden die Amplituden und Phasen der vier Zyklen wesentlich auf der Basis von Daten von 1850 bis 2000 bestimmt, und die Phasen befinden sich in angemessener Übereinstimmung mit astronomischen Orbitaldaten und Zyklen, während die korrigierte Projektion der anthropogenen Erwärmung abgeschätzt wird durch den Vergleich des harmonischen Modells mit den Temperaturdaten und den IPCC-Modellen von 1970 bis 2000. Letzteres impliziert, dass die allgemeinen Zirkulationsmodelle des IPCC die Komponente der anthropogenen Erwärmung um den Faktor 2,6 überschätzt haben, mit einer Bandbreite von 2 bis 4. Siehe die Originalstudien und den Blogbeitrag (unten).

Das Widget zog auch manche Kritik einiger Leser von WUWT sowie von skepticalscience auf sich.  

Anthony Watts fragte mich, ob ich auf diese Kritiken antworten wolle, und das mache ich sehr gern. Ich möchte auf fünf Punkte eingehen.

1. Kritik von Leif Svalgaard

Wie viele Leser dieses Blogs bemerkt haben, hat Leif Svalgaard immer wieder meine Forschungen und Studien kritisiert. Seiner Meinung nach ist nichts von dem, was ich mache, auch nur eine Überlegung wert.

Über mein Widget behauptete Svalgaard wiederholt, dass die Daten schon jetzt klar meinem Modell widersprechen, siehe hier: 1, 2, 3 usw.

In jedem Falle, wie ich schon oft gesagt habe, scheint Leifs Kritik darauf zu beruhen, dass er die Zeiträume und die vielen Verteilungen in den Daten durcheinander bringt. Die Daten zeigen einen harmonischen dekadischen Trend plus schnellere Fluktuationen wegen der El Nino/La Nina-Oszillationen, die einen Zeitmaßstab von einigen Jahren haben. Die durch die ENSO ausgelösten Oszillationen sind ziemlich ausgeprägt und tauchen in den Daten mit Perioden starker Erwärmung auf, gefolgt von Perioden mit starker Abkühlung. Zum Beispiel liegt die Temperatur im Januar 2012 in der Abbildung oben außerhalb meiner türkisfarbenen Zone. Dies bedeutet nicht, dass mein Modell falsch ist, wie es Leif fehlinterpretiert. Tatsächlich ist dies eine Folge des gegenwärtigen kühlenden La Nina-Ereignisses. In einigen Monaten wird die Temperatur wieder steigen, wenn die El Nino-Warmphase wieder einsetzt.

Mein Modell ist nicht dazu gedacht, dass es die schnellen ENSO-Oszillationen abbildet, sondern nur die geglätteten dekadischen Komponenten durch ein vierjähriges gleitendes Mittel, wie ich in meiner Originalstudie gezeigt habe: dort erkennt man die volle Rekonstruktion seit 1850, welche meine Modelle (blaue und schwarze Linien) das 4-Jahres-Mittel gut rekonstruieren (graue Linie). Die Abbildung zeigt auch eindeutig die schnellen und großen ENSO-Temperaturoszillationen (rot), die in meinem Modell abzubilden nicht vorgesehen ist.

Wie das Widget zeigt, sagt mein Modell für die nahe Zukunft einen leichten Erwärmungstrend von 2011 bis 2016 voraus. Diese Modulation ist zurückzuführen auf den 9,1-jährigen (lunaren/solaren) und den 10 bis 11-jährigen (solaren/planetarischen) Zyklus, die beide gerade in ihre Warmphase getreten sind. Diese dekadische Verteilung sollte von den schnellen ENSO-Oszillationen überlagert werden, von denen erwartet wird, dass sie schnelle Perioden der Erwärmung und der Abkühlung während dieser fünf Jahre bringen, wie es von 2000 bis 2012 der Fall war. Folglich kann die Temperatur während der kühlenden La Nina-Phase (gegenwärtig im Gange) tatsächlich zurückgehen, aber das ist kein „Beweis“ dafür, dass mein Modell „falsch“ ist, wie Leif behauptet.

Zusätzlich zu den zahlreichen Tatsachenverdrehungen hat Leif natürlich auch in seinen Kommentaren niemals die gewaltige Diskrepanz zwischen den Daten und den IPCC-Projektionen angesprochen, um die es in diesem Widget geht. In meiner veröffentlichten Studie (1) habe ich in Abbildung 6 mit dem geeigneten statistischen Test mein Modell mit der Projektion des IPCC hinsichtlich der Temperatur verglichen. Diese Abbildung 6 folgt hier:

Die Abbildung zeigt eine Art statistischen Chi-Anpassungstest [?] zwischen den Modellen und der 4-jährigen geglätteten Temperaturkomponente mit der Zeit. Werte nahe 0 deuten darauf hin, dass das Modell sehr gut zu den Temperaturdaten passt, die sich innerhalb ihrer Fehlergrenze bewegt; Werte über 1 zeigen eine statistisch signifikante Abweichung vom Trend der Temperatur. Aus der Abbildung geht eindeutig hervor, dass mein Modell (blaue Kurve) sehr gut mit dieser Temperaturkomponente übereinstimmt, während die IPCC-Projektion immer schlechter wird und statistisch seit 2006 von der tatsächlichen Temperatur abweicht.

Ich erwarte nicht, dass Leif sein Verhalten mir und meiner Forschung gegenüber demnächst ändert. Ich möchte den Lesern dieses Blogs lediglich raten, vor allem jenen mit nur geringen wissenschaftlichen Kenntnissen, seine unfairen und unprofessionellen Kommentare mit gesundem Skeptizismus aufzunehmen.

2. Kritik am Abgleich der Basislinie zwischen den Daten und der IPCC-Projektion

Ein Leser dana1981 behauptet: „Ich glaube, dass Scafettas Plot zusätzlich verfälscht ist, weil er eine nicht korrekte Basislinie für HadCRUT3 benutzt. Das IPCC verwendet eine Basislinie von 1980 bis 1999, also sollte HadCRUT das auch tun!“

Dieser Leser bezog sich auch auf eine Abbildung bei skepticalscience, die hier der Bequemlichkeit halber folgt

Sie zeigt eine etwas niedrigere Basislinie für die Modellprojektion des IPCC relativ zur Temperaturaufzeichnung, was den Eindruck einer besseren Übereinstimmung zwischen den Daten und dem IPCC-Modell vermittelt.

Die Position der Basislinie ist irrelevant, weil die IPCC-Modelle eine stetige Erwärmung mit einer Rate von 2,3°C pro Jahrhundert von 2000 bis 2020 angenommen haben, siehe die IPCC-Abbildung SPM.5. Siehe hier, mit meinen hinzu gefügten Zeilen und Kommentaren:

Im Gegenteil, der Temperaturtrend seit dem Jahr 2000 verlief fast flach, wie die Abbildung im Widget zeigt. Offensichtlich verändert eine Änderung der Basislinie nicht die Neigung des dekadischen Trends! Wenn man also die Basislinie der IPCC-Projektion nach unten verlegt, um die Illusion einer besseren Übereinstimmung mit den Daten zu vermitteln, ist das nichts als ein Trick.

In jedem Falle ist die in meinem Widget verwendete Basislinie die Richtige, während die Basislinie in der Abbildung bei skepticalscience falsch ist. Tatsächlich sind die IPCC-Modelle sorgfältig kalibriert worden, um den Trend von 1900 bis 2000 zu rekonstruieren. Folglich ist die korrekte Basislinie diejenige von 1900 bis 2000, und genau diese habe ich verwendet.

Um den Lesern dieses Blogs dabei zu helfen, selbst zu einem Urteil zu kommen, habe ich Anthony Watts die originalen HadCRUT3-Daten sowie diese IPCC-Rekonstruktion übermittelt. Sie sind in den folgenden beiden Dateien enthalten:

HadCRUT3-month-global-data

itas_cmip3_ave_mean_sresa1b_0-360E_-90-90N_na-data

Wie jedermann aus den beiden Datensätzen berechnen kann, beträgt das Temperaturmittel von 1900 bis 2000 -0,1402, während nach dem IPCC-Modell ein Wert bei -0,1341 zu erwarten ist.

Dies bedeutet, dass man, um die beiden Aufzeichnungen zu plotten, die folgende Programmzeile in das gnuplot-Programm einfügen muss:

plot “HadCRUT3-month-global.dat”, “itas_cmip3_ave_mean_sresa1b_0-360E_-90-90N_na.dat” using 1:($2 – 0.0061)

was von 1850 bis 2040 den folgenden Graphen ergibt:

Der Zeitraum seit dem Jahr 2000 zeigt exakt das, was auch mein Widget ergeben hat.

Die Abbildung oben beleuchtet auch die starken Abweichungen zwischen dem IPCC-Modell und der Temperatur, die ich explizit in meinen Studien untersucht habe, und in denen ich beweise, dass das IPCC-Modell nicht in der Lage ist, irgendeinen der in verschiedenen Zeiträumen beobachteten natürlichen Oszillationen zu rekonstruieren. Man schaue zum Beispiel auf den 60-jährigen Zyklus, den ich in meinen Studien ausführlich betrachte: von 1910 bis 1940 zeigen die Daten einen starken Erwärmungstrend, aber der Erwärmungstrend in den Modellen ist viel geringer; von 1940 bis 1970 zeigt sich in den Daten eine Abkühlung, während beim IPCC immer noch eine Erwärmung erkennbar ist; von 1970 bis 2000 zeigen beide Aufzeichnungen einen ähnlichen Trend (diese Periode ist diejenige, die ursprünglich verwendet worden ist, um die Sensitivitäten der Modelle zu kalibrieren); die starke Abweichung von 1940 bis 1970 sowie nach 2000, wobei das IPCC-Modell eine stetige Erwärmung um 2,3°C pro Jahrhundert annimmt, während die Temperatur einen stetigen schwingungsmodulierten Trend zeigt, den ich in meinem Widget und meinem Modell beleuchtet habe.

Wie ich in meiner Studie ausgeführt habe, hat das Scheitern des Modells hinsichtlich der Rekonstruktion des 60-Jahre-Zyklus’ große Konsequenzen bei der angemessenen Interpretation des anthropogenen Erwärmungseffektes beim Klima. Tatsächlich nehmen die IPCC-Modelle an, dass die Erwärmung zwischen 1970 und 200 zu 100% aus einem anthropogenen Antrieb resultiert (vergleiche die Abbildungen 9.5a und 9.5b im IPCC-Bericht), während der 60-jährige natürliche Zyklus (plus die anderen Zyklen) mindestens 2/3 zur Erwärmung von 1970 bis 2000 beigetragen haben, wie ich in meinen Studien nachgewiesen habe.

Schlussfolgernd lässt sich feststellen, dass die Basislinie in meinem Widget die Richtige ist (Basislinie 1900 bis 2000). Meine Kritiker bei skepticalscience versuchen einfach, das Scheitern der IPCC-Modelle bei der 60-jährigen Temperaturmodulation zu verstecken, indem lediglich die IPCC-Simulation seit 2000 geplottet wird, sowie durch das Absenken der Basislinie auf den Zeitraum 1960 bis 1990, welches nicht der ist, der es sein sollte, weil das Modell die Periode von 1900 bis 2000 hypothetisch rekonstruieren soll.

Es ist offensichtlich, dass ein Absenken der Basislinie eine größere Abweichung zu den Temperaturdaten vor 1960 erzeugt! Also hat sich skepticalscience eines kindischen Tricks bedient, um eine zu kleine Bettdecke von einem zu großen Bett zu ziehen. Wie auch immer, wenn wir die Basislinie 1961 bis 1990 benutzen, sollte deren Position im Originalmodell des IPCC um 0,0282 nach unten gezogen werden. Dann liegt sie um 0,0221°C unter der in der obigen Abbildung gezeigten Position, was nicht wirklich umwerfend ist.

In jedem Falle ist die Position der Basislinie nicht der Punkt; sondern das ist der dekadische Trend. Aber meine Basislinie 1900 bis 2000 liegt in der optimalen Position.

3. Kritik an den gewählten Rändern oben und unten im IPCC-Modell der mittleren Projektion (meine Bandbreite der grünen Zone im Widget)

Weitere Kritik, vor allem bei skepticalscience betrachtet die Bandbreite der Grenzen (grüne Zone im Widget), die ich verwendet habe. Sie argumentieren:

„Die meisten Leser würden den grünen Bereich in Scafettas Widget interpretieren als eine Region, in der das IPCC vertrauensvoll Beobachtungen erwartet, die nicht wirklich durch ein 1-sigma-Intervall eingehüllt werden, welches nur 68,2% der Daten überdeckt (unter Voraussetzung einer Gauss-Verteilung). Ein 2-sigma-Umschlag würde etwa 95% dieser Beobachtungen überdecken, und sollten die Beobachtungen noch außerhalb dieses größeren Bereichs liegen, wäre dies ein echter Grund zur Sorge. Folglich wäre es eine geeignetere Wahl für Scafettas grüne Einhüllende“.

Es gibt zahlreiche Probleme in dem Kommentar oben von skepticalscience.

Erstens, die Breite meiner grünen Zone (die eine Startphase von etwa ±0,1°C im Jahr 2000 hat), gleicht genau dem, was das IPCC in seiner Abbildung SPM.5 geplottet hat. Hier zeige ich eine Vergrößerung dieser Abbildung:

Die beiden von mir hinzugefügten roten Linien zeigen die Bandbreite im Jahr 2000 (schwarze vertikale Linie). Die Bandbreite zwischen den beiden horizontalen roten Linien beträgt im Jahr 2000 etwa 0,2°C, wie es auch im grünen Bereich in meinem Widget geplottet ist. … Mein grüner Bereich repräsentiert genau das, was das IPCC in seiner Abbildung zeigt, wie ich übrigens explizit in meiner Studie feststelle und zeige.

Zweitens, skepticalscience behauptet, dass man für einen korrekten Vergleich eine 2-Sigma-Einhüllung braucht [?], und sie haben die folgende Abbildung hinzu gefügt, um ihre Behauptung zu stützen:

Das von skepticalscience hoch gehaltene Argument lautet, weil die Temperaturwerte innerhalb ihrer 2-sigma-Einhüllung des IPCC-Modells liegen, dass die IPCC-Modelle nicht widerlegt sind, wie es aus meinem Widget hervorgeht. Man beachte, dass die grüne Kurve keine gute Rekonstruktion meines Modells ist und zu tief liegt: vergleiche mit meinem Widget.

Allerdings ist es ein Trick zu behaupten, um Leute ohne statistisches Hintergrundwissen zu täuschen, dass die Festlegung einer sehr großen Fehlergrenze in einem Modell bedeutet, dass dieses Modell gültig ist.

Übrigens, im Gegensatz zu der Behauptung bei skepticalscience wird in der Statistik die 1-sigma-Einhüllung verwendet; nicht 2-sigma oder 3-sigma. Mehr noch, das gute Modell ist dasjenige mit dem kleinsten Fehler, nicht das mit dem größten Fehler.

Wie ich in meiner Studie nachgewiesen habe, hat tatsächlich das von mir vorgeschlagene harmonische Modell eine statistische Genauigkeit von ±0,05°C, innerhalb der es sehr gut die dekadische und multidekadische Modulation der Temperatur rekonstruiert: siehe hier.

Im Gegenteil, wenn wir die oben gezeigte Abbildung von skepticalscience benutzen, haben wir im Jahr 2000 einen 1-sigma-Fehler von ±0,15°C und einen 2-sigma-Fehler von ±0,3°C. Diese erhebliche und dicke Fehlerbreiten sind 3 bis 6 mal größer als in meinem harmonischen Modell. Folglich wird aus den Behauptungen von skepticalscience selbst klar, dass mein Modell viel genauer ist als das, was die Modelle des IPCC garantieren können.

Weiter, die Behauptung von skepticalscience, dass wir eine 2-sigma-Fehlereinhüllung brauchen, beweist indirekt auch, dass die IPCC-Modelle nicht der wissenschaftlichen Methode entsprechend validiert werden können und daher nicht in das Umfeld der Wissenschaft gehören. Tatsächlich muss die Validierung einer Modellstrategie einen ausreichend kleinen Fehler aufweisen, um in der Lage zu sein zu testen, ob das Modell die sichtbaren Verteilungen in den Daten identifizieren und rekonstruieren kann. Diese Verteilungen sind gegeben durch die gefundenen dekadischen und multidekadischen Zyklen, die eine Amplitude unter ±0,15°C haben; siehe hier. Folglich wird die Amplitude der erkannten Zyklen deutlich unterhalb der 2-sigma-einhüllenden Amplitude von ±0,3°C bei skepticalscience liegen (sie würde sogar noch unter der 1-sigma-einhüllenden Amplitude von ±0,15°C liegen).

Wie ich ebenfalls ausführlich in meiner Studie bewiesen habe, ist die Einhüllende des IPCC-Modells viel größer als die Amplitude der Temperaturverteilungen, die die Modelle rekonstruieren sollen. Folglich können diese Modelle nicht angemessen validiert werden und sind daher nutzlos für jede brauchbare dekadische und multidekadische Vorhersage/Projektion für praktische Zwecke, weil ihr mit ihnen verbundene Fehler viel zu groß ist, als selbst skepticalscience zulassen würde.

Solange die Modelle nicht eine Präzision von mindestens ±0,05°C garantieren und die dekadischen Verteilungen rekonstruieren können, wie es bei meinem Modell der Fall ist, können sie dagegen nicht bestehen und sind unbrauchbar, und zwar alle.

4. Kritik an der demnächst kommenden Aufzeichnung von HadCRUT4.

Skepticalscience hat auch behauptet, dass „drittens Scafetta die HadCRUT3-Daten verwendet hat, die bekanntlich einen großen Bias aufweisen und die in Kürze durch die Daten von HadCRUT4 ersetzt werden“ (hier).  

Die Daten von HadCRUT4 sind noch nicht verfügbar. Wir werden sehen was passiert, wenn das schließlich der Fall ist. Aus den Abbildungen hier geht nicht hervor, dass sie die Dinge drastisch verändern werden: die Differenz zu den HadCRUT3-Daten seit 2000 scheint lediglich bei 0,02°C zu liegen.

Für optimal passende Amplituden der Schwingungen in meinem Modell könnte in jedem Fall eine leichte Neukalibrierung erforderlich sein, aber HadCRUT4 zeigt eine klarere Abkühlung von 1940 bis 1970, die weiterhin einen 60-jährigen natürlichen Zyklus in meinem Modell stützt und weiterhin den IPCC-Modellen widerspricht. Siehe auch meine Studie zusammen mit Mazzarella, in der wir die HadSST3-Aufzeichnung bereits untersucht haben.

5. Kritik am langzeitlichen Trend

Es wurde dargelegt, dass der aufwärts gerichtete Trend wichtig ist, um die IPCC-Modelle und deren anthropogene Erwärmungstheorie zu stützen.

Wie ich jedoch in meiner Studie erklärt habe, ist 2/3 der Erwärmung zwischen 1970 und 2000 auf einen natürlichen Zyklus solaren/astronomischen Ursprungs zurückzuführen (oder sogar nur auf einen internen Ozeanzyklus allein). Daher ist der von den Modellen reproduzierte anthropogene Erwärmungstrend falsch und stark übertrieben. Dies lässt das meiste des langzeitlichen Erwärmungstrends von 1850 bis 2012 als Folge natürlicher Jahrhunderte langer Zyklen erscheinen, die auch in der Literatur gut bekannt sind.

Wie ich hier klar zum Ausdruck gebracht habe, sind in meinen veröffentlichten Studien die langzeitlichen und tausendjährigen Zyklen formal nicht enthalten, und zwar aus dem einfachen Grund, dass diese Zyklen erst genau identifiziert werden müssen: man kann sie nicht einfach irgendwo platzieren, und die globale Temperatur ist erst seit 1850 verfügbar, was ein zu kurzer Zeitraum ist, um diese längeren Zyklen genau zu lokalisieren und zu identifizieren.

Im Einzelnen hat skepticalscience argumentiert, dass das vorgeschlagene Modell (von Loehle und Scafetta), das nur auf den 60-jährigen und den 20-jährigen Zyklen basiert plus einem linearen Trend von 1850 bis 1950 und extrapoliert bis höchstens 2100, falsch sein muss, weil es bei einer Extrapolation von 2000 Jahren klar von sinnvollen Verteilungen abweicht, die man aus Temperaturrekonstruktionen aus Proxy-Daten gewonnen hat. Ihre Abbildung findet sich hier und wird hier reproduziert:

Jeder smarte Mensch würde sofort verstehen, dass dies ein weiterer Trick von skepticalscience ist, die Ignoranten zu täuschen.

Wie wir in unserer Studie klar festgestellt haben, ist es offensichtlich, dass wir die langzeitlichen und tausendjährigen Zyklen ignorieren und den natürlichen tausendjährigen harmonischen Trend lediglich approximieren mit einer linearen Approximation erster Ordnung, von der wir annehmen, dass sie sinnvoll auf 100 Jahre ausgedehnt werden kann, aber nicht länger. Es ist offensichtlich, dass es eine Dummheit ist, wenn man nicht unehrlich ist, dies für 2000 Jahre zu extrapolieren und zu behaupten, dass die Daten unseren Ergebnissen widersprechen. Siehe den ausführlichen Kommentar von Loehle und Scafetta.

Wie oben dargelegt wurden die langzeitlichen und tausendjährigen Zyklen absichtlich ausgeschlossen. Allerdings habe ich schon in einer vorläufigen Rekonstruktion 2010 mit diesen längeren Zyklen eingeschlossen veröffentlicht (leider nur in italienisch). Die Abbildung 6 aus dieser Studie ist diese:

Allerdings sind die Zyklen im obigen Modell nicht optimiert, was in Zukunft nachgeholt wird. Aber es ist ausreichend um zu zeigen, wie ideologisch naiv (und falsch) die Behauptung von skepticalscience ist.

In jedem Falle behandle ich den langzeitlichen Trend und seine Verbindung mit der solaren Modulation ausführlich in meinen früheren Studien seit 2005. Die letzte Studie, die sich auf diesen Punkt konzentriert, wird hier und noch ausführlicher hier besprochen. Die relevante Abbildung daraus folgt hier:

Die schwarzen Kurven repräsentieren die empirische Rekonstruktion der solaren Signatur im langzeitlichen Trend seit 1600. Die Kurve mit dem aufwärts gerichteten Trend seit 1970 wurde erstellt durch Verwendung des ACRIM TSI-Komposits (welches mit dem 60-jährigen Zyklus kompatibel ist). Die anderen Signaturen verwenden das PMOD TSI-Komposit, welche durch Manipulation von einigen Satellitenaufzeichnungen zustande gekommen ist mit der Entschuldigung, dass diese falsch seien.

Solange also die langzeitlichen und tausendjährigen Zyklen nicht akkurat identifiziert und angemessen in die harmonischen Modelle eingebaut sind, muss man die Studien mit den langzeitlichen TSI-Proxy-Rekonstruktionen verwenden, um den Vergleich mit langzeitlichen Trends zu verstehen, wie in meinen Veröffentlichungen von 2005 bis 2010. Deren Ergebnisse stehen in perfekter Übereinstimmung mit dem, was wir den jüngsten Studien entnehmen können, die sich auf astronomische Schwingungen konzentrieren und implizieren, dass nicht mehr als 0,2°C bis 0,3°C der seit 1850 beobachteten Erwärmung von 0,8°C mit anthropogenen Aktivitäten in Verbindung gebracht werden können. (Man lasse sich nicht durch die Kritik von Benestad und Schmidt 2009 täuschen, die mit empörenden mathematischen Fehlern gespickt ist und dessen Performanz des GISS-ModellsE in meinen letzten Studien stark in Frage gestellt worden ist, zusammen mit jenen der IPCC-Modelle).

Ich danke Anthony Watts für die Einladung, und ich entschuldige mich für die Übersetzungsfehler, die der obige Artikel sicher enthält*

N. Scarfetta

weiterführender Link hier

*Kursiv vom Übersetzer, der sich der Entschuldigung des Autors hinsichtlich seiner Übersetzung vom Italienischen ins Englische nur anschließen kann

Relevante Studien:

[1] Nicola Scafetta, “Testing an astronomically based decadal-scale empirical harmonic climate model versus the IPCC (2007) general circulation climate models.” Journal of Atmospheric and Solar-Terrestrial Physics, (2012). DOI: 10.1016/j.jastp.2011.12.005

[2] Adriano Mazzarella and Nicola Scafetta, “Evidences for a quasi 60-year North Atlantic Oscillation since 1700 and its meaning for global climate change.” Theor. Appl. Climatol. (2011). DOI: 10.1007/s00704-011-0499-4

[3] Craig Loehle and Nicola Scafetta, “Climate Change Attribution Using Empirical Decomposition of Climatic Data.” The Open Atmospheric Science Journal 5, 74-86 (2011). DOI: 10.2174/1874282301105010074

[4] Nicola Scafetta, “A shared frequency set between the historical mid-latitude aurora records and the global surface temperature.” Journal of Atmospheric and Solar-Terrestrial Physics 74, 145-163 (2012). DOI: 10.1016/j.jastp.2011.10.013

[5] Nicola Scafetta, “Empirical evidence for a celestial origin of the climate oscillations and its implications.” Journal of Atmospheric and Solar-Terrestrial Physics 72, 951–970 (2010). DOI: 10.1016/j.jastp.2010.04.015

Zusätzliche Mitteilungen und interessante Links:

Global Warming? No, Natural, Predictable Climate Change, Larry Bell

http://www.forbes.com/sites/larrybell/2012/01/10/global-warming-no-natural-predictable-climate-change/

http://wattsupwiththat.com/2012/01/09/scaffeta-on-his-latest-paper-harmonic-climate-model-versus-the-ipcc-general-circulation-climate-models/

http://scienceandpublicpolicy.org/images/stories/papers/reprint/astronomical_harmonics.pd

Link: http://wattsupwiththat.com/2012/03/11/scafetta-prediction-widget-update/

Übersetzt von Chris Frey EIKE




Moncktons Showdown in Schenectady

Foto rechts: Publikum hört Lord Moncktons Vortrag am Union College. Photo by Charlotte Lehman

Ich habe Lord Monckton auf seiner Reise an die Ostküste der USA begleitet und freute mich darauf, den Showdown in Schenectady zu dokumentieren. Ich hatte das Vergnügen, Seiner Lordschaft schon auf früheren Veranstaltungen auf anderen Campi zuzuhören. Er läuft immer zu Höchstform auf, wenn er mit einem feindlichen Publikum konfrontiert wird. Je wütender und entrüsteter es ist, um so mehr scheint er es zu mögen.

Die Collegiaten von CFACT an der Universität haben die Veranstaltung gesponsert, welche durch CampusReform.org videoaufgezeichnet worden ist. Am Nachmittag des Tages der Veranstaltung war Lord Monckton auf der eine Stunde langen wöchentlichen Show der Radiostation der Universität erschienen. In der Folge drängelten sich 200 Menschen im Hauptvorlesungssaal, um Lord Monckton sprechen zu hören.

Erin Delman, Vorsitzende des Umweltvereins, diskutiert mit Monckton – Photo von Charlotte Lehman

Als sie einmarschierten, fanden sie Lord Monckton zufrieden in einer Unterhaltung mit einer bebenden, herrischen Frau mit wildem blonden Haar. Sie war die Vorsitzende der Umweltabteilung an der Universität. Ihre Gruppe hatte einen Tisch am Eingang zum Hörsaal aufgestellt, der mit recycelten Pappschachteln von Burgern, zusammengeklebt mit Heftband bedeckt war (‚Karton jetzt wieder verwenden und den Planeten retten!’). Darauf waren in wilder Folge Slogans gekritzelt. „Es gibt einen KONSENS!“ schrie sie.

„Dies, Madam, ist intellektuelles Baby-Gequake”, erwiderte Lord Monckton. Ob sie nie von Aristoteles’ Verschlüsselungen der allgemeinsten logischen Täuschungen menschlicher Reden gehört habe, einschließlich dessen, was mittelalterliche Schulmeister später als argumentum ad populum [Wikipedia: Argumentum ad populum (lateinisch  ‚Beweisrede für das Volk‘) bezeichnet eine rhetorische Taktik, bei der etwas als wahr behauptet wird, weil es der Meinung einer relevanten Mehrheit von Personen, z. B. der öffentlichen Meinung entspricht. A. d. Übers.] beschrieben haben, die kollektive Täuschung [the headcount fallacy]? Aus ihrem sich rötenden Gesicht und der verblüfften Miene konnte man schließen, dass das nicht der Fall war. Auch von dem argumentum ad verecundiam [Ein argumentum ad verecundiam (lat. für ,Beweis durch Ehrfurcht‘) oder Autoritätsargument ist ein Argument, das eine These durch die Berufung auf eine Autorität beweisen will. A. d. Übers., der davon auch noch nichts gehört hat].

Man zeigte Lord Monckton eine Graphik mit einer vordergründig engen Korrelation zwischen CO2-Gehalt und der Temperatur während der letzten 150 000 Jahre. Mild fragte er: „Was war zuerst da, die Henne oder das Ei? War es der CO2-Gehalt, der sich zuerst verändert hat oder die Temperatur, die in der Folge zu den Änderungen des CO2-Gehaltes geführt hat?“

Der sich an den Graphen klammernde Student murmelte, dass man dies unmöglich sagen könne und dass niemand das wirklich wisse.

An Lord Moncktons Ellbogen sagte eine ältere Dame – vermutlich zu Besuch am Union College – : „Vielleicht kann ich helfen. Es war die Temperatur, die sich zuerst verändert hat“.

„Genau!“ erwiderte Lord Monckton.

„Allerdings”, fuhr sie fort, „hat das CO2 dann als Rückkopplung agiert, was die Temperaturänderung verstärkt hat. Das ist eine Weise zu wissen, dass das CO2 heute ein Problem ist. Und was“, sagte sie sichtlich sauer werdend, „verursachte die Änderungen der Temperatur?“

„Nun“, erwiderte Lord Monckton, „das wissen wir nicht genau, aber eine Erklärung…“ – „…sind die Milankovitch-Zyklen!“ brach es aus einem ehrwürdigen PhD heraus, der befürchtete, dass man ihre Pointe stehlen würde.

„Ja“, sagte Lord Monckton unerschütterlich, „die Präzession der Äquinoktien und Variationen der Exzentrizität des Erdorbits und die Neigung der Erdachse relativ zur Ebene der Ekliptik. Tatsächlich kann man darüber diskutieren, ob diese Zyklen zuerst von einem autodidaktischen Pförtner an der Universität eingeführt worden waren, einem Mr. Croll“. Die grunzende Meute der Umweltaktivisten wurde nachdenklicher. Ihre Propaganda hatte ihn zu einem ignoranten Dummkopf gemacht, und sie begannen zu ahnen, dass es ein Fehler war, das zu glauben.

Lord Monckton trat vor das Auditorium und begann mit seiner inzwischen berühmten, überaus wortreichen Parodie darüber, wie das IPCC einen Spaten beschreiben könnte. Von diesem eleganten, heiteren Juwel, rezitiert aus dem Gedächtnis, wird gesagt, dass es länger sei als die Gettysburg-Rede. Dann sagte er, dass er anders als das IPCC in einfachem Englisch reden werde. Er schlug vor, in Ruhe mit der Präsentation einiger Bilder zu beginnen, die viele Beispiele eines sehr unglücklichen Konsens’ im 20. Jahrhundert zeigen.

Der Konsens von Versailles 1918 verlangte vom besiegten Deutschland Reparationen, so dass die Konferenz zum Ende des Ersten Weltkriegs (15 Millionen Tote) gleich die Saat für den Zweiten legte. Der Eugenik-Konsens der zwanziger Jahre führte direkt zu den Konzentrationslagern Oswiecim und Treblinka (6 Millionen Tote). Der Konsens der Beschwichtigungspolitik der dreißiger Jahre provozierte Hitler, den Zweiten Weltkrieg zu entfesseln (60 Millionen Tote). Der Lysenko-Konsens ruinierte in den vierziger Jahren 20 erfolgreiche Ernten in der Sowjetunion (20 Millionen Tote). Der Konsens zur Verbannung von DDT der sechziger Jahre führte zu einer verheerenden Malaria-Renaissance weltweit (40 Millionen tote Kinder mit steigender Tendenz, 1,25 Millionen allein im vergangenen Jahr).

Man hätte eine Stecknadel fallen hören können. Zum ersten Mal merkte die weitgehend feindliche Zuhörerschaft (weil die meisten Teilnehmer Umweltaktivisten waren), dass die bloße Tatsache eines Konsens’ uns in keiner Weise Aufschluss darüber gibt, ob die Vermutung, von der es heißt, dass sie Konsens ist, wirklich stimmt.

Lord Monckton schreckte dann seine Zuhörer mit den Worten auf, dass es übereinstimmende [settled] Wissenschaft sei, dass es einen Treibhauseffekt gibt, dass das CO2 dazu beiträgt, dass der CO2-Gehalt der Atmosphäre zunimmt und dass weitgehend wir dafür verantwortlich sind und dass man deswegen eine gewisse Erwärmung erwarten könne. Aber diese Tatsachen wurden schon durch leicht nachvollziehbare und oft wiederholte Messungen belegt, die zuerst von John Tyndall 1859 an der Royal Institution of London, „ein paar Häuser weiter in der Straße von meinem Club, wussten Sie das schon?“ (Gelächter). Daher besteht keine Notwendigkeit, diese Schlussfolgerungen durch einen Konsens zu sanktionieren.

Die Zuhörer wurden noch einmal aufgeschreckt, als Lord Monckton ein Bild zeigte, wonach die Erwärmungsrate seit 1950 äquivalent zu einem Temperaturanstieg von etwa 1°C pro Jahrhundert war, während die vom IPCC vorhergesagte Erwärmungsrate für das 21. Jahrhundert drei mal höher liegt. Sein Bild nennt diese Differenz die „Glaubwürdigkeitslücke des IPCC“.

Als nächstes verblüffte Lord Monckton sein Publikum, einschließlich der Professoren und Doktoren (deren Gesichter wie gemeißelt waren) mit einer Serie von Gleichungen und Graphen, die zeigten, dass der wirkliche Disput zwischen den Skeptikern und den Gläubigen darin besteht, dass die Gläubigen von einer Rückkopplung um 3,3°C ausgehen, während die Skeptiker eine Erwärmung um lediglich 1°C annehmen – und dies, während es allgemein akzeptiert ist, dass eine Verdoppelung des CO2-Gehaltes etwa 1°C Erwärmung bringen würde.

Ein Student stellt Lord Monckton während der anschleißenden Fragestunde eine Frage. Photo von Charlotte Lehman

Er fuhr fort zu zeigen, dass die grundlegenden Schlussfolgerungen von jedem der vier „Evangelien“ des IPCC im besten Falle fragwürdig und im schlimmsten Falle einfach Betrug waren. Das Evangelium 2007 war zu der Schlussfolgerung gekommen, dass die Erwärmungsrate selbst zunehme und dass wir daran schuld seien, aber diese Schlussfolgerung war durch eine fehlerhafte statistische Technik zustande gekommen. Bei Anwendung der gleichen Technik auf eine Sinuskurve (welche nach Ansicht des Auditoriums einen Null-Trend aufweist) ist es möglich, entweder einen rapide zunehmenden Aufwärtstrend oder einen rapiden Abwärtstrend zu zeigen, abhängig von der Wahl der Endpunkte der Trendlinien durch die Daten.

Das Evangelium 2001 des IPCC hat durch einen anderen zweifelhaften Taschenspielertrick die mittelalterliche Warmphase abgeschafft. Dieser Trick wird inzwischen durch den Oberstaatsanwalt von Virginia unter dem Vorwurf des Betrugs gegen den Steuerzahler nach einer Gesetzgebung aus dem Jahr 2000 untersucht (erstauntes Einatmen von einigen der Umweltaktivisten, denen man dies zuvor anscheinend nie gesagt hatte).

Das Evangelium 1995 wurde von nur einem Mann umgeschrieben, der eine fünf mal von den Wissenschaftlern ausgesprochene Schlussfolgerung, dass kein menschlicher Einfluss auf das globale Klima erkennbar war, rundweg (und falsch) durch ein einziges Statement ersetzte, welches das Gegenteil aussagte.

Das Evangelium von 1990 hat von sich behauptet, dass es in der Lage sei, Temperaturänderungen für 100 Jahre in die Zukunft vorherzusagen. Und doch ist seitdem eine ganze Generation vorüber gegangen, und es hat sich herausgestellt, dass die Erwärmung während dieser Generation noch unter der niedrigsten Schätzung des IPCC-Evangeliums von 1990 lag und sehr weit unter der mittleren Schätzung.  Seit acht Jahren ist der Meeresspiegel mit einer Rate äquivalent zu lediglich 1,3 inches pro Jahrhundert gestiegen (ca. 33 mm). Die weltweite Hurrikan-Aktivität liegt fast auf einem rekordniedrigen Niveau, verglichen mit den letzten dreißig Jahren Satellitenbeobachtung. Die globale Ausdehnung des Meereises hat sich während dieser Zeit kaum verringert. Hier war seine Botschaft einfach und direkt: „Es – passiert – nicht!“

Als nächstes wandte sich Lord Monckton der Klima-Ökonomie zu und zeigte, dass die Kosten von Aktionen zur Vermeidung der globalen Erwärmung weitaus höher sind als die Kosten, wenn man gar nichts macht. Das Beispiel der australischen Kohlendioxidsteuer zeige, warum das so ist. Aus Australien stammen nur 1,2% der globalen CO2-Emissionen, und es war die politische Absicht der Regierung, diese Emissionen während der zehnjährigen Laufzeit dieser Steuer um 5% zu senken. Unter der großzügigen Annahme, dass die gesamte Reduktion vom Jahr 1 an erreicht werden würde, betrüge der Anteil der eingesparten globalen Emissionen lediglich 0,06%. Weil dieser Anteil so klein war, würde die projizierte CO2-Konzentration von 412 ppmv bis zum Jahr 2020 auf 411,987 ppmv fallen. Durch diese so geringe Reduktion der CO2-Konzentration während der zehnjährigen Laufzeit würde sich eine Verringerung der Erwärmung um nur 0,000085°C ergeben, zu Kosten von 130 Milliarden während des zehnjährigen Zeitraumes.

Folglich würden sich die Kosten zur Vermeidung der gesamten, vom IPCC angenommenen Erwärmung um 1,5°C durch Maßnahmen, die so kosteneffektiv wie in Australien sind, zwischen 2011 und 2020 auf 309 Trillionen Dollar belaufen, 57,4% des globalen Bruttosozialproduktes oder 44000 Dollar pro Kopf der Weltbevölkerung. Auf dieser Basis würden sich die Kosten zur Vermeidung einer Erwärmung um 1°C auf 1,5 Quadrillionen Dollar belaufen. Dies, sagte Lord Monckton, ist nicht billig. Tatsächlich ist es 110 mal teurer als gar nichts zu tun oder die Kosten für mögliche Schäden, die durch wärmeres Wetter in diesem Jahrhundert eintreten könnten.

Die australische Kohlendioxidsteuer ist typisch für klimaabschwächende Maßnahmen, die jetzt vorgeschlagen oder implementiert werden. Alle diese Maßnahmen sind außerordentlich kosten-ineffektiv. Keine Politik zur Vermeidung globaler Erwärmung durch Kontrolle der CO2-Emissionen würde kosteneffektiv sein allein aufgrund der Vorteile durch Klimaabschwächung. Strategien zur CO2-Einsparung, die man sich leisten kann, wären ineffektiv; Strategien die teuer genug sind, um effektiv zu sein, könnte man sich nicht leisten. Die brennpunktartige Anpassung an irgendwelche nachteiligen Konsequenzen einer solchen zukünftigen globalen Erwärmung wäre viele Male kosteneffektiver als jetzt irgendetwas zu tun. „Wenn die Beiträge die Kosten des Risikos übersteigen, versichern Sie sich nicht!“ riet Lord Monckton.

In jedem Falle, führte Lord Monckton weiter aus, sei der Westen nicht mehr das Problem. Dessen Emissionen sind nur sehr langsam gestiegen, aber die Emissionen in sich entwickelnden Wirtschaften steigen viele Male schneller. Vor allem in China gehen jede Woche ein oder zwei neue Kohlekraftwerke ans Netz. Und das ist gut so. Der beste Weg zur Stabilisierung einer wachsenden Bevölkerung besteht darin, den Lebensstandard über die Armutsgrenze zu heben, und der billigste Weg hierzu ist die Verfügbarkeit von Elektrizität aus fossilen Brennstoffen.

Lord Monckton endete mit einem plastischen Vergleich und zeigte, dass die Trichiasis, eine Folge von Trachoma (wenn die Augenlider nach innen wachsen, was akute Schmerzen und mögliche Erblindung nach sich zieht), für lediglich 8 Dollar geheilt werden kann. Er zeigte das Bild einer Frau aus Afrika, die hoch erfreut über ihre wieder erlangte Sehkraft in die Kamera schaute. Er sagte, dass die Umverteilung von Mitteln weg von jenen, die dringend und sofort Hilfe brauchen, um einem Nicht-Problem zu begegnen, das in keinem Falle kostengünstig durch die Abschwächung von CO2-Emissionen gelöst werden kann, aufhören muss und dass diese Mittel sofort zu den Menschen geleitet werden muss, die unsere Hilfe sofort brauchen.

Sowohl in der folgenden Frage- und Antwortstunde als auch auf der Gegenveranstaltung der Umweltaktivisten, (bei der Lord Monckton in der ersten Reihe saß und sich Notizen machte), flogen die Fragen gewichtig und schnell hin und her. Ein Professor der Umweltwissenschaften fragte weitschweifig, offensichtlich um andere zu entmutigen, Fragen zu stellen, warum Lord Monckton nicht auf begutachtete Literatur hingewiesen hatte. Er hatte oft darauf hingewiesen, entschuldigte sich aber dafür, dass das IPCC, auf das er oft verwiesen hatte, keine begutachtete Quelle sei: Tatsächlich handelte es sich bei einem ganzen Drittel der im Evangelium 2007 genannten Literaturhinweise nicht um begutachtete Literatur.

Warum hat Lord Monckton gesagt, dass die Temperatur von 1695 bis 1735 im zentralen England um 2,2 Grad gestiegen war (und implizierte eine Erwärmung um 0,55 Grad pro Jahrzehnt), obwohl er doch sagte, die Erwärmungsrate sei 0,4°C? Er erklärte, dass die Erwärmungsrate auf der Basis einer linearen Regression mit der Methode der kleinsten Quadrate korrekt berechnet sei und einen Wert von 0,39 ergeben hätte, den er der Einfachheit halber auf 0,4 Grad gerundet habe.

Hat Lord Monckton nicht akzeptiert, dass wir die CO2-Rückkopplung quantifizieren können? Diese Frage kam von dem Professor. „Nun“, erwiderte Lord Monckton in einer seiner vernichtendsten Antworten, „vielleicht kann der Professor das quantifizieren, aber das IPCC kann es nicht: im Evangelium von 2007 gibt es eine außerordentlich hohe Bandbreite von Antworten, von 25 bis 225 ppmv/°K – oder kurz gesagt, sie wissen es nicht.“

Warum hat Lord Monckton gesagt, dass wir Aufschluss über die Temperatur der Mittelalterlichen Warmzeit aus Sedimentablagerungen auf dem Grund der Ozeane bekommen, wenn doch deren Auflösung sicherlich zu gering ist? Lesen Sie Pudsey (2006), erwiderte Lord Monckton: die Studie zeigt, dass das Larsen-B-Schelfeis, das sich vor einigen Jahren stark verkleinert und als Aushängeschild für den Film von Al Gore gedient hatte, während der Mittelalterlichen Warmzeit nicht existiert hatte. Dies deutet darauf hin, dass diejenigen, die diese Warmzeit nur für die Nordhalbkugel gelten lassen wollen, unrecht haben könnten. Er fügte hinzu, dass Dr. Craig Idso über eine Datenbank von begutachteten Studien von über 1000 Wissenschaftlern von über 400 Institutionen in über 40 Staaten verfügte, die belegen, dass die Mittelalterliche Warmzeit real war, global aufgetreten war und dass es mindestens so warm war wie heute wenn nicht sogar noch wärmer.

Was ist mit dem Methan vom Vieh? Sollten wir das Fleisch essen aufgeben, um den Planeten zu retten? Der Professor glaubte das. Wie immer hatte Lord Monckton aber die Zahlen zur Hand. Im vergangenen Jahrzehnt, erwiderte er, ist die Methankonzentration um 20 parts pro Milliarde gestiegen, was zu 1/350stel°C Erwärmung geführt haben könnte. Das ist viel zu wenig, um ins Gewicht zu fallen. Man lasse die Kühe in Ruhe.

Was ist mit dem Scheitelpunkt fossiler Brennstoffe? Sollten wir nicht anfangen, unseren Verbrauch zu drosseln? Nein, erwiderte Lord Monckton. Die jüngsten Entdeckungen riesiger und jetzt auch abbaubarer Vorräte an Schiefergas bedeutet, dass wir noch hunderte von Jahren mit fossilen Brennstoffen versorgt sind. Der Professor stimmte zu, dass Schiefergas einen Beitrag leisten könne: Es erzeugte mehr Energie pro Tonne CO2 als Öl oder Kohle.

Warum hat Lord Monckton ausgerechnet die australische Kohlendioxidsteuer als wirtschaftliches Beispiel herangezogen? Er sagte, dass er in einer kurzen Lektion nur Platz für ein Beispiel habe, so dass er also das australische Beispiel erwähnte, weil alle anderen politischen Maßnahmen zur Verringerung von CO2 ähnlich seien. Es ist 10 bis 100 mal teurer, die globale Erwärmung heute zu beseitigen als die Erwärmung zuzulassen – selbst wenn man eine Rate wie das IPCC zugrunde legt und selbst wenn die Kosten für Nichtstun so hoch lägen wie im Stern-Report dargelegt – als sich darauf zu konzentrieren, sich anzupassen, jedoch nur bis zu dem Ausmaß, dass ausreichend erscheint.

War nicht die Jahresringchronologie inzwischen so weit, dass man zwischen der Größe der Baumringe durch wärmeres oder nasseres Wetter bzw. durch mehr CO2 in der Luft unterscheiden könnte? Der Professor sagte, dass dies heute in der Tat möglich ist. Lord Monckton antwortete, dass es nicht möglich ist. Seit 1960 hatten die Baumringserien selbst nach all den komplexen Anpassungen der Jahresring-Astrologen stark abfallende Temperaturen gezeigt, während sie den Thermometern zufolge angestiegen ist. Dies ist der Grund, warum die Klimagate-e-mailer so viel Zeit damit zugebracht hatten, „den Rückgang zu verstecken“. Dieses Wort „Rückgang“ ist genau das, was die Verlässlichkeit der Rekonstruktionen aus Baumringdaten so zweifelhaft erscheinen lässt. Der Professor hatte darauf keine Antwort.

Der Professor sagte, er sei bewegt durch den von der globalen Erwärmung angerichteten Schaden, weil er in Peru und Ekuador gesehen habe, wie durch die schmelzenden Gletscher die Wasserversorgung zusammengebrochen sei. Lord Monckton sagte, dass es in fast allen Teilen der Welt nicht die schmelzenden Gletscher, sondern die Schneeschmelze sei, die die Wasserversorgung sicherstellte. Daten des Snow and Ice Lab an der Rutgers University zeigten seit 40 Jahren keinen Trend der Schneebedeckung der Nordhemisphäre. Er fügte hinzu, dass Polissar et al (2006) zufolge der Normalzustand die Schneefreiheit in den tropischen Anden sei, abgesehen nur von den höchsten Gipfeln. Daher kann man nicht mit Sicherheit sagen, dass unser Einfluss auf das Klima zu irgendeiner Änderung geführt habe, die aus natürlichen Gründen nicht ohnehin erfolgt wäre.

Warum hat sich Lord Monckton so sehr mit der Wissenschaft abgegeben, wenn es ökonomisch gesehen so überwältigend unsinnig ist, gegen die globale Erwärmung vorzugehen? Lord Monckton erwiderte, dass es notwendig sei zu verstehen, dass es aus wissenschaftlichen Gründen auch keinen Grund gibt, gegen die Erwärmung vorzugehen, und dass es für Regierungen und politische Entscheidungsträger notwendig ist anzuerkennen, dass Schlüsselelemente in der IPCC-Wissenschaft – wie die vermeintliche „sich beschleunigende“ Erwärmung, die auf ungeeigneten statistischen Maßnahmen beruht, wie er am Beispiel der Sinuskurve gezeigt hatte – schlichtweg falsch seien.

Der Professor forderte dann die Studenten auf, die Hand zu heben, wenn sie ihm zustimmten, dass der Umgang des IPCC mit der von Lord Monckton in Frage gestellten statistischen Methode korrekt sei. Pflichtbewusst und ängstlich gingen etwa zwei Drittel der Hände im Raum nach oben. Lord Monckton wandte sich an den Professor und sagte ihm, dass er das nicht hätte tun sollen. Dann sprach er die Studenten an, die sich gemeldet hatten, und fragte sie, wie viele von ihnen Statistiker wären. Lediglich ein Student hob zögernd seine Hand, und dann – als er offensichtlich merkte, dass sein Bekenntnis, einer zu sein, gleichbedeutend damit war, ein offensichtlich falsches Dokument zu bestätigen – ließ er sie zögernd und heftig errötend wieder sinken.

Ein anderer Student fragte in diesem schrillen Ton, der bei Umweltextremisten überall so beliebt ist, ob er, Lord Monckton, ein Statistiker sei. Nein, sagte er, und deswegen hatte er die Daten sorgfältig anonymisiert und sie einem Statistiker vorgelegt. Dieser hatte das Offensichtliche bestätigt: da die gleiche Technik, angewendet auf die gleichen Daten, genau entgegen gesetzte Ergebnisse zeitigen konnte, was nur von der sorgfältigen Auswahl der Endpunkte der multiplen Trendlinien abhing, die die IPCC-Bürokraten dem absolut korrekten Verlauf der Temperaturänderungen während der letzten 150 Jahre zugeordnet hatten. Diese Technik kann nur fehlerhaft sein, und alle Ergebnisse, die damit gewonnen werden, müssen daher bedeutungslos sein.

Lord Monckton sagte denen, die ihre Hand gehoben hatten, ernst und traurig: „Ich habe Ihnen während meiner Vorlesung klar und eindeutig gezeigt, dass der Missbrauch der Statistik durch das IPCC genau das war – ein Missbrauch. Und doch haben Sie Ihre Hand unter Verleugnung der Wahrheit gehoben, möglicherweise aus unangebrachter Loyalität gegenüber Ihrem Professor. Tun Sie das niemals wieder, selbst wenn Sie sich damit in Gegensatz zu Ihren Autoritäten stellen. In der Wissenschaft zählt die Wahrheit und nur die Wahrheit, egal was Sie persönlich glauben oder haben wollen“.

Man hätte erneut die Nadel fallen hören können. Viele junge Köpfe hingen beschämt. Selbst ihr Professor sah etwas weniger arrogant drein als während der gesamten Veranstaltung. Ruhig verabschiedeten sie sich aus dem Hörsaal.

An jenem Abend machte der Gore-Effekt Überstunden. Die Temperatur fiel auf 14°F [-10°C]. Als wir am nächsten Morgen durch die verschneite Landschaft des Staates New York zum nächsten Veranstaltungsort fuhren, fragte ich Lord Monckton, was er von dem seltsamen Verhalten des Professors hielt, vor allem, als er seine Autorität dazu missbraucht hat, seine Studenten nach der Richtigkeit einer statistischen Technik zu befragen, von der sie inzwischen wussten, dass sie komplett falsch war.

Die Antwort Lord Moncktons war bewegend. Freundlich und traurig sagte er: „Wir werden den Westen verlieren, wenn wir nicht das wiedereinsetzen können, was wir früher ‚lernen’ genannt haben. Es war das Zeitalter der Aufklärung, das den Westen gebildet und ihn frei und blühend gemacht hat. Das Zeitalter der Aufklärung gab ihnen ihre große Verfassung der Freiheit. Es ist die Macht der Vernunft, die zweite der drei großen Mächte der Seele in der christlichen Theologie, die unsere Spezies über den Rest der sichtbaren Kreation hebt und uns dem Abbild unseres Schöpfers am ähnlichsten macht. Ich kann nicht einfach dastehen und zulassen, dass die Kräfte der Dunkelheit uns widerstandslos in ein neues dunkles Zeitalter führen“.

Justin Pulliam is the Northeast Regional Field Coordinator for CampusReform.org. He graduated Cum Laude with University Honors from Texas A&M University in December 2011, where he led the local Collegians for a Constructive Tomorrow Chapter. He can be reached at justinpulliam@gmail.com.

===

Eine Videoaufzeichnung dazu gibt es hier

Link: http://wattsupwiththat.com/2012/03/10/moncktons-schenectady-showdown/

Übersetzt von Chris Frey EIKE




Energiewende treibt Stromkosten weiter hoch: Stromkunden sollen jetzt für Versicherung von Offshore Anlagen zahlen

Wie die Welt am 20.3.12 berichtet heißt es darin: 

Um den stockenden Ausbau von Windstrom auf hoher See in Schwung zu bringen, sollen Staat und Stromkunden den Investoren Risiken abnehmen. Nur so könne der Bau neuer Windräder nach den Zielen des Bundes gesichert werden. Kernpunkt ist die Übernahme von Haftungsrisiken der Stromnetz-Gesellschaften, die als Hauptgrund für die Verzögerungen gelten. Am Donnerstag soll das Konzept Umweltminister Norbert Röttgen (CDU) und Wirtschaftsminister Philipp Rösler (FDP) vorgestellt werden.

"Soweit mögliche Schäden trotz technischer und organisatorischer Vorkehrungen nicht wirtschaftlich versicherbar sind, ist der Schadensausgleich zu sozialisieren", heißt es im Papier der AG, in der Netzfirmen, Windparkbetreiber, Zulieferer wie Siemens sowie Umwelt- und Wirtschaftsministerium vertreten sind. Denkbar sei ein Eintritt der Bundesregierung oder die Überwälzung auf die von allen Stromkunden zu zahlenden Netz- oder Ökostromentgelte."

und weiter heißt es 

Doch stellen diese Zahlen allenfalls eine Untergrenze für die tatsächlich zu erwartenden Preiserhöhungen dar. Denn andere mögliche Kostentreiber im Zusammenhang mit der Energiewende wie höhere Strombeschaffungspreise durch den Bau neuer Kraftwerke oder eine steigende Umlage für erneuerbare Energien sind darin nicht berücksichtigt. Einer Studie der TU Berlin zufolge summieren sich die direkten und indirekten Kosten des Erneuerbare-Energien-Gesetzes bis 2030 auf insgesamt 335 Mrd. Euro.

Interessant an dieser Arbeitsgruppe ist, dass von denen, die die Rechnung bezahlen sollen, keiner in ihr Sitz und Stimme hat. Bezahlen aber müssen sie. 

Die Redaktion




Offshore-WKA-Bauer BARD entlässt doch Offshore-Mitarbeiter! Strom wird wg. Netzausbau noch viel teurer!

zum weiterlesen hier klicken 

Dies Nachricht muss ergänzt werden. So meldet dpa am 19.3.12

"Bundesnetzagentur rechnet mit kräftigem Anstieg der Strompreise"

Die Energiewende macht den Bau leistungsfähiger Stromtrassen notwendig. Fortschritt hat seinen Preis: Die Finanzierung könnte den Strompreis kräftig nach oben.

Bonn (dpa) – Stromverbraucher müssen sich wegen der Energiewende auf spürbare Preiserhöhungen einstellen. Hochrechnungen der Bundesnetzagentur ergeben, dass sich Haushaltsstrom in den kommenden Jahren allein durch höhere Netzentgelte um fünf bis sieben Prozent verteuern wird. Hintergrund ist der durch mehr alternative Energien notwendige Ausbau der Stromnetze…

…Die angenommene Investitionsspanne reicht von knapp 30 bis zu 47,5 Milliarden Euro. Genauere Berechnungen werden erst nach Vorlage des Bundesbedarfsplans für die Netze möglich sein, der im Laufe des Jahres erwartet wird. Die Energiewende werde zwangsläufig "zu einer weiteren Erhöhung der Netzentgelte und damit des Strompreises führen", zitiert die "FAZ" aus dem Bericht.

…Für höhere Kosten sorgt auch die im Sommer 2011 neu beschlossene Stromnetzentgeltverordnung. Danach können Unternehmen mit hohem Stromverbrauch Rabatte beantragen….Mehr als 1600 Anträge sind bei der Netzagentur bisher eingegangen. Die Rabatte oder vollständigen Befreiungen haben ein Volumen von mehr als 400 Millionen Euro jährlich – Geld, das auf die übrigen Stromkunden umgelegt wird…

Die Redaktion




Der Anfang vom Ende der Windkraft

Gerundet zur nächstfolgenden ganzen Zahl ist der Anteil der Weltenergieerzeugung aus Windkraft heute: Null! Trotz der rückläufigen Subventionen (die Pensionäre in die Energie-Armut stürzt, während sich die Weinkeller großer Besitztümer immer weiter füllen), trotz des Zerreißens ländlicher Kommunen, der Vernichtung von Arbeitsplätzen, geraubter Illusionen, der Errichtung von Windmasten, des Fällens von Wäldern, der Tötung von Fledermäusen und Adlern, der Verursachung von Industrieunfällen, verstopfter Autobahnen und der Verschmutzung von Seen in der Inneren Mongolei mit den giftigen und radioaktiven Abfällen der Raffinade von Neodymium, von dem etwa eine Tonne in einer normalen Windturbine steckt – trotz all dem hat die Energieerzeugung durch Windkraft weltweit noch nicht einmal ein halbes Prozent erreicht.

Wenn das mit der Windkraft wirklich funktionieren würde, hätte das bis jetzt der Fall sein müssen. Die britische Bevölkerung sieht das ziemlich klar, obwohl Politiker häufig absichtlich taub sind. Die gute Nachricht ist, wenn man genau schaut, kann man erkennen, dass der Regierung von David Cameron allmählich das gesamte Fiasko dämmert. Die größten Investoren in Offshore-Windanlagen – Mitsubishi, Gamesa und Siemens – beginnen sich Sorgen zu machen, dass das Herz der Regierung nicht länger für die Windenergie schlägt. Vestas, wo man Pläne für eine Fabrik in Kent hat, möchte vom Premierminister noch vor dem Baubeginn eine Rückversicherung, dass der politische Wille zur Errichtung von Windturbinen noch vorhanden ist.

Dies erzwingt eine Entscheidung von Mr. Cameron – wird er den Turbinenmagnaten die Rückversicherung geben, dass er die Windenergie weiterhin subventionieren wird, oder will er davon Abstand nehmen? Der politische Wind hat sich mit Sicherheit gedreht. George Osborne ist absolut gegen Windparks, weil ihm nur zu klar geworden ist, wie viel sie kosten. Der Schatzkanzler und sein Team haben im Stillen Parlamentsmitglieder gebeten, einen Brief an Nr. 10 zu senden, und zwar des Inhalts, dass es ‚in diesen finanziell angespannten Zeiten unklug ist, die Verbraucher durch Subventionen des Steuerzahlers für eine ineffiziente und nur zeitweise stattfindende Energieerzeugung zahlen zu lassen, die typisch ist für Offshore-Windturbinen.

Die Errichtung offshore kann zwar Widerstände von Nachbarn umgehen, aber (Schatzkanzler, Achtung!) das ist sogar noch sinnloser, weil es Sie und mich – die Steuerzahler – doppelt so viel kostet. Ich weiß von einem Fachmann, einem Marineingenieur, dass der Betrieb von Windturbinen im Schotter, in den Gezeiten und den Stürmen der Nordsee in 25 Jahren ein nahezu hoffnungsloses Unterfangen ist. Daher dürften die Reparaturrechnungen horrend und das Ergebnis enttäuschend sein. Schon das Abdichten der Fundamente von Hunderten von Windturbinen vor den Küsten von Kent, Dänemark und auf der Dogger-Bank ist gescheitert, was kostspielige Reparaturen nach sich zog.

In Großbritannien beträgt der Anteil von Wind zur Energieerzeugung 0,6 Prozent. Der Renewable Energy Foundation zufolge werden ‚politische Maßnahmen, die darauf abzielen, die Direktive der EU bis zum Jahr 2020 zu erfüllen, dem Steuerzahler zusätzliche Kosten in Höhe von 15 Milliarden Pfund pro Jahr aufbürden’, das sind 670 Pfund pro Haushalt. Es ist schwer zu erkennen, welchen Gegenwert man für dieses Geld erhält. Die Gesamteinsparung an Kohlendioxidemissionen durch den großen Windrausch liegt wahrscheinlich unter 1%, und zwar wegen der Notwendigkeit, das Verbrennen fossiler Treibstoffe als Backup aufrecht zu erhalten, wenn der Wind mal nicht weht. Es kann sogar eine negative Zahl sein.

Amerika [die USA] hat viel mehr Glück. Die Kohlenstoffemissionen gingen einer Harvard-Studie zufolge in den USA im Jahr 2009 um 7 Prozent zurück. Aber die Studie kommt zu dem Ergebnis, dass dies weniger an der Rezession in jenem Jahr gelegen hat, sondern am fallenden Preis für Erdgas – verursacht durch die Schiefergas-Revolution. (Das Verbrennen von Gas emittiert weniger als die Hälfte des Kohlendioxids wie Kohle zur Erzeugung der gleichen Menge Energie). Der Gaspreis ist seitdem immer weiter gefallen, was die Kohle vergleichsweise teuer macht. Über die gesamten USA, von Utah bis West Virginia, werden Kohleminen geschlossen und Kohlekraftwerke stillgelegt oder nicht mehr gebaut. (Die Energy Information Administration der USA rechnet damit, dass jede Ausgabe von 4 Dollar die gleiche Energiemenge erzeugt wie Öl für 25 Dollar; bei solchen Raten werden immer mehr Fahrzeuge auf Gasantrieb umstellen.

Selbst wenn man die alarmistischsten Vorhersagen der Klimaänderung akzeptiert, tun diese Turbinen, die ihre bevorzugten Ansichten ruiniert haben, nichts, um Ihnen zu helfen. Die Schiefergas-Revolution hat die Windindustrie nicht nur beschämt, indem sie vorgeführt hat, wie Dekarbonisierung in der Realität aussehen kann, sondern sie hat auch das letzte schwache Argument der Windindustrie hinweg gefegt – dass nämlich die geringer werdenden Vorräte an fossiler Energie so stark im Preis steigen werden, dass der Wind eventuell wettbewerbsfähig werden kann, selbst ohne Subvention. Selbst wenn die Ölvorräte wirklich abnehmen, wird billiges Gas voraussichtlich noch viele Jahrzehnte lang zur Verfügung stehen.

Zwar werden sie es noch eine Zeitlang nicht zugeben, aber den meisten Ministern ist klar geworden, dass sich die Summen für Windkraft einfach nicht rechnen und das auch niemals tun werden. Die Entdeckung von Schiefergas bei Blackpool hat weit reichende Implikationen für die Zukunft der britischen Energieversorgung, die zu erschließen die Regierung anscheinend dämlicherweise unwillig war. Stattdessen hat sie ein massives Subventionsprogramm für Windparks in der Schublade, welche jetzt offenbar obsolet sind, zum einen als ein Mittel der Energieerzeugung, zum anderen als Dekarbonisierung. Es ist fast unmöglich zu erkennen, welche Funktion dieses Programm haben soll, außer dass jene, die von diesem Subventionsbetrug profitieren, den großen Reibach machen.

Selbst in Boomzeiten würden Windparks unbezahlbar sein – sie blasen die ökonomische und ökologische Ratio einfach davon. In einer Zeit der Knappheit ist die Politik verdammt, obwohl so viele Verträge unterzeichnet worden sind zur Ausweitung von Windparks, was noch eine Weile weitergehen könnte. Aber der Skandal ist zu Ende. Und da wir allmählich einen Überblick über die ökonomischen- und Umweltschäden bekommen, lautet die offensichtliche Frage, wie dieser Wahn so lange andauern konnte. Dass die Windkraft als Quelle bezahlbarer und stets verfügbarer Energielieferant völlig unbrauchbar war, war kein Geheimnis – wie also war es möglich, dass der Windpark-Skandal so viele politische Entscheidungsträger an der Nase herumgeführt hat?

Eine Antwort ist das Geld. Es hatten zu viele Leute ihre Schnauzen im Futtertrog. Nicht die Hersteller, Betreiber und Besitzer des Landes, auf dem Windparks errichtet worden sind, sondern die Finanziers: Windpark-Kapitalgesellschaften erlebten vor einigen Jahren einen Boom – garantierte Einkommensströme sind das, was Kapitalisten am meisten mögen; sie werden sogar dafür bezahlt, an sehr windigen Tagen diese Monster abzuschalten, um das Netz nicht zu überlasten. Selbst das Militär nahm das Geld. Windfirmen zahlten für ein neues Radarsystem der Militärs in Brizlee Wood in Northumberland 20 Millionen Pfund, um so das Verteidigungsministerium dazu zu bringen, seinen Widerstand gegen den Windpark in Fallago Rig mit 48 Windturbinen in Berwickshire aufzugeben.

Die großen Umweltorganisationen waren diesbezüglich beschämend ruhig, wie z. B. die Royal Society for the Protection of Birds, die im vergangenen Jahr generöse Beiträge von der Windindustrie erhalten hatte durch ein Venture mit der Bezeichnung RSPB Energy. Und selbst Journalisten: In einer Zeit, in der sich die Werbung nach der Decke strecken muss, waren britische Zeitungen gerammelt voll mit fadenscheinigen, aber lukrativen ‚Debatten’ und Unterstützung für erneuerbare Energien, gesponsert von einer ganzen Kohorte von Interessengruppen.

Und gerade wenn der Skandal jetzt im Sterben liegt, finde ich mich als Teil desselben wieder. Ein Familientrust hat einen Vertrag unterschrieben, nach dem eine Windfabrik diesem Trust pro Jahr 8500 Pfund zahlt, und zwar für die Errichtung einer Windturbine auf einem Stück Land, dass einmal meinem Großvater gehört hatte. Er war klug genug, die Abbaurechte nicht zu verkaufen, und die Fundamente der Turbine stören diese Abbaurechte, so dass die Treuhänder Kompensation leisten mussten. Ich werde das Geld nicht bekommen, weil ich kein Nutznießer des Trusts bin. Nichtsdestotrotz ist der Gedanke, dass irgendein Teil meiner Familie Windgeld erhält, so abstoßend, dass ich mich entschlossen habe zu handeln. Der wirkliche Gegner sind nicht die Windparks als solche, sondern das Gruppendenken und die Hysterie, die es ermöglicht haben, dass eine so skandalöse Idee so viele Fortschritte machen konnte – mit einem Minimum an intellektueller Opposition. Also werde ich einen Scheck über 8500 Pfund ausstellen, den [die Zeitung] The Spectator als Preis vergibt für den besten Artikel über einen rationalen, auf Fakten basierenden Umweltjournalismus.

Man wird ihn den Matt-Ridley-Preis für Umweltketzerei nennen. Um den Bankrott zu verhindern werde ich das Geld solange spenden, wie das Windgeld fließt – je schneller also Dave [Cameron] die Subventionen allesamt streicht, umso schneller wird er mich und die Gewinner des Preises wieder los.

Bewerber sind hiermit eingeladen, und eine Gruppe von Juroren wird das brillanteste und rationellste Argument belohnen – das sich durch Vernunft und Beweise auszeichnet – um eine geheiligte Kuh der Umweltbewegung zu schlachten. Es gibt viele, aus denen man wählen kann: Der Gedanke, dass Windenergie gut für das Klima ist, oder das Biodiesel gut für den Regenwald ist, oder das organische Landwirtschaft gut für den Planeten ist, oder dass Klimaänderungen eine größere Gefahr bzgl. des Aussterbens einer Spezies sind als invasive Spezies, oder dass das Nachhaltigste, was wir tun können, die Deindustrialisierung ist.

Meine Spende, obwohl wichtig für mich, ist ein Tropfen im Ozean im Vergleich mit den Geldsummen, die jede Stunde in die grüne Bewegung gepumpt werden. Jeremy Grantham, ein Hedgefonds-Plutokrat, hat einen Scheck über 12 Millionen Pfund für die London School of Economics ausgestellt, um ein Institut mit seinem Namen zu gründen, welches seitdem für seine aggressive Haltung und seine extremen grünen Statements berüchtigt ist. Dazwischen spenden Greenpeace und der WWF fast eine Milliarde pro Jahr nur für die ‚öffentliche Bildung’. All dies wird widerspruchslos beurteilt: eine Sache der Bildung, nicht Propaganda.

•••

Im Gegensatz dazu brach vor Kurzem ein Proteststurm los wegen der Nachrichten über eine kleine konservative Denkfabrik namens Heartland, die vorgeschlagen haben soll, gerade mal 200 000 Pfund pro Jahr zu spenden für die Beeinflussung der Bildung gegen den Klimaalarmismus. Einen Tag später spendete die William and Flora Hewlett Foundation mit einem Vermögen von 7,2 Milliarden Dollar 100 Millionen Dollar an eine The ClimateWorks Foundation genannte Institution, einer pro-Wind-Organisation, und zwar zusätzlich zu den 481 Millionen Dollar, die der gleiche Empfänger 2008 erhalten hatte. Der tiefgrüne Sierra-Club hat kürzlich zugegeben, 26 Millionen Dollar von der Gasindustrie erhalten zu haben, um Lobbyarbeit gegen Kohle zu leisten. Aber das Geld ist nicht der einzige Grund, der das gesamte politische Establishment dazu gebracht hat, an die Windmärchen zu glauben. Psychologen haben eine Bezeichnung für das Wunschdenken, mit dem wir alle Mittel akzeptieren, falls das Ende hoffnungsvoll ist: ‚Noble-Cause corruption’ [etwa: Korruption aus ehrenwerten Gründen, oder salopp: Der Zweck heiligt die Mittel. A. d. Übers.]. Die Bezeichnung wurde zum ersten Mal vom leitenden Inspektor des Constabulatory, Sir John Woodcock im Jahr 1992 benutzt, um Fehlgeburten der Justiz zu erklären. ‚Es ist besser, dass einige unschuldige Männer im Gefängnis bleiben, als die Integrität des englischen Justizapparates in Frage zu stellen’, sagte der spätere Lord Denning mit Bezug auf die Sechs aus Birmingham.

Politiker sind besonders empfänglich für solche Bedingungen. In dem Bestreben, als modern angesehen zu werden, werden sie alle Arten geeigneter Gründe willkommen heißen. Wenn sich das durchsetzt – Gruppendenken politischer Parteien und die Medien in der Folge beschließen, dass es da keine Diskussion gibt – kann der größte aller Irrtümer dort Fuß fassen. Die Subvention nutzloser Windturbinen war die Ausgeburt eines großen intellektuellen Fehlers, ausgebrütet durch das Scheitern, konventionelles Wissen herauszufordern.

Es ist genau dieses Anbeten eines Konsens’, diese Vergötterung der Umwelt, bei dem die größten Fehler gemacht werden können. Es gibt etwa 3500 Windturbinen in Britannien und Hunderte weitere im Bau. Es wäre eine Schande für sie, wenn sie alle wieder abgebaut werden müssten. Die größte sollte verbleiben wie ein Kran auf einem aufgegebenen Kai, damit zukünftige Generationen sie bewundern können. Es wird damit niemals gelingen, effizient Energie zu erzeugen. Aber es gibt kein besseres Denkmal für die Dummheit der Menschheit.

The Matt Ridley Prize for Environmental Heresy

Rules for the Matt Ridley prize can be found at www.spectator.co.uk/ridleyaward. Entries close on 30 June 2012.

Matt Ridley The Spectator, 3 March 2012

Link: http://www.thegwpf.org/opinion-pros-a-cons/5128-matt-ridley-the-winds-of-change.html

Übersetzt von Chris Frey, der die letzten beiden Sätze absichtlich nicht mit übersetzt hat!




Cem Özdemir: „Die Bundestagsfraktion von Bündnis90/Die Grünen wurde zur Denkfabrik!“

Dort weiß man nämlich, dass die Herstellung von elektrischem Strom keine Gefühls- oder Glaubenssache ist, wie das bei Bündnis90/Die Grünen bisher der Brauch war und der Bevölkerung eingeimpft wurde, sondern von drei Faktoren bestimmt wird, nämlich der Energiedichte, der Verfügbarkeit und der Wirtschaftlichkeit. Dass die Sonne nachts nicht scheint, und der Wind nur selten mit der richtigen Stärke bläst, dass also die ‚Erneuerbaren’ nur sehr eingeschränkt verfügbar sind, wird man wohl wissen. Dagegen ist der Faktor Energiedichte den Fraktionsmitgliedern wegen ihrer physik- und technologiefernen Berufe vermutlich kaum bekannt. Denken ohne Wissen gibt kein realistisches Resultat, deshalb hier die Kennwerte: Je Kilogramm gewinnt man aus Holz oder Braunkohle 3 kWh, aus Steinkohle 8 kWh, aus Öl 11 kWh, aus Gas 12 kWh und aus aufbereitetem Uran-Kernbrennstoff 350.000 kWh. Die außerordentlich große Energiedichte der Kernkraft disqualifiziert die Erneuerbaren, deren Ergiebigkeit noch sehr viel kleiner ist als die des Holzes, auch weil sie nicht immer zur Verfügung stehen. Nun hat man in der Technik schon immer aus Fehlern gelernt und es dann besser gemacht. Bei der Reaktortechnik wird daran gearbeitet, die Probleme der Kernschmelze und der langlebigen Strahler zu beseitigen. Deutschland war dabei führend und auf einem gute Wege, das Projekt musste trotzdem eingestellt werden. Woanders wird das Projekt fortgesetzt, denn sobald die bisherigen Sicherheitsrisiken beseitigt sind, macht jeder der drei Faktoren die Kernenergie konkurrenzlos. Sie wird deshalb dominieren. Vernünftig, denn schließlich wird für immer mehr Menschen auf der Welt sehr viel mehr Energie gebraucht. In China werden die bei uns schon vor Jahrzehnten gewonnenen Kenntnisse und Erfahrungen mit guten Erfolgsaussichten weiter entwickelt, und in nicht zu ferner Zukunft wird man die dann problemfreien Lösungen zum Kauf anbieten. Ob man Deutschland einen Vorleistungs-Rabatt gewährt?

Nach Herrn Özdemir hätte „ die Energiewende schon längst beginnen müssen“. Da jetzt das Denken angesagt ist,  sollte er berücksichtigen – was man schon vorher hätte wissen können – dass eine in Jahrzehrzehnten entwickelte elektrotechnische Versorgungsstruktur nicht über Nacht radikal verändert werden kann. Auch die Energiewende erfordert Jahrzehnte, wenn sie denn technisch möglich und wirtschaftlich überhaupt vernünftig wäre. Beides ist es nicht! Schon das Beispiel Speicherung demonstriert einen gravierenden Mangel. Der Bau eines Pumpspeicherkraftwerkes erfordert mindestens 10 Jahre Untersuchungs-, Planungs- und Genehmigungszeit, 10 Jahre Bauzeit und kostet zwischen 600 und 800 Mill. Euro, und für die nötige Versorgungssicherheit brauchen wir davon Hunderte. Das ist weder topografisch noch geologisch möglich. Dass die Schwarz-Gelben „tief in ihrem Herzen nie an die erneuerbaren Energien geglaubt haben“ mag sein, jedenfalls nicht so naiv und innig wie Bündnis90/Die Grünen. Leider hat Schwarz-Gelb mit verängstigtem Blick auf Wählerstimmen versäumt, sich gegen den Glauben zu wehren und mit Sachargumenten Aufklärungs- und Überzeugungsarbeit zu leisten. An Argumenten und Fakten fehlt es nicht, denn inzwischen gibt es genug schlimme Erfahrungen mit der Praxis der ‚Erneuerbaren’; das Internet ist voll davon. Der Kern des Problems liegt tiefer: „In Deutschland sind mehr Menschen leichter verführbar“, bemerkte Helmut Schmidt in einem TV-Gespräch. Wie die Geschichte lehrt, ist das so. Sachgerecht zu entscheiden und pragmatisch zu handeln, wäre angesagt. Denkste! Es dominieren Angst, Emotion und nicht selten sogar Panik. 

F.K. Ewert EIKE




Keine Folgen des Klimawandels in den USA

Folgen des Klimawandels in den USA bleiben aus

von Craig Loehle, PhD

In vielen Regierungsberichten von NASA, NOAA, EPA, USFWS, USFS, USDA und weiteren Behörden steht, dass die Folgen des Klimawandels in den USA bereits zu bemerken wären. Darüber wird geschrieben im Zusammenhang mit der Erhaltung gefährdeter Arten, Waldzustandsbeurteilungen, zukünftiger Wasserverfügbarkeit, Katastrophenplanung, Landwirtschaftspolitik usw. Ich habe viele solche Berichte gelesen, die sich oft auf das IPCC berufen oder das amerikanische Global Change Research Program (Programm zur Erforschung der globalen Veränderungen).

Normalerweise bleiben die Beurteilungen vage, wenn es um die Einzelheiten zukünftiger schlimmer Zustände geht, im allgemeinen wird auf das Ansteigen extremer Ereignisse verwiesen. Trotzdem werden solche schlimmen Zustandsbeschreibungen als Leitlinien für die Politik benutzt

Die USA verfügen über die besten Daten und sie sind ein großes Land. Sind wirklich schlimme Auswirkungen des Klimawandels zu beobachten?

Im Folgenden beschäftige ich mich mit den Indizien, die häufig vorgebracht werden, um die Behauptungen zu stützen und ich werde sie anhand der Fachliteratur überprüfen. Der wahre Sachverhalt ist weit davon entfernt, alarmierend zu sein.

Versauerung der Meere

In einem Regierungsentwurf hieß es, das der pH-Wert der Meere um 0,1 Einheiten abgenommen hätte (mehr in Richtung “sauer”), und dass dies ein 30%iger Anstieg seit 1750 sei.
Weil pH eine logarithmische Skala ist, ist die Abschätzung von prozentualen Zunahmen problematisch: Eine Veränderung von 0.1 Einheiten kann nicht eine 30%ige Veränderung bedeuten, wie behauptet wurde. Ein ernsthafter, nicht im Bericht angesprochener Einwand ist, dass Langzeitaufzeichnungen für pH-Werte des Meeres nicht existieren.  Deshalb ist das Vorkommnis einer Veränderung von 0.1 Einheiten bezweifelbar, die Spreizungsbreite der Gewissheit für eine solche Schätzung wäre zweifelsohne sehr groß. Außerdem sind tägliche, jahreszeitliche und jährliche pH-Fluktuationen an jedem beliebigen Punkt in einer Größenordnung von ±0.3 pH Einheiten oder darüber (Middelboe and Hansen 2007; Pelejero et al. 2005).

Meeresspiegel-Anstieg

Einige Berichte behaupten, dass der Meeresspiegel-Anstieg eine Gefahr für die natürlichen Lebensräume der Vereinigten Staaten wäre. Andere konzentrieren sich auf die Risiken für entwickelte Gebiete. Dem Intergovernmental Panel on Climate Change (IPCC) zufolge steigen die Temperaturen wegen der menschlichen Aktivitäten seit 1980, die Schätzungen des Anstiegs der Meeresspiegel zeigen aber einen Anstieg seit etwa 1870 (früheste Aufzeichnungen) mit nahezu linearer Zunahme und ohne ein Zeichen von Beschleunigung. Der Meeresspiegel-Anstieg von 1870 bis 1980 ist wahrscheinlich nicht menschlich verursacht.
In einem Bericht steht, dass das IPCC einen Anstieg des Meeresspiegels von 0,4 m bis 2 m bis 2090 projiziert, aber der vierte IPCC-Bericht [AR4] macht diese Behauptung nicht, er gibt eine bestmögliche Schätzung von 0,28 bis 0,43 m an. Die jüngsten Anstiegsraten (http://sealevel.colorado.edu) mit einem 3,1 mm/Jahr Langzeit-Trend oder 0,31 m in 100 Jahren ohne Anzeichen einer “Beschleunigung,” stehen nur im Einklang mit der niedrigsten IPCC-Projektion. Tatsächlich wurde sogar eine Verlangsamung der Anstiegsrate festgestellt (Houston and Dean 2011). Beispiele für Papiere, die Meeresspiegel-Anstiege unterhalb der Bandbreite der IPCC-AR4-Projektionen sehen, sind: Bouwer (2011), Chu et al. (2010), Czymzik et al. (2010), Xie et al. (2010).

Temperatur-Anstieg

Regierungsamtliche Berichte melden, dass die US-Temperaturen seit 1961 um 2°F seit 1961 angestiegen seien. Schlussfolgerungen über das Aumaß des Temperatur-Anstiegs hängen aber stark vom Beginn-Datum der Berechnung ab. Zufällig erzeugt das Beginn-Datum 1961 den beunruhigendsten Anstieg. Dem steht ein Zeitraum von 1938 bis 2011 entgegen, wo kein Anstieg in den USA stattfand. Das gleiche gilt für die Veränderungen der Meeresoberflächen-Temperaturen. Sie ist auf natürliche Klima-Schwankungen zurückzuführen (e.g., Wyatt et al. 2011), die eine warme Periode in der Mitte des 20. Jh. verursachten und eine kalte Periode in den 1960ern.

Überschwemmungen

Berichte behaupten, dass Überschwemmungen zunähmen. Aber in den Daten ist das nicht zu erkennen. Hirsh und Ryberg (2011) haben gezeigt, dass es in keinem Gebiet der USA einen Trend hin zu stärkeren Überschwemmungen gibt, eine geringe Abnahme im Südwesten fand statt. Arrigoni et al. (2010) zeigten, dass der Klimawandel in den nördlichen Rocky Mountains seit 59 Jahren die Gewässereinzugsgebiete nicht beeinträchtigt hat, obgleich die Veränderungen durch die Lebensräume des Menschen die Unterschiede zwischen hohen und niedrigen Fluss-Mengen vermindert haben. Kundezewicz et al. (2005) haben in einer umfassenden Analyse von 195 langen Serien von täglichen Flussmengenaufzeichnungen die Hypothese einer Zunahme der täglichen Maxima verworfen. Der ansteigende Trend bei der Zunahme der Überschwemmungsschäden kann vollständig auf die steigende Bevölkerungsanzahl und deren Wohlstand zurückgeführt werden.

Häufigkeit regionaler Dürren

Berichten zufolge nehmen regionale Dürren nach Häufigkeit und Schwere zu. Typisch ist jedoch, dass solche Behauptungen in den Berichten mit keinerlei zuverlässigen Daten unterfüttert werden. Dürren sind schwierig zu charakterisieren, die entsprechenden Methoden sind mit der Zeit immer komplexer geworden. Die Abgrenzung eines Dürre-“Gebietes” ist extrem subjektiv und es gibt keine Standardmethoden dafür, auch keine standardisierten Daten.

Die Niederschlagsdaten und die Daten über Dürren scheinen nicht die Behauptung zunehmender Dürren-Häufigkeit und Stärke zu stützen. Sie deuten eher in die Richtung, dass die Dürre-Muster komplex sind. Es gab z. B. eine 5%ige Zunahme im Gesamtniederschlag in den USA, aber keine Zunahme der Trockenheit. Sheffield et al. (2009) fanden heraus, dass große Dürren mit der ENSO (El Nino Southern Oszillation) und den nordpazifischen und atlantischen Meeresoberflächen-Temperaturen (SSTs) zusammenhängen. Der Zusammenhang mit der ENSO wird durch eine Studie über den Südwesen der USA durch (McCabe et al. 2010) belegt. Weltweit waren die Mitt-1950er die Jahre mit der höchsten Anzahl von Dürren, die Mitt-1970er bis 1980er hatten die niedrigsten Vorkommens-Zahlen. Das ist kein einfacher, zunehmender Trend. Wieder ist die Festlegung der Mitt-1970er als Beginn-Datum die Ursache für die Herausbildung eines falschen zunehmenden Trends.

Heftige Gewitter-Ereignisse

Auswerteberichte behaupten, dass extrem heftige Gewitter zunähmen, obgleich Berichte über zunehmende Heftigkeit der Gewitter in keinem Regierungs-Archiv zu finden oder dokumentiert sind. “Gewitter” ist noch nicht einmal in der Klimatologie ein wohldefiniertes Objekt.

Es gibt offensichtlich seit geraumer Zeit eine Zunahme von Tornados. Aber die Verbesserungen in der Radar-Qualität und Beobachtungsüberdeckung während der vergangenen Jahrzehnte führen zu einem Entdeckungshäufigkeits-„Fehler“, weil immer mehr kleinere Tornados erkannt und aufgezeichnet werden. Darüberhinaus haben verbesserte Schutzvorkehrungen und Katastrophen-Maßnahmen zu häufigeren Meldungen und der Auslösung von Maßnahmen auch bei kleineren Stürmen geführt. Wenn man nur die Kategorien F4 und F5 zählt, die relativ konsistent entdeckt und aufgezeichnet werden, dann hat es keinen Trend währen der vergangenen 100 Jahre gegeben (Balling and Cerveny 2003).

Hurrikane

Angeblich nimmt die Stärke der Hurrikane zu. Das ist wahrscheinlich auf die verbesserte Bereichsabdeckung und Auflösung durch Satelliten zurückzuführen. Sie hat zu einer genaueren Erfassung und Erkennung der Stunden geführt, in denen ein Sturm maximale Stärke hat. Eine Studie, die die Entdeckungsmöglichkeiten in den verschiedenen Zeiträumen berücksichtigt (Vecchi and Knutson 2011) findet keinen Trend bei den Atlantik-Hurrikanen von 1878 bis 2008. Auch Studien über Hurrikane, die zum Festland zogen (Balling and Cerveny 2003), zeigen keinen Trend. Der letzte cat 3+ Hurrikan, bei dem das „Hurrikan-Auge“ über die kontinentalen USA zog, kam 2005 vor.

Brände

Bericht legen nahe, dass wärmere Temperaturen und sich verändernde Niederschlagsmuster zu mehr Bränden führten und deren jahreszeitliches Vorkommen veränderten. Indianer und frühe Europäische Siedler haben das Feuer extensiv genutzt. In Gebieten, die der landwirtschaftlichen Nutzung zugeführt wurden, (z. B. die Great Plains [im mittleren Westen]) gibt es fast kein Brände mehr. In einigen Wäldern im Westen gibt es mehr brennbare Masse als vor 200 Jahren.

Auch unter Berücksichtigung der Landschaftsveränderungen hat niemand eine Veränderung von Brandmustern in den USA feststellen können, die auf den Klimawandel zurückgeführt werden könnte. Die größten historischen Brände fanden im Westen vor rund 100 Jahren statt. Menschliche Tätigkeiten (Veränderungen der brennbaren Massen, mehr Entzündungsquellen, Brandstiftung) haben dagegen klar dokumentierte Wirkungen auf das Ausmaß von Bränden, wie auch die Politik des „Brennen-lassens“ im Westen, wie sie erst seit ein paar Jahrzehnten verfolgt wird.

Algenblüten

In Berichten steht, dass bösartige Algenblüten in marinen Ökosystemen häufiger, stärker und weiter verbreitet seien. Der Klimawandel ist nur ein Faktor, der bösartige Algenblüten hervorrufen kann, daneben ist der zunehmende Nährstoff-Eintrag wichtig.
Es gibt keine Veranlassung, Trends von Algenblüten dem Klimawandel zuzuschreiben. Auch hier besteht eine verbesserte Entdeckungswahrscheinlichkeit durch die seit Jahren zunehmende Verbesserung der Satelliten-Aufzeichnung.

Veränderungen der Ökosysteme

Es gibt Studien, die Reaktionen der Biota “im Einklang” mit der Erwärmung zeigen. Aber die meisten Veränderungen sind tatsächlich positiv. Negative Auswirkungen dagegen werden hypothetisiert (z. B. die „Phänologie“ könnte unterbrochen werden.) Aber Veränderungen im Vogelzug und bei den Nistzeiten deuten in Richtung von Anpassung und nicht in Richtung einer beunruhigenden Situation.

Die Studien zeigen eine weltweite Zunahme der primären Netto-Vermehrung während der vergangenden 50 – 100 Jahre, mit wenigen lokalen Ausnahmen (Alcaraz-Segura et al. 2010; Bellassen et al. 2011; Jia et al. 2009; Kohler et al. 2010; Lin et al. 2010; Nemani et al. 2003; Tian et al. 2010). Das wird auf ansteigenden CO2-Gehalt und zunehmende Temperaturen zurückgeführt. Wenn die Erwärmung seit der Kleinen Eiszeit zu ansteigender Netto-Vermehrung führt, wird es schwierig, sie als problematisch hinzustellen.

Schlussfolgerung

Die Behauptung, dass schlimme Auswirkungen des Klimawandels in den USA “bereits“ festgestellt werden könnten, ist völlig subjektiv, hypothetisch und ohne Beweise.

Referenzen

Aitken, S.N., Yeaman, S., Holliday, J.A., Wang, T., and Curtis-McLane, S. 2008. Adaptation, migration or extirpation: climate change outcomes for tree populations. Evolutionary Applications 1:95 111.

Alcaraz-Segura, D., Chuvieco, E., Epstein, H.E., Kasischke, E.S., and Trishchenko, A. 2010. Debating the greening vs. browning of the North American boreal forest: differences between the satellite datasets. Global Change Biology 16:760 770.

Anagnostopoulos, G.G., Koutsoyiannis, D., Christofides, A., Efstradiadis, A., and Mamassis, N. 2010. A comparison of local and aggregated climate model outputs with observed data. Hydrological Sciences Journal 55:1094 1110.

Arrigoni, A.S., Greenwood, M.C., and Moore, J.N. 2010. Relative impact of anthropogenic modifications versus climate change on the natural flow regimes of rivers in the northern Rocky Mountains, United States. Water Resources Research 46:W12542; doi:10.1029/2010WRO09162.

Balling, R.C., and Cerveny, R.S. 2003. Compilation and discussion of trends in severe storms in the United States: Popular perception v. climate reality. Natural Hazards 29(2):103 112.

Bellassen, V., Viovy, N., Luyssaert, S., LeMarie, G., Schelhaas, M.-J., and Ciais, P. 2011. Reconstruction and attribution of the carbon sink of European forests between 1950 and 2000. Global Change Biology 17:3274 3292.

Bouwer, L.M. 2011. Have disaster losses increased due to anthropogenic climate change? Bulletin of the American Meteorological Society 92:39 46.

Chu, P.-S., Chen, Y.R., and Schroeder, T.A. 2010. Changes in precipitation extremes in the Hawaiian islands in a warming climate. Journal of Climate 23:4881 4900.

Cole, K. 1985. Past rates of change, species richness and a model of vegetational inertia in the Grand Canyon, Arizona. American Naturalist 125:289 303.

Cole, K.L. 2009. Vegetation response to early Holocene warming as an analog for current and future changes. Conservation Biology 24:29 37.

Cwynar, L.C., and Spear, R.W. 1991. Reversion of forest to tundra in the central Yukon. Ecology 72:202 212.

Czymzik, M., Dulski, P., Plessen, B., von Grafenstein, U., Naumann, R., and Brauer, A. 2010. A 50 year record of spring‐summer flood layers in annually laminated sediments from Lake Ammersee (southern Germany). Water Resources Research 46:W11528; doi:10.1029/2009WR008360.

Hirsch, R.M., and Ryberg, K.R. 2011. Has the magnitude of floods across the USA changed with global CO2 levels? Hydrological Sciences Journal doi:10.1080/02626667.2011.621895.

Houston, J.R., and Dean, R.G. 2011. Sea-level acceleration based on U.S. tide gauges and extensions of previous global-gauge analyses. Journal of Coastal Research doi:10.2112/JCOASTRES D 10 00157.1.

Jia, G.J., Epstein, H.E., and Walker, D.A. 2009. Vegetation greening in the Canadian arctic related to decadal warming. Journal of Environmental Monitoring 11:2231 2238.

Kohler, I.H., Poulton, P.R., Auerswald, K., and Schnyder, H. 2010. Intrinsic water-use efficiency of temperate seminatural grassland has increased since 1857: An analysis of carbon isotope discrimination of herbage from the Park Grass Experiment. Global Change Biology 16:1531 1541.

Kundzewicz, Z.W., Graczyk, D., Maurer, T., Pinskwar, I., Radziejewski, M., Svensson, C., and Szwed, M. 2005. Trend detection in river flow series: 1. Annual maximum flow. Hydrological Sciences Journal 50(5):797 810.

Lin, D., Xia, J., and Wan, S. 2010. Climate warming and biomass accumulation of terrestrial plants: A meta-analysis. New Phytologist 188:187 198.

Loehel, C. 1998. Height growth rate tradeoffs determine northern and southern range limits for trees. Journal of Biogeography 25:735 742.

Loehle, C. 2000. Forest ecotone response to climate change: sensitivity to temperature response functional forms. Canadian Journal of Forest Research 30:1632 1645.

Loehle, C. 2003. Competitive displacement of trees in response to climate change or introduction of exotics. Environmental Management 32:106 115.

Loehle, C. 2011. Criteria for assessing climate change impacts on ecosystems. Ecology and Evolution doi:10.1002/ece3.7.

Loehle, C., and LeBlanc, D.C. 1996. Model-based assessments of climate change effects on forests: a critical review. Ecological Modelling 90:1 31.

Masek, J.G. 2001. Stability of boreal forest stands during recent climate change: Evidence from Landsat satellite imagery. Journal of Biogeography 28:967 976.

McCabe, G.J., Legates, D.R., and Lins, H.F. 2010. Variability and trends in dry day frequency and dry event length in the southwestern United States. Journal of Geophysical Research 115:D07108; doi:10.1029/2009JD012866.

Middelboe, A.L. and Hansen, P.J. 2007. High pH in shallow-water macroalgal habitats. Marine Ecology Progress Series 338: 107-117

Morin, X., Lechowicz, M.J., Augspurger, C., O’Keefe, J., Viner, D., and Chuine, I. 2009. Leaf phenology in 22 North American tree species during the 21st century. Global Change Biology 15:961 975.

Nemani, R.R., Keeling, C.D., Hashimoto, H., Jolly, W.M., Piper, S.C., Tucker, C.J., Myneni, R.B., and Running, S.W. 2003. Climate-driven increases in global terrestrial net primary production from 1982 to 1999. Science 300:1560 1563.

Noble, I.R. 1993. A model of the responses of ecotones to climate change. Ecological Applications 3:396 403.

Payette, S. 2007. Contrasted dynamics of northern Labrador tree lines caused by climate change and migration lag. Ecology 88:770 780.

Pelejero, C., Calvo, E., McCulloch, M.T., Marshall, J.F., Gagan, M.K., Lough, J.M. and Opdyke, B.N. 2005. Preindustrial to modern interdecadal variability in coral reef pH. Science 309: 2204-2207

Schliep, E. M., Cooley, D., Sain, S.R., and Hoeting, J.A. 2010. A comparison study of extreme precipitation from six different regional climate models via spatial hierarchical modeling. Extremes 13:219 239.

Sheffield, J., Andreadis, K.M., Wood, E.F., and Lettenmaier, D.P. 2009. Global and continental drought in the second half of the twentieth century: Severity-area-duration analysis and temporal variability of large-scale events. Journal of Climate 22:1962 1981; doi:10.1175/2008JCLI2722.1.

Stephens, G. L., L’Ecuyer, T., Forbes, R., Gettlemen, A., Golaz, J.-C., Bodas-Salcedo, A., Suzuki, K., Gabriel, P., and Haynes, J. 2010. Dreary state of precipitation in global models. Journal of Geophysical Research 115:D24211.

Tian, H., Chen, G., Liu, M., Zhang, C., Sun, G., Lu, C., Xu, X., Ren, W., Pan, S. and Chappelka, A. 2010. Model estimates of net primary productivity, evapotranspiration, and water use efficiency in the terrestrial ecosystems of the southern United States during 1895-2007. Forest Ecology and Management 259:1311 1327.

Tinner, W., Bigler, C., Gedye, S., Gregory-Eaves, I., Jones, R.T., Kaltenrieder, P., Krähenbühl, U., and Hu, F.S. 2008. A 700-year paleoecological record of boreal ecosystem responses to climatic variation from Alaska. Ecology 89:729 743.

Vecchi, G.A. and Knutson, T.R. 2011. Estimating annual numbers of Atlantic hurricanes missing from the HURDAT database (1878-1965) using ship track density. Journal of Climate 24:1736 1746; doi:10.1175/2010JCLI3810.1.

Wertin, T.M., McGuire, M.A., and Teskey, R.O. 2010. The influence of elevated temperature, elevated atmospheric CO2 concentration and water stress on net photosynthesis of loblolly pine (Pinus taeda L.) at northern, central and southern sites in its native range. Global Change Biology 16:2089 2103.

Williams, J.W., Tarasov, P., Brewer, S., and Notaro, M. 2011. Late Quaternary variations in tree cover at the northern forest-tundra ecotone. Journal of Geophysical Research 116:G01017.

Woollings, T. 2010. Dynamical influences on European climate: An uncertain future. Philosophical Transactions of the Royal Society A 368:3733 3756.

Wyatt, M.G., Kravisov, S., and Tsonis, A.A. 2011. Atlantic Multidecadal Oscillation and Northern Hemisphere’s climate variability. Climate Dynamics doi:10.1007/s00382 011 1071 8.

Xie, B., Zhang, Q., and Wang, Y. 2010. Observed characteristics of hail size in four regions in China during 1980–2005. Journal of Climate 23:4973 4982.

Original hier.
Übersetzung: Helmut Jäger, EIKE




Golfstrom im Visier der Klima-Alarmisten!

Seit einiger Zeit kann man Schlagzeilen dieser Art lesen [4]: "Forscher warnen – Der Golfstrom läuft heiß", dagegen aber auch [5]: "Golfstrom ist stabil" und [6] "Kein Trend bei der Meeresströmung an der Grönland-Schottland-Schwelle".

Der Golfstrom 

Das weiß jeder: Die warme Meeres-Strömung namens Golfstrom transportiert große Mengen warmen Wassers von West nach Ost über den Nordatlantik und sorgt an den Westküsten Europas zwischen etwa 50 und 70 Grad nördlicher Breite ganzjährig für ein mildes Klima. Diese Wohltat der Natur begreift man erst, wenn man in der genannten geographischen Breite über den Atlantik an die Ostküste des nordamerikanische  Kontinents schaut. Dort bestimmt der Antagonist des Golfstroms Wetter und Klima, nämlich der aus der eisigen Baffin-Bay nach Süden strömende kalte Labrador-Strom. So hat St. Jones an der Ostküste von Neufundland in 47°N ein Jahresmittel von 5°C, dagegen haben am Westeingang des Englischen Kanals die Orte Brest auf 48°N und Plymouth auf 50°N ein Jahresmittel von jeweils 11°C ! Das sind Wetter- und Klima-Welten in einer anderen Liga!

Wer von den historischen Seefahrern diese quer über den Atlantik reichende Meeres-Strömung als erster bemerkt hat, wird im Dunkel der Geschichte verborgen bleiben. Fest steht soviel [7]: "1513 entdeckte der spanische Seefahrer Ponce de Leon vor der Küste Floridas eine starke Strömung, die seinen Schiffen das Vorwärtskommen nach Westen erheblich erschwerte. Später wurde diese Strömung als Golfstrom bezeichnet, weil ein großer Teil der Strömung aus dem Golf von Mexiko stammt."

Zur Namensgebung findet man [8] : "Der Name Golfstrom wurde von Benjamin Franklin geprägt und bezieht sich auf den Golf von Mexiko. Früher wurde er auch "Floridastrom“ genannt, auf den Karten des 16. und 17. Jahrhunderts heißt er Canal de Bahama."

Die erste systematische Erfassung und Untersuchung von Meeres-Strömungen, also auch des Golf-Stromes, wurde auf Veranlassung des US-Amerikanischen Seefahrers und Wissenschaftlers Matthew Fontaine Maury (1806-1873) veranlasst [9]: "Maury war Initiator und Organisator der Golfstromforschung, durch die wichtige technische Entwicklungen angestoßen wurden. Diese wurden speziell durch Probleme sowohl bei der Erfassung der Wassertiefe und die Beschaffung von guten Bodenproben als auch durch die Messung der Wassertemperatur als Funktion der Tiefe ausgelöst."

Was treibt die Meeres-Ströme ?

Die Planetarischen Windsysteme sind Ursache und Antrieb der weltweiten Meeres-Ströme (Abb.1).

 

Abbildung 1

Planetarische Windsysteme

Wie die Abbildungen 1 und 2 veranschaulichen, sind die Passate und die West-Wind-Gürtel dabei von herausragender Bedeutung. Die Zusammenhänge sind unübersehbar.

 

Abbildung 2

Meeres-Ströme, Schema

Auf dem Nord-Atlantik entsteht durch stetigen Nordostpassat die Meeresströmung  "Nördliche Passat-Drift" (Abb.3). Dieser Meeres-Strom wird durch die in Strömungsrichtung nach rechts ablenkende Kraft der Erdrotation, die so genannte Coriolis-Kraft, zunächst in eine nach Westen und dann mehr und mehr nach Nordwesten und Norden gerichtete Strömung umgelenkt. Zusätzlich trägt dazu die Küsten-Konfiguration Mittel- und Nordamerikas bei, wie die Abb.3 veranschaulicht. Eine bedeutsame Rolle spielt dabei auch der Golf von Mexiko, letztlich sogar als Namensgeber. Bei 40° Nord – also östlich von New York – hat der Golfstrom eine Strömungs-Geschwindigkeit von 5 km/h. Das ist für einen Meeresstrom gewaltig, die Seefahrer müssen damit seit eh und je zurecht kommen.

Abbildung 3

Entstehung und Verlauf des Golf-Stromes

Meeres-Ströme: "Flüsse" im Meer ?

Nein  –  ganz und gar nicht. Denn es gibt weder Ufer noch sonstige Begrenzungen, abgesehen von Küsten natürlich. So passiert auch bei den Meeres-Strömen das, was wir von jeglicher strömender, fließender Materie auf der Erde kennen: Infolge von Reibungen, physikalischen Instabilitäten, Temperatur- und Dichte-Unterschieden, Corioliskraft sowie auch Wetterlagen (Stürme) bilden sich Wirbel in verschienen Größenordnungen. Die Natur arbeitet in Wirbeln, fast überall, insbesondere auch in der Atmosphäre. Wirbel transportieren Masse und Energie. Natürlich entstehen bei Meeres-Strömen durch Wind und Wellen auch vertikale Wirbel, im Wesentlichen in den oberen Dekametern. Die Wirbel an der Meeres-Oberfläche sind seit etwa 20 Jahren in den Infrarot-Aufnahmen der Satelliten erkennbar, auch beim Golfstrom – Abb.4.

Abbildung 4

Infrarot-Bild des Golf-Stromes [10]

Aus vielen solcher IR-Aufnahmen kann man dann ein detailliertes Schema modellieren, wie in der Abb. 5 dargestellt [11].

Abbildung 5

Modell-Bild des Golf-Stromes [11]

In den Abbildungen 3 und 5 ist erkennbar, daß der Golfstrom nach dem Einschwenken in die gemäßigten Breiten nun von den Stürmen des Westwind-Gürtels in östlicher Richtung weiter getrieben wird. Dabei fächert der Golfstrom auf (èAbb. 3). Der Hauptstrom geht an Irland, Schottland und Skandinavien vorbei bis in Barents-See, und sorgt entlang seiner Bahn ganzjährig für eisfreie Häfen. Ein kräftiger Seitenarm schwenkt in die Biskaya und den Englischen Kanal. Ein anderer Arm zweigt ab in die Irminger See, und zum Teil sogar weiter zwischen Grönland und Island hindurch nach Norden.

Die thermo-haline Zirkulation

Der Golfstrom verliert auf seinem Weg durch die Subtropen und die gemäßigten Breiten Wasser und Wärme durch Verdunstung. Hinzu kommt ein Verlust von fühlbarer Wärme an die immer kälter werdende Luft, je weiter der Golfstrom nach Norden kommt. Infolge von Verdunstung und Temperatur-Abfall steigt die Salz-Konzentration, das Wasser wird dichter und  –  bezogen auf die Volumen-Einheit  –  damit auch "schwerer". So beginnt in höheren Breiten ein Absinken des Golf-Oberflächen-Wassers. Das hat eine masse-ausgleichende Gegenströmung zu Folge: Kaltes Tiefenwasser strömt aus nördlichen Breiten nach Süden. Damit gibt es also  – zusätzlich zu den o.a. Windsystemen (Abb. 1)  – für das System der Meeres-Strömungen mit dieser thermo-halinen Zirkulation einen weiteren Antrieb, der wie eine "Umwälzpumpe" wirkt.

AGW: Kollabiert der Golfstrom ?

Im Zusammenhang mit der seit etwa 150 Jahren gemessenen mäßigen Erderwärmung von einem Dreiviertel Grad werden nun immer wieder Horror-Meldungen durch die Medien gejagt – z.B. derart, daß es zu einem Kollaps des Golfstromes und damit zu einer "Europäischen Eiszeit" kommen könne.

Dabei werden häufig zunächst drei Aspekte außer Acht gelassen:

(1)       Schwingungen und Veränderungen (auch) des Golfstroms gehören zur Normalität der globalen Zirkulationen;

(2)       Selbst in den Warmzeiten unserer aktuellen Klima-Periode (Holozän) hat es keine solche Kollapse gegeben, obwohl z.B. die Temperaturen während der Optima des Holozäns (4000-8000 vor heute), der Römer (um 2000 v.h.) und des Mittelalters (um 1000 v.h.) phasenweise höher lagen als heute;

(3)       Es gibt zwar auch in den letzte Jahrzehnten "Pendelungen" im Golfstroms bezüglich Strömungs- und Temperatur-Änderungen, aber keinerlei Anzeichen für dramatische Veränderungen oder gar Umbrüche.

So ließ jüngst das MPI Hamburg zu (1) verlauten [12] :

"Doch was die Forscher noch gar nicht so lange wissen: Die Zirkulation schwankt. Sie variiert mit den Jahren und kann mal schwächer, dann wieder stärker ausfallen."

Bei den Diskussionen zum Golfstrom sollte man  –  zumindest im Ansatz  –  zwei Aspekte unterscheiden:

(A)      Änderungen der Strömung in Intensität und Richtung, als ggf. signifikante Abweichungen von normalen säkularen Schwingungen;

(B)      Temperatur-Änderungen, ebenfalls unter dem Gesichtspunkt extremer Veränderungen gegenüber normaler säkularer Fluktuation.

Zu alledem gibt es eine Menge Literatur, mit z.T. widersprüchlichen Aussagen.

Intensität und Richtung

Seit 1996 beobachten und untersuchen Forschungs-Institute aus Kiel [13] in einem umfangreichen Projekt den Golfstrom: "Nahezu alle Klimamodelle zeigen, dass sich der Golfstrom in Zukunft abschwächen wird und einige unserer ausländischen Kollegen meinten, erste Anzeichen dafür in Messdaten erkennen zu können … Dies konnte aber in den von uns durchgeführten Langzeitbeobachtungen nicht bestätigt werden“. Und weiter heißt es in diesem Forschungsbericht: "Selbst wenn sich die Vorhersagen der Klimamodelle bestätigen sollten, werden wir hier in Europa nicht über kurz oder lang in eine Eiszeit rutschen … Bestenfalls wird die zu erwartende Klimaerwärmung in Nordeuropa etwas moderater ausfallen".

Für die Seegebiete vor Neufundland, in dem Golf- und Labrador-Strom aufeinander treffen, gibt es ebenfalls Ernüchterung: "Anders als erwartet zeigten die Strömungsmessungen am Ausgang der Labradorsee zwar große Schwankungen über Zeiträume von Wochen und Monaten, aber bislang keine dramatischen langfristigen Trends, die auf eine Abnahme der Golfstromzirkulation hindeuten würden."

Sogar in den katastrophilen Medien [5] steht dann manchmal Sachliches:

"Entgegen Befürchtungen von Klimaexperten ist der Golfstrom in den vergangenen Jahren nicht schwächer geworden. Seit 1995 habe die warme Meeresströmung, die für das Klima in Europa von großer Bedeutung ist, keinerlei Anzeichen einer Verlangsamung gezeigt, berichtet der NASA-Ozeanograf Josh Willis in der Fachzeitschrift ‚Geophysical Research Letters‘. Seine Studie stützt sich auf  Satellitenbilder und Messdaten von mehr als 3000 Forschungs-Bojen, die unter anderem Informationen über Temperatur und Salzgehalt lieferten. Die Fließgeschwindigkeit des Golfstroms habe sich demnach sogar leicht erhöht, was einem natürlichen  Zyklus entspreche. Klimaforscher hatten indes vorhergesagt, daß  die globale Erwärmung und das mit ihr einher gehende Abschmelzen polarer  Gletscher viel Süßwasser in den Atlantik spülen würde. Dadurch könnte, so ihre Befürchtung, der Golfstrom abgeschwächt werden."

Von Grönland über Island bis nach Schottland erstreckt sich am Meeresboden ein Höhenrücken – die Grönland-Schottland-Schwelle. Diese wirkt hemmend für den Wasser-Austausch, folglich auch bei Meeres-Strömen. Wenn der kalte nördliche Tiefenstrom sich in diesem Bereich verändert, so kann sich das auch auf den in oberen Atlantik-Schichten nach Norden fließenden Golfstrom auswirken, wegen einer abschwächenden themo-halinen Zirkulation (vgl.w.o.). Das wurde bereits 1973 in einer großen internationalen Forschungs-Expedition untersucht [14], und die Ergebnisse bis heute immer wieder überprüft [6]: "Kein Trend bei der Meeresströmung an der Grönland-Schotland-Schwelle : … Im Nordatlantik fließt warmes Wasser in den Arktisraum, sinkt dort durch Abkühlung ab, und gelangt als Tiefenwasser wieder nach Süden. Bisher wird vermutet, daß sich zukünftig diese Zirkulation durch den Klimawandel abschwächen kann. Messungen und Modellrechnungen einer neuen Studie lassen aber zumindest lokal für die Tiefenwasser-Strömung in der Nähe der Faröer-Inseln keinen Trend seit 60 Jahren feststellen."

Bleibt festzuhalten:

In den letzten 60 Jahren keine signifikanten Änderungen, kein Klima-Trend!

Golfstrom-Prognose möglich ?

Neuerdings gibt es Ansätze, den Golfstrom zu modellieren [12] : "Nun präsentieren Hamburger Klimaforscher im Fachmagazin "Science" ein Verfahren, mit dem sich die Schwankungen des Golfstroms treffsicher prognostizieren lassen."

Bei den Untersuchungen dazu gab es offensichtlich Erkenntnisse, die den ganzen Golfstrom-Alarmismus der letzten Jahre widerlegen: "Bis 2014 bleiben Atlantikzirkulation und Golfstrom weitgehend konstant und ändern sich kaum." …. "Eine durchaus beruhigende Nachricht. Denn im Frühjahr 2010 hatte es so ausgesehen, als würde die Zirkulation nachlassen. Manche werteten das schon als Zeichen einer dauerhaften Abschwächung oder gar eines Versiegens des Golfstroms, und zwar als mögliche Folge des Klimawandels. Doch heute ist klar: Das Nachlassen der Zirkulation vor zwei Jahren war nichts anderes als ein Intermezzo, hervorgerufen durch kurzzeitige Störungen in der Atmosphäre."

Ist nun eine Vorhersage des Golfstrom-Verhaltens möglich? Bezüglich des komplizierten Zusammenspiels zwischen Golfstrom, atmosphärischer Zirkulation, Wechselwirkungen mit anderen Meeres-Strömen sowie mit der themo-halinen Zirkulation gilt das, was auch für das ganze Klima-System gilt: Es handelt sich um ein nicht-lineares, überwiegend stochastischen System [15], daher sind Zweifel an einer realistischen Modellierbarkeit und gar Vorhersagbarkeit angebracht. Zumindest das Versagen der Klima-Modelle hinsichtlich der stagnierenden bzw. leicht zurück gehenden Temperaturen der letzten 14 Jahre gestatten auch bezüglich einer Vorhersagbarkeit des Golfstrom-Verhaltens erhebliche Zweifel. Unter all diesen Aspekten mutet die o.a. Aussage [12] über "… ein Verfahren, mit dem sich die Schwankungen des Golfstroms treffsicher prognostizieren lassen" … recht vermessen an. Aber auch hier gilt für Gegenwart und Zukunft: Die Natur schreibt die Wahrheit, und die sieht meist ganz anders aus, als die Ergebnisse der Modell-Szenarien!

Temperaturen des Golfstromes

Die Temperaturen des Oberflächenwassers sinken auf dem langen Weg des Golfstromes von etwa 30°C in den Subtropen bis auf Werte nahe Null in den hohen Breiten ab.

Nun gab es jüngst dramatische Meldungen [16]: "Der Golfstrom dreht Europas Fernheizung auf!", wozu u.a. ausgeführt wurde: Ein "internationales Forscherteam … kommt im Fachmagazin ‚Nature Climate Change‚ zu dem Schluss, dass sich der Golf- beziehungsweise Nordatlantikstrom im Verlauf eines Jahrhunderts doppelt bis dreifach stärker erwärmt hat als der Rest des Atlantiks und die Weltmeere insgesamt. Während der Atlantik an der Oberfläche um 0,9 Grad Celsius zulegte und die Ozeane weltweit um 0,6 Grad, erwärmte sich der Golfstrom um 1,8 Grad."

AGW-Klima-Katastrophe ? Nicht unbedingt, denn (a.a.O.): "Noch ist nicht definitiv geklärt, was Auslöser der Erwärmung ist."

Mehr noch: Noch ist auch nicht geklärt, ob diese Erwärmungs-Meldungen überhaupt signifikant und bewiesen sind, denn z.B. die Messungen des ARGO-Bojen-Systems zeigen das nicht (vgl.w.u.).

Dennoch Alarm (a.a.O.): "Die thermohaline Zirkulation könnte im Extremfall ganz zum Stillstand kommen", …aber zugleich wieder Entwarnung:  "In diesem Jahrhundert wird dies allerdings kaum passieren".

Und dann wird  – ausnahmsweise  –  auch mal darauf hingewiesen, daß weder die Forscher noch die Modelle irgend etwas im Griff haben (a.a.O.): "An diesem Punkt sehen sich die Forscher mit einer verzwickten Situation konfrontiert. Was überwiegt: die gerade entdeckten überproportional steigenden Temperaturen des Golfstroms, die dem Norden mehr Wärme bringen? Oder dessen Stocken, was Europas Fernheizung drosselt? Die Forscher wissen es noch nicht."

Schließlich wird für die ganz Ängstlichen sogar noch eine kleine Beruhigungspille verabreicht [16]: "Keineswegs würde das Stocken des Nordatlantikstroms also bedeuten, dass sich die Nordhemisphäre plötzlich dramatisch abkühlt".

Fazit: Vielleicht rettet AGW uns Europäer doch noch vor der Kälte-Starre ?

Wie dem auch sei  –  einer Nachprüfung halten die angeblich dramatischen Anstiege von Golfstrom-Temperaturen nicht stand, denn umfangreiche und langfristige Messungen der Temperaturen der Weltmeere u.a. auch mit dem Bojen-System ARGO finden nichts dergleichen:

Meeres-Temperaturen

Alarmistische Behauptungen, die Meere würden sich dramatisch erwärmen, werden durch Messungen widerlegt.

Zum Beispiel: Seit 1999 gibt es ein globales Netz von mittlerweile 3000 Bojen, die durch Auf- und Absteigen in den oberen 2000 Metern die Meeres-Temperaturen messen : ARGO.

 

Abb. 6

Das Bojen-System ARGO

Auswertungen von ARGO ergaben zum Beispiel [17]:

"Die ARGO-Bojen haben die AGW-Alarmisten enttäuscht, weil sie keinerlei Anzeichen für einen bevorstehenden Klimawandel gefunden haben. Wie Dr. Josh Willis, der für das Jet Propulsion Laboratory (JPL) der NASA arbeitet, in einem Interview mit National Public Radio bemerkte: Es gab eine ganz schwache Abkühlung …. aber das ist nicht wirklich signifikant.”

Eine Übersicht zu den zeitlichen Verläufen von Meeres-Temperaturen auf den Ozeanen geben die Abbildungen 7 bis 13 :

Abb. 7 [18]

Wasser-Temperaturen (SST) ARGO ; 2003-2008;

Fluktuationen, aber kein Trend.

 

Abb. 8 [19]

Wasser-Temperaturen ARGO (10 – 1500 Meter Tiefe); 2005-2011;

Fluktuationen im Bereich von Hundertstel(!) Graden, aber kein Trend.

 

Abb. 9

Wasser-Temperaturen östlich vor New York (1984-2010);

Die erheblichen Temperatur-Schwankungen zwischen 27°C im Sommer

und 5°C im Winter lassen erkennen, daß diese Meßboje im

mäandernden Bereich zwischen Golf- und Labrador-Strom liegt (è Abb.3);

Fluktuationen, aber kein Trend.

 

Abb. 10

Wasser-Temperaturen im Pazifik (Hawaii-Inseln);

1984 – 2010; Fluktuationen, aber kein Trend.

 

Abb. 11

Trends von CO2, Sea-Level und Meeres-Temperaturen (1993-2009)

(Hinweis-Pfeile eingefügt)

Auch in der Fram-Sraße zwischen Grönland und Spitzbergen ist kein Erwärmungs-Trend erkennbar, obwohl die Arktis sich angeblich dramatisch erwärmt :

Abb. 12

Meeres-Temperaturen (0 – 500 Meter Tiefe) in der Fram-Straße

zwischen Grönland und Neufundland; 1997-2010.

 

Abb. 13

Meeres-Temperaturen in den oberen 300 Metern;

Pazifik 130°E – 80°W; 1979-2011;

Fluktuationen, aber kein Trend.

=================================================================

F a z i t

Als Fazit genügt hier die Einschätzung zweier Fach-Institute, welche die Golf-Strom-Debatte kurz+knapp auf den Punkt bringen:

(1) Das Max-Planck-Institut in Hamburg: [20]

"Kann die globale Erwärmung zum Abriss des Golfstroms führen? Kann dies eine neue Eiszeit hervorrufen? Die kurze Antwort ist: Nein. Einen Golfstrom wird es immer geben, solange der Atlantik von Kontinenten umgeben ist, sich die Erde dreht und die Passat- und Westwinde wehen. Der Golfstrom kann also nicht abreißen. Ebensowenig kann die menschengemachte globale Erwärmung eine globale Abkühlung, vergleichbar mit der letzten Eiszeit, nach sich ziehen."

(2) Der Deutsche Wetterdienst: [21]

"Über eine Abschwächung des Golfstromes bei weiter zunehmender globaler Erwärmung wird immer wieder spekuliert. Bisher liegen jedoch keine verläßlichen Messungen über eine Abschwächung vor. Vorübergehende Schwankungen sind normal."

Klaus-Eckart Puls EIKE

Q u e l l e n :

[1]       http://www.eike-klima-energie.eu/news-cache/g-l-o-b-a-l-c-o-o-l-i-n-g-wo-bleibt-die-erderwaermung/  ; 25.02.2012 

[2]       (a) http://www.eike-klima-energie.eu/news-cache/aktuell-zur-durban-un-klimakonferenz-neuer-ipcc-bericht-zunahme-von-extremwetterlagen/  ; 23.11.2011

(b) http://www.eike-klima-energie.eu/news-cache/presseschau-zum-ipcc-extremwetterbericht-mehr-extremwetter-fehlanzeige/ 09.12.2011

[3]       http://www.eike-klima-energie.eu/climategate-anzeige/falscher-pik-alarm-beim-meeres-spiegel-neue-satelliten-daten-zeigen-keinen-grund-fuer-alarmismus/ 16.07.2011

[4]       http://www.welt.de/wissenschaft/umwelt/article13840350/Forscher-warnen-Der-Golfstrom-laeuft-heiss.html  ; 29.01.2012

[5]       DIE WELT: Wissenschaft/Umwelt, 03.04.2010

[6]       Naturwissenschaftliche Rundschau, Heft 2 (2009), Seite 82-83

[7]       http://www.google.com/imghp

[8]       http://de.wikipedia.org/wiki/Golfstrom#Entstehung

[9]       R. A. Krause, Matthew Fontaine Maury, Pathfinder of the Seas, Deutsches Schiffahrtsarchiv, 32 (2009), Oceanum Verlag

[10]     http://www.revelation-of-silence.com/upload/golfstrom.jpg

[11]     http://www.ifm-geomar.de/index.php?id=3583

[12]     http://www.dradio.de/dlf/sendungen/forschak/1646447/

Deutschlandfunk, Forschung aktuell : Stabile Wärmepumpe, 6. Januar 2012

[13]     http://www.ifm-geomar.de/index.php?id=3583 ; 16.11.2010

PULS, K.E.; MEINCKE, J.: General Atmospheric Circulation and Weather Conditions in

the Greenland-Scotland-Area for August and September 1973, "Overflow ’73" – Expedition

Contribution No.17, Ber.Inst.f.Meeresk.Univ.Kiel, Nr.14 (1975), 24 S.

[14]      PULS, K.E.; MEINCKE, J.: General Atmospheric Circulation and Weather Conditions in the Greenland-Scotland-Area for August and September 1973, "Overflow ’73" – Expedition Contribution No.17, Ber.Inst.f.Meeresk.Univ.Kiel, Nr.14 (1975), 24 S.

[15]     IPCC, 3. Ass.Rep., 2001, Sect. 14.2.2.2,  S. 774

[16]     DIE WELT, 01.02.2012; http://www.welt.de/wissenschaft/umwelt/article13845405/Der-Golfstrom-dreht-Europas-Fernheizung-auf.html?wtmc=Newsletter.NL_Weltbewegt

[17]     http://www.klimaskeptiker.info/index.php?seite=einzelmeldung.php?nachrichtid=407 ; 26.03.2008

[18]     http://www.klimaskeptiker.info/index.php?seite=einzelmeldung.php?nachrichtid=1504 ; 16.01.2012

[19]     http://www.eike-klima-energie.eu/climategate-anzeige/mr-spock-uebernehmen-sie-ueber-die-bearbeitung-der-daten-der-argo-bojen/  ; 16.01.2012

[20]     MPI Hamburg; http://www.mpimet.mpg.de/aktuelles/presse/faq-haeufig-gestellte-fragen/kann-die-globale-erwaermung-zum-abriss-des-golfstroms-fuehren-kann-dies-eine-neue-eiszeit-hervorrufen.html, August 2011

[21]     DWD, Gerhard Müller-Westermeier, Leiter DWD-Abt. "Nationale Klima-Überwachung": "Wetter ist nun mal chaotisch", Sächs.Zeitg., 01.02.2011, S.5

Related Files




Fukushima – Der Jahrestag – Die Medien – Die Fakten! Stellungnahme des Strahlenschutzverband Schweiz 13.3.2012

Ich habe die Veranstaltung besucht und möchte Ihnen hiermit eine kurze qualitative Zusammenfassung im Telegrammstil liefern, die in Diskussionen vielleicht hilfreich sein dürfte.   

   Fakten:

·         Kernaussage aller Referenten: Fukushima ist nicht Tschernobyl

·         Durch den Ozean und die günstige Wetterlage wurden Radionuklide größtenteils auf das Meer getragen und extrem verdünnt

·         Alle radiologischen Daten aus Fukushima umfassen den Zeitraum 2 Monate nach dem Ereignis bis jetzt, d.h. die ersten 2 Monate nach dem 11. März 2011 sind nicht erfasst, können nur abgeschätzt bzw. müssen rekonstruiert werden

·         Dies läge an der mangelnden messtechnischen Ausrüstung in dieser Region auch schon vor dem Ereignis; die unzureichende vorhandene Ausrüstung zum Zeitpunkt des Ereignisses sei durch das Erdbeben bzw. die Flutwelle überdies größtenteils verloren gegangen.

·         Inklusive Faktum fehlender bzw. nur zu rekonstruierender radiologischer Daten: Kein einziger radiologisch bedingter Todesfall und auch kein einziger radiologisch bedingter nachweisbarer Krankheitsfall infolge des Reaktorunglücks liegt vor – weder bei Arbeitern der Anlage noch in der Bevölkerung

·         Zwei Arbeiter in den Anlagen seien ertrunken, 4 Arbeiter seien mechanisch verletzt worden, z.B. durch Frakturen

·         Block 2 der insgesamt 4 relevanten Reaktorblöcke wird als Hauptquelle für radioakt. Emissionen bezeichnet

·         Die geborstene Kondensationsringkammer (KoKa) von Block 2 war trotz der Leckagen wiederum auch Rückhaltequelle für Schwermetalle

·         Da radioaktiver Dampf vor Austritt ins Freie erst die KoKa durchströmte musste, konnten Strontium, Uran und Plutonium dort durch Restwasser / Schwerkraft sowie andere Effekte gebunden werden

·         Hauptradionuklid heute und für die Zukunft ist Cäsium, die Werte seien jedoch „beruhigend“

·         Es gibt mehrere Dutzend „hot spots“ radioaktiver Belastung in der Gegend um Fukushima, die meisten Flächen weisen heute nur Belastungen wie die Hintergrundstrahlung im Schwarzwald auf  

·         Nahrungsmittel in Fukushima und generell in Japan und sind entgegen der öffentlichen Wahrnehmung kein Problem. Nur Pilze und Wildfleisch sollten gemieden werden.

·         Interne und externe Exposition der Bevölkerung bewegt sich im Bereich von Millisievert  (mSV)

·         Einige wenige Arbeiter kamen auf Werte bis 250 mSv, der maximale Einzelfall wird auf 680 mSv geschätzt, was i.w. eine Schilddrüsenbelastung wegen nicht benutzter (doch vorhanderner!) Atemschutzmasken darstellen wird

·         Damit sind keinerlei pathologische Folgen zu verzeichnen, d.h. keine direkten Auswirkungen des Unfalls auf die Gesundheit der Menschen sind nachweisbar, auch wird dies später nicht möglich sein.

·         Es gibt lediglich ein theoretisches, rein zurechenbares Risiko einer zusätzlichen Krebserkrankung, d.h. gegenüber zivilisatorisch auftretendem Krebs. Dieses entspricht pro Jahr dem Risiko durch Höhenstrahlung bei einem Transatlantikflug.

·         Zu beachten ist hingegen das toxikologische Risiko durch havarierte Chemieanlagen in der Tsunamiregion, was momentan unverständlicherweise weder amtlich noch öffentlich thematisiert wurde

Die Folgen und Aussichten:

·         80.000 Menschen wurden evakuiert, 156.000 haben insgesamt die Gegend um Fukushima verlassen

·         Die Gegend um Fukushima wird relativ schnell wieder besiedelt werden, Dekontamination mittels Hochdruckreinigern und Erdabtrag an Hotspots oder neuralgischen Punkten wie z.B. Kinderspielplätzen hat stattgefunden bzw. findet noch statt

·         Es wird in der Nähe der Reaktoren erwogen, den Meeresboden zu betonieren, um eine Sedimentversiegelung zu schaffen

·         Alle Maßnahmen zur Wiederherstellung des öffentlichen Lebens inkl. privaten Wohnraumes werden mittlerweile generalstabsmäßig von den Behörden geplant und durchgeführt, ab diesem Monat (März 2012) existieren Aktionspläne für jede Gemeinde

·         Es besteht kein Zweifel daran, dass größtenteils normales Leben in und um Fukushima wieder einkehren wird

·         Hot spots (im Umkreis bis 60 km) mit weiterhin bzw. dauerhaft >20mSV/Jahr werden allerdings weiterhin evakuiert bleiben oder Zugangsbeschränkungen unterliegen

·         Japanische Exportgüter werden bereits in Japan auf Kontamination strengstens kontrolliert

·         Es gibt nochmals in DE eine entsprechende Kontrolle an den Flughäfen

·         Die INES Skala, nach der Fukushima ebenfalls wie Tschernobyl in Kategorie 7 eingestuft wurde, wird von allen seriösen Experten in Bezug auf schwere Unfälle als nicht mehr zeitgemäß bzw. nicht mehr brauchbar eingestuft, da beide Ereignisse radiologisch nicht vergleichbar seien

·         Es gibt weiterhin in den (insbes. deutschen Medien) eine beispiellose Vermischung der Erdbebentoten mit dem Reaktorunglück, was nur als Hetze bezeichnet werden kann

·         Ein offizieller Uno-Bericht von UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) zu Fukushima und den Folgen wird 2013 vorliegen.

 A. Opitz/Leipzig    

mit Dank an "Bürger für Technik" Herrn Dr. Lindner




Und immer wieder grüßt das Murmeltier! – Der NAS-Bericht

Im Besonderen war es unsere Aufgabe

  1. 1. die primären Voraussetzungen zu finden, auf denen unser gegenwärtiges Verständnis der Frage (der Klimaeffekte des CO2) basiert,
  1. 2. quantitativ die Eignung und die Ungewissheit unseres Wissens über diese Faktoren zu bestimmen, und
  2. 3. präzise und objektiv das gegenwärtige Verständnis in Sachen Klima/Kohlendioxid für politische Entscheidungsträger zu beschreiben.

Nun, das klingt alles ziemlich vernünftig. Tatsächlich wären wir ein riesiges Stück weiter als jetzt, wenn wir die Antworten auf diese Fragen kennen würden.

Bild rechts: Der neue Cray-Supercomputer „Gaea“, der kürzlich bei der National Oceanic and Atmospheric Administration NOAA installiert worden ist. Er wird zur Simulation von Klimamodellen benutzt werden.

Aber wie sich heraus stellte, hat sich die aus AGW unterstützenden Klimawissenschaftlern bestehende Arbeitsgruppe der NAS entschlossen, es besser zu wissen. Sie verkündeten, dass es zu schwierig wäre und zu lange dauern würde, die gestellten Fragen zu beantworten.

Das ist schon in Ordnung. Manchmal stellt man Wissenschaftlern Fragen, die zu beantworten ein Jahrzehnt dauern würde. Und das ist es auch, was diese Wissenschaftler ihren politischen Herren sagen sollten – können wir nicht, dauert zu lange. Aber neeeiiiin…, sie wissen es besser, so dass sie sich entschlossen haben, stattdessen eine andere Frage vollständig zu beantworten. Nach der Auflistung der Gründe, warum diese ihnen gestellten Fragen zu beantworten zu schwierig war, sagten sie (Hervorhebung von mir):

„Eine vollständige Beschreibung all dieser Dinge wäre eine lange und schwierige Aufgabe.

Es ist jedoch plausibel, mit einer einzigen grundlegenden Frage zu beginnen: Falls wir wirklich sicher wären, dass das atmosphärische Kohlendioxid in bekanntem Rahmen zunehmen würde, wie gut können wir dann die Konsequenzen für das Klima projizieren?“

Oooookaaaay … Ich denke, dass dies jetzt die neue post-normale wissenschaftliche Methode ist. Erstens geht man davon aus, dass das zunehmende CO2 „Konsequenzen für das Klima” hat. Danach schaut man, ob man diese „Konsequenzen projizieren“ kann.

Sie haben recht, dass dies leichter zu bewerkstelligen ist als tatsächlich klar zu stellen, OB es klimatische Konsequenzen gibt. Es wird so viel einfacher, wenn man einfach annimmt, dass das CO2 das Klima treibt. Hat man einmal diese Antwort, werden die Fragen viel einfacher…

Immerhin haben sie zumindest versucht, ihre eigene Frage zu beantworten. Und was haben sie herausgefunden? Nun, angefangen haben sie hiermit:

„Wir schätzen die wahrscheinlichste globale Erwärmung bei einer Verdoppelung des CO2-Gehaltes auf nahe 3°C mit einem möglichen Fehler von ± 1.5°C.“

Bis hier also keine Überraschung. Sie weisen darauf hin, dass diese Schätzung natürlich von Klimamodellen stammt. Überraschend jedoch stellen sie dazu keine Frage und sind sich auch nicht unsicher darüber, ob die Klimamodelle auf der gleichen Wellenlänge liegen. Sie sagen (Hervorhebung durch mich):

„Da die Bewölkung individuell unter der Gitterpunktsweite der allgemeinen Zirkulationsmodelle liegt, müssen Wege gefunden werden, die Gesamtbewölkungsmenge in Beziehung zu den Gitterpunktsvariablen zu stellen. Bestehende Parametrisierungen der Wolkenmenge sind physikalisch sehr grob. Wenn empirische Anpassungen der Wolkenmenge in den allgemeinen Zirkulationsmodellen zur Erreichung von Plausibilität vorgenommen werden, könnten die Modellergebnisse mit dem gegenwärtigen Klima verglichen werden. Aber ein solches Trimmen durch sich selbst garantiert nicht, dass die Reaktion der Bewölkung auf Änderungen der CO2-Konzentration auch getrimmt ist. Daher muss betont werden, dass die Modellierung der Wolken eines der schwächsten Glieder in den Rechnungen der Zirkulationsmodelle ist.“

Die Modellierung der Wolken ist eines der schwächsten Glieder… da kann ich nicht widersprechen.

Wie ist also der derzeitige Stand hinsichtlich der Klimarückkopplung? Die Autoren sagen, dass die positive Rückkopplung des Wasserdampfes jedwede negativen Rückkopplungen überkompensiert:

„Wir haben sorgfältig alle negativen Rückkopplungsmechanismen untersucht, wie z. B. Zunahmen tiefer und mittelhoher Wolken, und sind zu der Schlussfolgerung gekommen, dass die Vereinfachungen und Ungenauigkeiten in den Modellen wahrscheinlich die grundlegende Schlussfolgerung nicht beeinträchtig haben, dass es eine merkliche Erwärmung geben wird. Die bekannten negativen Rückkopplungsmechanismen können die Erwärmung reduzieren, scheinen aber nicht so stark wie die positive Rückkopplung durch die Feuchtigkeit zu sein.“

Wie es jedoch seit Jahren der Fall ist, wenn man zum tatsächlichen Abschnitt des Berichtes kommt, in dem die [Rolle der] Wolken behandelt wird (die wesentliche negative Rückkopplung), wiederholt der Bericht lediglich, dass die Wolken kaum verstanden und kaum repräsentiert sind… wie soll das gehen, dass sie sich dann der positiven Rückkopplung so sicher sind, aber die negative Rückkopplung nicht verstehen und nur sehr vage repräsentieren können? Sie sagen zum Beispiel:

„Wie wichtig alles in allem die Auswirkungen der Wolken ist, ist jedoch eine sehr schwierig zu beantwortende Frage. Die Verteilung der Bewölkung ist ein Ergebnis des gesamten Klimasystems, in dem es viele weitere Rückkopplungen gibt. Vertrauenswürdige Antworten können nur durch die flächendeckende numerische Modellierung der allgemeinen Zirkulationen der Atmosphäre und der Ozeane gegeben werden, zusammen mit dem Vergleich der beobachteten mit den simulierten Wolkentypen und –mengen.“

Mit anderen Worten, sie wissen es nicht, sind sich aber sicher, dass die Gesamtbilanz positiv ist.

Hinsichtlich der Fähigkeit der Modelle, genau regionale Klimata zu reproduzieren heißt es in dem Bericht:

„Gegenwärtig können wir nicht genau die Details regionalen Klimas simulieren und daher auch nicht zuverlässig die Örtlichkeiten und Intensitäten regionaler Klimaänderungen vorhersagen. Es wird erwartet, dass sich diese Lage durch das zunehmende wissenschaftliche Verständnis und schnellere Computer allmählich verbessern wird.“

Da haben wir es! Die Klimasensitivität beträgt 3°C pro Verdoppelung des CO2-Gehaltes mit einem Fehler von ± 1.5°C. Die Gesamtrückkopplung ist positiv, obwohl wir [das Verhalten der] Wolken nicht verstehen. Die Modelle sind noch nicht in der Lage, regionales Klima zu simulieren. In keiner dieser Aussagen steckt irgendetwas Überraschendes. Es ist genau das, was man von einer Kommission der NAS erwartet.

Bevor ich hier weitergehe – da der NAS-Bericht auf Computermodellen beruht, möchte ich einen kleinen Exkurs machen und einige Fakten über Computer auflisten, welche mich seit langer Zeit fasziniert haben. So lange ich mich erinnern kann, wollte ich einen eigenen Computer haben. Als kleines Kind träumte ich davon, einen zu haben. Ich spreche ziemlich gut ein halbes Dutzend Computersprachen, und es gibt noch mehr, die ich vergessen habe. Mein erstes Computerprogramm habe ich im Jahr 1963 geschrieben.

Das Verfolgen der Änderungen dessen, was Computer inzwischen alles können, war erstaunlich. 1979 war der schnellste Computer der Welt der Cray-1-Supercomputer. Dessen Fähigkeiten lagen weit jenseits dessen, wovon die meisten Wissenschaftler je geträumt haben. Er hatte 8 MB Speicher, 10 GB Platz auf der Festplatte und lief mit 100 MFLOPS (Millionen Operationen pro Sekunde). Der Computer, auf dem ich dies schreibe, hat 1000 mal so viel Speicherplatz, fünfzig mal so viel Platz auf der Festplatte und 200 mal die Geschwindigkeit von Cray-1.

Und das ist nur der Computer auf meinem Schreibtisch. Der neue Supercomputer der NASA „Gaea“ auf dem Bild oben rechts läuft zweieinhalb Millionen mal schneller als die Cray-1. Dies bedeutet, dass Cray-1 für eine Ein-Tages-Simulation auf „Gaea“ etwa siebentausend Jahre brauchen würde…

Warum aber ist die Geschwindigkeit eines Cray-1-Computers für den NAS-Bericht von Bedeutung, aus dem ich oben zitiert habe?

Es ist von Bedeutung, weil – wie Einige von Ihnen vielleicht bemerkt haben – der NAS-Bericht, aus dem ich oben zitiert habe, der „Charney Report“ genannt wird. So weit ich weiß, war es der erste Bericht der NAS zur CO2-Frage. Und wenn ich davon als einem „kürzlichen Bericht“ spreche, dachte ich darüber in historischer Bedeutung. Er wurde 1979 veröffentlicht.

Und das ist das Bizarre hier, der Elefant auf dem Gebiet der Klimawissenschaft. Der Charney-Report hätte gestern geschrieben worden sein können. Die AGW-Befürworter stellen immer noch die gleichen Behauptungen auf, als ob seitdem überhaupt nichts passiert wäre. Zum Beispiel sagen die AGW-Befürworter genau wie damals das Gleiche über die Wolken wie 1979 – sie geben zu, dass sie das Verhalten der Wolken nicht verstehen, dass sie das größte Problem in den Modellen sind, aber dass sie immer noch genauso sicher sind, dass die Gesamtrückkopplung positiv ist. Ich weiß nicht, wie das geht, aber so war es unverändert seit 1979.

Das ist das Kuriose für mich – wenn man den Charney-Bericht liest, wird offensichtlich, dass sich beinahe nichts auf diesem Gebiet seit 1979 geändert hat. Es gab keine wissenschaftlichen Durchbrüche, kein wesentlich neues Verständnis. Die Leute stellen immer noch die gleichen Behauptungen auf über die Klimasensitivität mit fast keinen Änderungen in den riesigen Fehlergrenzen. Die Bandbreite variiert immer noch um einen Faktor drei, von 1,5°C bis 4,5°C pro Verdoppelung des CO2-Gehaltes.

Inzwischen hat die Computerleistung bis weit jenseits der wildesten Vorstellungen zugenommen. Das gilt auch für den Umfang der Klimamodelle. Die Klimamodelle im Jahr 1979 bestanden aus eintausend codierten Zeilen. Die modernen Modelle enthalten Millionen von Zeilen. Damals wurde die Atmosphäre nur mit wenigen Schichten und großen Gitterquadraten modelliert. Heute haben wir vollständig gekoppelte Ozean-Atmosphäre-Cryosphäre-Biosphäre-Lithosphäre-Modelle mit viel kleineren Gitterquadraten und dutzenden Schichten sowohl in der Atmosphäre als auch in den Ozeanen.

Und seit 1979 hat sich eine ganze Klimaindustrie gebildet, die Millionen menschlicher Arbeitsstunden aufgewandt hat, um die Leistung der Computer zum Studium des Klimas zu verbessern.

Und nach den Millionen Stunden menschlicher Bemühungen, nach den Millionen und Abermillionen Dollar, die in die Forschung gesteckt worden waren, nach all der millionenfachen Zunahme der Computerleistung und –größe, und nach der phänomenalen Zunahme der Verfeinerung und des Detailreichtums der Modelle… nach all dem hat sich die Unsicherheit der über den Daumen gepeilten Klimasensitivität nicht signifikant verkleinert. Sie liegt immer noch um 3 ± 1.5°C pro Verdoppelung des CO2, genau wie 1979.

Und das gilt auch für die meisten anderen Fronten der Klimawissenschaft. Wir verstehen immer noch nichts von den Dingen, die vor einem Dritteljahrhundert schon mysteriös waren. Nach all den gigantischen Fortschritten bzgl. der Modellgeschwindigkeit, deren Größe und Detailreichtum können wir immer noch nichts Definitives über die Wolken sagen. Wir haben keine handhabe hinsichtlich der Gesamtrückkopplung. Es ist, als ob der ganze Bereich der Klimawissenschaft in einer Zeitfalle 1979 stecken geblieben ist und sich seitdem nirgendwohin bewegt hat. Die Modelle sind tausendfach größer und tausendfach schneller und tausendfach komplexer – aber sie sind für regionale Vorhersagen immer noch unbrauchbar.

Wie kann man dieses überwältigende Fehlen jeglichen Fortschritts verstehen, diese intensive Arbeit während eines Drittels des Jahrhunderts mit einem so geringen Ergebnis?

Für mich gibt es nur eine Antwort. Der fehlende Fortschritt bedeutet, dass es einige fundamentale Missverständnisse in den Grundmauern des modernen Klimagebäudes gibt. Er bedeutet, dass das zugrunde liegende Paradigma, auf dem das Gebäude fußt, einige grundlegende und weitreichende theoretische Fehler aufweisen muss.

Jetzt können wir darüber debattieren, worin dieses fundamentale Missverständnis besteht.

Aber ich sehe keine andere sinnvolle Erklärung dafür. In jedem anderen Bereich der Wissenschaft gab es seit 1979 enorme Fortschritte. Neue Forschungsfelder tauchten auf, und ältere Forschungsbereiche sind voran gekommen. Genetik und Nanotechnologie und Proteomik und Optik und Kohlenstoffchemie und all die anderen… außer der Klimawissenschaft.

Das ist der Elefant im Raum – das unglaubliche Fehlen von Fortschritten in diesem Bereich trotz eines Dritteljahrhunderts intensiven Studiums.

Nach meiner Einschätzung besteht das fundamentale Missverständnis darin, dass die Lufttemperatur an der Erdoberfläche eine lineare Funktion des Antriebs ist. Datum war es verheerend für die Charney-Leute, die falsche Frage zu beantworten. Sie haben mit der Hypothese begonnen, dass eine Änderung des Antriebs zu einer Änderung der Temperatur führen würde, und fragten sich: „wie gut können wir die klimatischen Konsequenzen projizieren?

Wenn man das einmal getan hat, wenn man einmal CO2 für den Schuldigen hält, hat man das Verstehen des Klimas als Wärmemaschine außen vor gelassen.

Wenn man das einmal getan hat, hat man den Gedanken ausgeschlossen, dass das Klima wie alle Strömungssysteme bevorzugte Stadien hat und dass es nach dem Erreichen maximaler Entropie strebt.

Wenn man das einmal getan hat, hat man all die zahlreichen thermostatischen und homöostatischen [?] Mechanismen ausgeschlossen, die in zahlreichen räumlichen und zeitlichen Scales wirken.

Und wie sich herausstellt, wenn man das einmal getan hat, wenn man einmal die Hypothese aufgestellt hat, dass die Oberflächentemperatur eine lineare Funktion des Antriebs ist, hat man jeden Fortschritt in diesem Bereich ausgeschlossen, bis dieser Irrtum behoben ist.

Aber das ist lediglich meine Ansicht. Sie könnten eine andere Erklärung für das fast vollständige Fehlen jedweden Fortschritts in der Klimawissenschaft während des letzten Drittels des vorigen Jahrhunderts finden. Falls das so ist, heiße ich alle freundlichen Kommentare willkommen. Erlauben Sie mir Sie zu bitten, dass Ihre Kommentare kurz, klar und interessant sind.

Willis Eschenbach (abgekürzt w.)

P.S. – Bitte vergleichen sie dieses Fehlen von Fortschritten nicht mit so etwas wie bei der Kernfusion. Anders als die Klimawissenschaft ist das ein praktisches Problem und ein teuflisch komplexes. Die Herausforderung besteht hier darin, etwas zu bauen, dass es in der Natur nie zuvor gegeben hat – eine Flasche, die die Sonne hier auf der Erde einfangen kann.

Klima andererseits ist eine theoretische Frage und keine Herausforderung, etwas zu bauen.

P.P.S. – …

[man schaue im Original nach den paar Zeilen, die hier noch fehlen. Dann wird klar, warum aus Zeitgründen auf deren Übersetzung hier verzichtet wird. A. d. Übers.]

Link: http://wattsupwiththat.com/2012/03/07/under-the-radar-the-nas-report/#more-58606

Übersetzt von Chris Frey EIKE




Hart aber Daneben: Ranga Yogeshwar als Wirtschafts-Ignorant! Todesanzeige für Peakoil!

Eine Energiewende sei für ihn damit unverzichtbar und natürlich müsse dafür anfangs Geld in die Hand genommen werden. Dieser Öko-Mythos ist unsterblich wie ein Zombie, ungeachtet aller gegenteiliger Daten und Fakten.

Todesanzeige für „Peak Oil“

Das Konzept, das in den Neunzigerjahren das Salon-Geschwätz dominierte – „Peak Oil” – ist irrelevant geworden. Das sagen die Rohstoff-Spezialisten der Citigroup und vielleicht wären politische Entscheidungsträger wohlberaten, diese Ergebnisse genauer zu betrachten.

„Peak Oil” ist der Punkt, an dem die Produktion von normalem Rohöl unumkehrbar rückläufig wird. Für die einen ist das der Punkt, an dem die knappheitsbedingten Preissteigerungen einen gewaltigen Wandel in den Industriegesellschaften erzwingen würden. Für die anderen war „Peak Oil“ nichts anderes als der Ruf von Mutter Erde, doch zu einem vorindustriell geprägtem Lebensstil zurückzufinden. Ein Beispiel für diese Auffassung ist die „Transition Towns“-Bewegung, ein Mittelklasse-Phänomen, das sich in Pendler-Vororten Großbritanniens entwickelt hat.

Doch eine lesenswerte Studie [PDF], die jetzt veröffentlicht wurde (und die auch implizit Kritik an der Industrie übt), hält das für voreilig. Auf Grund von “unkonventionellem” Erdöl und Erdgas, das dank des technologischen Fortschritts gefördert werden kann, ist “Peak Oil“ einfach tot:

Der Glaube, dass die globale Erdölproduktion ihren Gipfel überschritten hat oder kurz davor steht, hat über zehn Jahre den Run auf Öl beflügelt. Die Wiederauferstehung der US-Gasförderung, die mittlerweile ihren Höhepunkt der Siebzigerjahre weit hinter sich gelassen hat und in den letzten sieben Jahren global zur Nummer Eins aufgestiegen ist, lässt sich auf das Hydraulic Fracturing – Fracking – zurückführen, Fördertechnologien, die bei Schiefergasvorkommen in allen Teilen der USA angewendet werden. Die gleichen Unternehmen nutzen nun diese neuen Techniken bei Schieferölvorkommen, mit Ergebnissen, die in vielen Fällen ähnlich erfolgversprechend sind, wie in den Frühstadien der Schiefergas-Revolution. Die US-Ölförderung steigt mittlerweile an, und zwar ausschließlich auf Basis der Schieferöl-Förderung, da konventionelle Quellen wie in Alaska oder Kalifornien strukturbedingt immer weniger hergeben und die Förderung im Golf von Mexiko im Nachfeld von Macondo erst noch auf Erholung wartet.

Die Schwarzseher hatten gute Gründe, daran zu zweifeln – doch ihnen entging das vollständige Bild, nämlich eines, das auch technische Innovationen einbezieht. Sie wollten einfach zu gerne Schwarzsehen. Die Studie sagt weiter:

Der Glaube an „Peak Oil“ wurde bestärkt durch wiederholte Fälle, in denen die tatsächlichen Fördermengen nie die optimistischen Prognosen erreichten, die von diversen Regierungsstellen und internationalen Energieagenturen propagiert wurden. Die IEA, die Benchmark der Industrie, machte gerne Jahres-Prognosen über große Zuwächse bei der Förderung im Nicht-OPEC-Bereich und war dann die nächsten 18 Monate damit beschäftigt, diese wieder zurückzunehmen.

Die Citigroup kritisiert auch die Ölindustrie und die Experten dafür, dass sie einen Faktor nicht berücksichtigt haben – zu viel versprechen und zu spät liefern.

Man muss es gelesen haben. Die Ölförderung ist weitaus abhängiger von Upstream-Investitionen, als es sich viele Leute vorstellen können. Wenn sie aber anspringt, springt sie rasch an; in den USA hat sich die Anzahl der Bohrstellen in drei Jahren um 500 Prozent erhöht.

Wie geht’s weiter?

“Peak Oil” ist nicht das einzige Opfer der jüngsten Entwicklungen auf dem Energiesektor. Der Tod von „Peak Oil“ zieht etlichen durch unsere Bürokraten und ihrer Berater verfolgten Politikentwicklungen den Teppich unter den Füßen weg. Während der letzten zwei Jahrzehnte konnten wir ein Anwachsen der „Nachhaltigkeitssektors“ beobachten, der fast vollständig von staatlicher Förderung abhängt und von den gleichen falschen Grundvoraussetzungen ausgeht.

Die These war, dass wir in jedem Fall zu akzeptieren haben, dass die moderne Industriegesellschaft auf einer Ressource aufgebaut ist, die nur endlich vorhanden und nur schwer ersetzbar ist. Da gibt es aber noch einen wichtigen anderen Aspekt. Das „Peak Oil“ Gedankengebäude basiert auf der Idee, dass Rohöl nicht durch unkonventionelles Öl bzw. nicht rechtzeitig durch synthethische Kohlenwasserstoffe ersetz werden könnte. Wir können jetzt aber einen Anstieg der unkonventionellen Ölförderung feststellen und in zehn Jahren werden auch kohlenstoffarme synthetische Ersatzstoffe für Öl produktionsbereit sein, unter der Annahme, dass der Preis pro Barrel zwischen 40 – 50 $ bleibt.

Das Problem, dass der Denke von “Nachhaltigkeit“ und „Peak Oil“ gemeinsam zu Grunde liegt ist, das, dass in beiden Fällen eine Ressource nicht als Vektor, sondern als Sache gesehen wird – eine Sache, die selten, einzigartig und unersetzlich ist.

Zu viktorianischen Zeiten war man von Walfett für Beleuchtungs- und Heizungszwecke abhängig und sorgte sich – ähnlich wie die Nachhaltigkeitsleute von heute – darüber, was da als Ersatz dienen könnte. Der menschliche Erfindungsgeist lieferte Altenativen. Auch gab es Zeiten, als sich Politiker über das limitierte und volatile Angebot an Salpeter erregten, ein Nitrat, dass zur Ernährung der Bevölkerung und zur Produktion von Schießpulver unerlässlich war. Die Rettung kam durch die Chemie. Natürlich ist eine Ressource eine Kombination aus vielen Dingen – die Grenze des menschlichen Erfindergeistes ist da nur eines.

Diese Unflexibilität des Denkens jedoch ist verhängnisvoll.

Nur, weil wir einfach ganz gut sind, wenn es um Erfindungen geht, heißt das natürlich nicht, dass wir kurz vor der Gründung von Utopia stehen oder dass sich die normale Politik irgendwie aufhört. Zukünftige Technologien werden ihren Preis kosten, nur begrenzt verfügbar sein und sich auch missbrauchen lassen. Aber sie setzen ein Signal für das nahende Ende dessen, was wir Apokalypse-Politik nennen könnten – mit der unpopuläre und dämliche Politmaßnahmen Erfolg haben können, nur weil ihre Advokaten behaupten, dass sie durch irgendwelche katastrophalen und unverrückbare historische Trends zu rechtfertigen seien. Nur Abergläubische können das noch glauben. ®

Dr. Benny Peiser

Übersetzung H.B.

Originalartikel: The Register

Zuerst erschienen bei ACHGUT