1

Das Ende einer Illusion

Bei Forbes datiert Harry Binswanger den Beginn der Kampagne auf das Jahr 1979 und stellt sie in eine amüsante Perspektive.

„Erinnern Sie sich an das Jahr 1979? Es war das Jahr mit dem Hit ‚We Are Family’ von Sister Sledge, den ‚Dukes of Hazard’ im Fernsehen und Kramer vs. Kramer im Kino. Es war das Jahr, in dem der Schah aus Iran vertrieben worden war. Es war vor dem Internet, vor PCs, vor den Handys und vor Anrufbeantwortern. Aber es lag nicht vor der Kampagne zur globalen Erwärmung.

Im Januar 1979 erschien in der New York Times ein Artikel mit der Schlagzeile: ‚Experten: Wie das Eis in der Antarktis weit verbreitete Überschwemmungen verursachen könnte’…

Wo also ist die Erwärmung? Wo sind die Gondeln auf dem Weg zum Capitol? Wo ist das in Florida eindringende Meer? Oder sonst wo? Wo ist die Klimaänderung, die seit 33 Jahren um die Ecke schielt?”

Er schließt: „Ich bin über das Warten auf die versprochene globale Erwärmung alt geworden”. Buchstäblich: „Ich war 35 Jahre alt, als die Vorhersagen einer drohenden neuen Eiszeit durch die Angst erzeugende Wärmeprognosen abgelöst worden sind. Jetzt bin ich 68, und es gibt immer noch keine Anzeichen für wärmeres Wetter!“

Er drückt das Ganze als Beobachtung mit dem gesunden Menschenverstand aus. Aber man kann es auch durch gemessene harte Daten ausdrücken. Wir kommen jetzt an den Punkt, an dem die Vorhersagen lange genug im Raum standen, um signifikante Vergleiche mit aktuellen Daten durchzuführen, und wir sind jetzt in der Lage, definitiv zu sagen, dass die Vorhersagen entsetzlich übertrieben waren.

Steven Hayward verweist auf Anzeichen, dass selbst die Befürworter der Hysterie um die globale Erwärmung anfangen, zum Rückzug zu blasen.

„Die neue Ausgabe des Economist enthält ein langes Feature über das abnehmende Vertrauen in die Schätzungen der hohen Klimasensitivität. Dass dies im Economist erscheint, ist bedeutsam, weil dieses erhabene britische Nachrichten-Magazin seit Jahren voll auf der Welle des Klimaalarmismus’ mitgeschwommen ist. Ein Korrespondent in Washington hat privat mir gegenüber zugegeben, dass die leitenden Herausgeber in London anhaltende und reguläre Abdeckung der alarmistischen Klimavorhersagen angeordnet haben.

Das Problem wird für die Klimateure immer schlimmer. Wie der Economist in seiner ersten Graphik zeigt, fällt der gegenwärtige Temperaturverlauf eindeutig bis zum untersten Ende seiner vorhergesagten Bandbreite und könnte bald sogar ganz daraus herausfallen, was bedeutet, dass die Modelle falsch sind, oder zumindest, dass irgendetwas vor sich geht, dass in der vermeintlich ‚eindeutigen’ [settled] Wissenschaft nicht eindeutig war“.

Eine bessere Version dieser Graphik findet sich hier, und sie zeigt ganz klar, dass die aktuellen Prognosen nur bis 2006 gehen – und dass sie sich schon jetzt als falsch erwiesen haben.

Man kann einen Graphen wirklich so manipulieren, dass die Daten verzerrt werden, beispielsweise durch Manipulationen der Skala mit ‚Zoom in’ um etwas größer aussehen zu lassen, oder mit ‚zoom out’ um es kleiner aussehen zu lassen. Wir sind an die Zoom-In-Version der globalen Temperaturmessungen gewöhnt, so dass es reizvoll ist, die Zoom-Out-Version zu betrachten: siehe oben rechts!

Anstatt der Verkleinerung der Messungen der Variationen um das vieljährige Mittel, die jährliche Änderungen um wenige Zehntel enorm groß aussehen lässt, dient diese Vergrößerung dazu, uns die Daten in Gestalt absoluter Temperaturmessungen zu zeigen, in der die jährlichen Variationen der letzten 15 Jahre genauso unbedeutend aussehen wie sie wirklich sind.

Im Grunde ist also alles, was die Befürworter der globalen Erwärmung als Beweisbasis für ihre Theorie haben, dass die globale Temperatur Ende der neunziger Jahre etwas höher als normal gelegen hat. Das ist alles. Und beweist nichts. Das Klima variiert, und so weit wir das sagen können, bewegt es sich durchweg im Bereich der normalen Bandbreite.

Das habe ich von Anfang an hinsichtlich der Angstmache um die globale Erwärmung beklagt. Wir verfügen über systematische globale Temperaturmessungen erst seit etwa 150 Jahren, was in relevanten Zeiträumen – einer geologischen Zeitrechnung – lediglich ein Wimpernschlag ist. Mehr noch, die Messmethoden dieser globalen Temperaturen waren nicht immer konsistent, was sie anfällig für Änderungen aufgrund vieler Effekte macht, als da wären unterschiedliche äußere Anstriche der Wetterhütten, der „Wärmeinseleffekt“, der auftritt, wenn beispielsweise eine ursprünglich mitten in Äckern stehende Wetterhütte mit der Zeit immer mehr von Parkplätzen umgeben wird. Und irgendwie scheint unter all den für die Erforschung der globalen Erwärmung ausgegebenen Milliarden nicht viel Geld seinen Weg in enorme internationale Bemühungen gefunden zu haben, die erforderlich sind, um die genaue und konsistente Temperaturmessung sicherzustellen.

Also waren wir nicht in der Lage, etwas zu installieren, was eigentlich der Startpunkt für jedwede Theorie über globale Temperaturen sein sollte: Eine Grundlinien-Definition, was eine normale globale Temperatur überhaupt ist und was eine natürliche Temperaturvariation ist.

Im Bemühen, diese Lücke zu füllen – ohne jemals zuzugeben, was für ein fundamentales Problem das ist – haben die Alarmisten viele Versuche unternommen, eine viel längere Reihe globaler Temperaturen zusammen zu schustern, die viele tausend Jahre zurückreicht. Michael Mann hat den Tenor vorgegeben mit seinem infamen „Hockeyschlager“, wonach die Temperaturen angeblich 1000 Jahre zurück reichen sollten, wobei die gegenwärtigen Temperaturen auf ominöse Art wie das Blatt eines Hockeyschlägers nach oben springen.

Aber Manns Hockeyschläger geriet schon bald unter Feuer wegen seiner fragwürdigen statistischen Methoden und der selektiven Datenauswahl. Sie wurde seitdem fallen gelassen. Das hat aber die Warmisten nicht davon abgehalten, es wieder zu versuchen, diesmal mit einer neuen Graphik, benannt nach dem Leitautor der entsprechenden Studie, Shaun Marcott. Sie soll angeblich die Temperaturen der letzten 11300 Jahre zeigen, dieses Mal mit einem neuen, sogar noch größeren „Blatt“ am Hockeyschläger, der den vermeintlichen Aufwärtstrend der Temperaturen während der letzten 100 Jahre zeigen soll.

Außer dass sich das Ganze in einem neuen Fiasko aufgelöst hat.

Das Problem bei der Verwendung historischer Rekonstruktionen der Temperaturen in der Vergangenheit besteht genau in der Tatsache, dass wir über keine direkten Messungen verfügen, die weiter als 150 Jahre zurück reichen. Also müssen die Wissenschaftler auf „Proxies“ schauen – also andere Dinge, die dazu tendieren, mit der Temperatur zu variieren und die wir messen können. Dazu gehören die Dicke von Baumringen in sehr alten, langsam wachsenden Bäumen, die die jährliche Wachstumsrate des Baumes von Jahr zu Jahr reflektieren. Man beachte, dass ich gesagt habe, diese Messungen tendieren dazu, mit der Temperatur zu variieren. Aber sie werden auch durch viele andere Dinge beeinflusst, von der Regenmenge bis hin zu grasenden, die Rinde abnagenden Schafen.

Diese Proxies sind also nicht sehr genau, und der normale Weg, dies zu kompensieren besteht darin, diese Daten zu „glätten“, um Änderungen nicht nur über sehr lange Zeiträume zu zeigen, sondern auch, den Lärm von Jahr zu Jahr vermutlich auszumerzen. Aber in der Marcott-Studie waren die Daten über so lange Zeiträume geglättet worden, dass man hinsichtlich von Änderungen der letzten 100 Jahre gar nichts sagen kann.

Roger Pielke Jr. berichtet, was passiert ist, als die Autoren dieser Studie über diesen Punkt bohrend ausgefragt worden sind.

In einem später der Studie beigefügten FAQ-Abschnitt, der jüngst bei RealClimate erschienen war, haben Marcott et al. folgendes verblüffendes Zugeständnis gemacht:

„Frage: Was zeigen die Rekonstruktionen der Paläotemperaturen für die letzten 100 Jahre?“

Antwort: „unsere globale Rekonstruktion der Paläo-Temperatur schließt einen sog. „Aufwärtstrend“ [uptick] der Temperaturen während des 20. Jahrhunderts ein. Allerdings stellen wir in der Studie klar, dass dieser Einzelfall von kürzerer Dauer ist als die inhärente Glättung unserer statistischen Mittelungsprozedur, und dass er lediglich auf wenigen verfügbaren Paläo-Rekonstruktionen beruht, die wir verwendet haben. Folglich ist der Abschnitt unserer Paläotemperatur während des 20. Jahrhunderts nicht statistisch robust, kann nicht als repräsentativ für globale Temperaturänderungen angesehen werden und ist daher nicht die Grundlage für auch nur eine unserer Schlussfolgerungen.

Verstehen Sie das?

Falls nicht, wiederhole ich: … Der Abschnitt unserer Paläotemperatur während des 20. Jahrhunderts ist nicht statistisch robust und kann nicht als repräsentativ für die globale Temperatur angesehen werden…

Das bedeutet, dass diese Studie nichts mit einem ‘Hockeyschläger’ zu tun hat, da sie nicht in der Lage ist, die Temperaturen im 20. Jahrhundert auf eine Art und Weise zu reproduzieren, die ‚statistisch robust’ ist. Der neue ‚Hockeyschläger’ ist kein solcher, da Marcott et al. kein Blatt haben…

Die Studie zeigt also eigentlich das Folgende, nachdem ich die statistisch nicht ‚robuste’ Periode des 20. Jahrhunderts aus der Graphik entfernt habe“.

Pielkes amendierte Graphik zeigt einen langen und stetigen Rückgang der mittleren globalen Temperatur während der letzten 1000 Jahre und … das ist alles! Mehr zeigt sie nicht.

Aber Pielke weist darauf hin, dass die Daten aus dem 20. Jahrhundert, dieses dramatische Blatt des Hockeyschlägers, im Mittelpunkt der offiziellen Pressemitteilung und auch der Berichterstattung in den Medien hierzu gestanden hat. Und die Autoren der Studie haben diese Daten in die Graphik gesteckt und veröffentlicht. Übrigens ist dies die Standard-Prozedur der Alarmisten der globalen Erwärmung: man veröffentliche eine Studie, die hinsichtlich der Fakten zurückhaltend und vorsichtig ist – dann verpacke man sie in eine sensationelle Presseerklärung mit übertriebenen Behauptungen und einem Blickfang in Gestalt einer grellbunten Graphik, um den Journalisten ein öffentlichkeitswirksames Bild zur Veröffentlichung in die Hand zu geben.

Pielke ist sehr zurückhaltend hinsichtlich der Verwendung des Ausdrucks „wissenschaftliches Fehlverhalten“, was an sich ein zurückhaltender Begriff für „Betrug“ ist. Aber das muss er nicht. Als mir dieses Ereignis in den Nachrichten vor Augen kam, habe ich es meiner Frau erklärt, und sie sagte: „Also haben sie einfach die Zahlen frisiert“. Nun, nicht ganz, habe ich versucht zu erklären, sie haben schon reale Zahlen verwendet. Es ist nur – sie sind hinsichtlich der relevanten statistischen Methodik nicht signifikant, und – dann unterbrach sie mich und wiederholte: „Also haben sie einfach die Zahlen frisiert“. Darauf wusste ich keine Antwort. Meine Frau ist in gewisser Weise ungeduldig hinsichtlich der Stepptanz-artigen Abstraktionen der Intellektuellen im Elfenbeinturm, und es gibt ihr das Geschenk, in der Lage zu sein, ihre höflichen Vernebelungen zu zerreißen und zum Grund der Dinge zu kommen. In der Wissenschaft ist es so: Wenn die Zahlen nicht durch eine ordentliche Methode validiert worden sind; falls man nicht sicher sagen kann, ob sie echt und bedeutsam sind, dann ist das Einzige, was man tun muss, sie auszusortieren. Falls man über ungültige Zahlen verfügt und diese in irgendeiner Weise verwendet, gibt es keinen moralischen oder erkenntnistheoretischen Unterschied zwischen ihnen und irgendwelchen Phantasiezahlen.

Der Spielstand der Klimawissenschaft nach einem Drittel eines Jahrhunderts der Klimahysterie ist also Folgender: Sie haben keine verlässliche Grundlage globaler Temperaturmessungen, die es ihnen erlauben würde zu sagen, was normal ist und was nicht. Ihre Projektionen der zukünftigen Erwärmung scheitern definitiv bei der Vorhersage der tatsächlichen Daten. Und jetzt wurden sie wieder einmal dabei erwischt, wie sie an den Zahlen herum fummelten und die Graphen manipulierten, um eine rapide Erwärmung im 20. Jahrhundert zu zeigen, die sie gerne haben möchten, die aber durch tatsächliche Beweise nicht gestützt werden kann.

Eine Theorie mit so vielen Löchern darin hätte schon vor langer Zeit verworfen werden sollen, und sei es nur wegen der Tatsache, dass sie den Politikern sehr gelegen kommt, die damit die fossilen Treibstoffe als den Planeten zerstörendes Teufelszeug brandmarken können und die es radikalen Umweltaktivisten erlaubt, ihrem Primitiv-Kreuzzug für die Schließung der industriellen Zivilisation eine moderne, wissenschaftliche Maske aufzusetzen.

Aber können wir alle nicht mal damit aufhören, das „Wissenschaft“ zu nennen?

Robert Tracinski

Robert Tracinski is editor of The Tracinski Letter and a contributor to RealClearMarkets.

Link: http://www.realclearpolitics.com/articles/2013/04/04/the_end_of_an_illusion_117795.html

Übersetzt von Chris Frey EIKE




Wieder beim Schummeln erwischt

Wieder ein Beweis, dass der neue "Hockeyschläger" Schrottwissenschaft ist.

Von Steven Goddard

Vor zehntausend Jahren war der größte Teil Kanadas vereist. Dadurch wurde der Großteil des einfallenden Sommer-Sonnenlichts zurück ins All reflektiert mit der Folge eines starken Abkühlungseffekt auf die Erde. Das steht so völlig richtig im 1990er Zustandsbericht des IPCC (First IPCC report). Die Temperatur soll etwa 4C Grad niedriger als das Holozän-Maximum gewesen sein.

 

Doch der neue “Hockeyschläger” zeigt die Temperaturen vor 10.000 Jahren als innerhalb 0,1C Grad des Holozän-Maximums liegend. Das macht keinen Sinn und es ist auch unmöglich. Die riesige Eismasse muss den Planeten sehr kalt gehalten haben.

 

Es kommt aber noch schlimmer: Die latente Wärme des schmelzenden Eises hatte auch einen riesigen Kühlungseffekt. Im Zeitraum zwischen vor 10.000 und 8.000 Jahren ist das meiste Eis geschmolzen. Das hat die Energiebilanz beherrscht und die Lufttemperaturen sehr kühl gehalten.

 

Darüberhinaus wies Paul Homewood darauf hin, dass die Eisschmelze in das Meer geflossen sein muss, die Meeresoberflächentemperatur dabei abgekühlt und den Abkühlungseffekt noch verstärkt hat.

 

So besteht für den neuen „Hockeyschläger“ eine „Null-Wahrscheinlichkeit“ richtig zu sein – weil gegen einige physikalische Grundgesetze verstoßen wird. Die Temperaturen vor 10.000 Jarhen können niemals so dicht am Holozän-Maximum gelegen haben.

Original hier




„Deutschland – ein Winter-Märchen“ … … wie die Klima-Warmisten Heinrich Heine verleugnen

"Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben", sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie." Dieses Zitat stammt aus einem SPIEGEL-Interview des Jahres 2000, mit der Schlagzeile "Winter ade: Nie wieder Schnee? In Deutschland gehören klirrend kalte Winter der Vergangenheit an".

Allerdings – vielleicht beliebte Herr Prof. Latif auch nur zu scherzen, denn  –  der Artikel  erschien im Jahre 2000 am 1. April !

Unter diesem Aspekt könnte man leicht darüber hinweg gehen, wenn – ja wenn  – diese Aussage von Herrn Latif und auch anderen Klima-Forschern nicht in ständiger Wiederholung stände, z.B.[2]:

"Die sehr milden Winter in den vergangenen Jahrzehnten sind vor allem auf den anthropogenen Treibhauseffekt zurückzuführen. Als Konsequenz registrieren wir beispielsweise einen Rückgang der Schneefälle. Während die heute 50-Jährigen als Kinder fast in jedem Winter Schlitten fahren konnten, müssen Kinder heute oft viele Jahre auf größere Mengen Schnee warten."

Das müssen die Kinder seit fünf Jahren nun nicht mehr –  wie schön für unsere Kinder !

Aber – das alles war offensichtlich noch nicht ausreichend, denn nur zwei Jahre später (2005) ließ sich Mojib Latif erneut vernehmen[3], nun gleich für 50 Jahre im voraus:

‚2050 kein Schnee mehr im Flachland ; Mainz (dpa). Die Winter in Deutschland werden nach Ansicht des Kieler Klimaforschers Mojib Latif weiterhin wärmer. Ohne künftigen Klimaschutz "wird es im Jahr 2050 in Deutschland keinen Schnee mehr geben – zumindest nicht im Flachland", sagte der Professor vom Institut für Meereskunde der Universität Kiel gestern im ZDF-Mittagsmagazin. Der beobachtete Trend zu wärmeren Wintern werde sich fortsetzen.‘

Darf man auch hier mal nachfragen:

Wo ist dieser Trend nur in den vergangenen fünf Wintern geblieben ?

In einem Konferenz-Bericht der Dow Jones News GmbH[4] wird der "…renommierte Kieler Klimaforscher Prof. Mojib Latif…" dort sinngemäß so zitiert:

‚Die von den Wissenschaftlern diskutierten Szenarien gingen von einer weiteren Erwärmung von durchschnittlich 1,4 bis 5,8 Grad bis zum Jahrhundertende aus. In Deutschland werde es dann keinen Frost oder Schnee mehr geben, in heißen Klimazonen komme es zur Verwüstung.‘

Alle diese Aussagen  –  zumindest soweit sie bis in die Gegenwart reichen, also bis 2013  –  sind widerlegt: Die Natur macht was anderes! … das Gegenteil!

Den ersten Klima-Warmisten, denen schon zu Weihnachten 2010 etwas "Passendes" dazu einfiel, waren die des PIK, und zwar  –  wiederum passend – in BILD[5]

"Das Potsdam-Institut für Klimafolgenforschung sieht den strengen Winter als eine Folge der Erderwärmung: Eisige Winde würden ihn auslösen, die durch den Klimawandel in der Arktis jetzt ungehindert zu uns nach Europa kämen"

‚Kann ja sein‘, könnte eine erste Reaktion der BILD-Leser sein; jedoch stellt sich auch dabei sofort die Frage:

‚Wieso haben die Forscher solcherart Erklärungen immer nur erst hinterher ?‘

Aber die Alarmisten wissen sich erneut mit einer Volte zu helfen, und zaubern rasch ein Kaninchen aus dem Klima-Hut[6]:

"Neue Studie zeigt Zusammenhang zwischen arktischer Meereisbedeckung im Sommer und dem Winterwetter in Mitteleuropa …. Die Wahrscheinlichkeit für kalte, schneereiche Winter in Mitteleuropa steigt, wenn die Arktis im Sommer von wenig Meereis bedeckt ist."

Hat man denn je  v o r  den kalten Wintern der letzten Jahre so eine Klima-Modell-Prognose vernommen? NEIN!

Genau  d a s  ist es, was (z.B. und unter Anderen) auch der Züricher WELTWOCHE auffiel[7]:

"…sind drei kalte Winter (Anm.: 2008-2010/11) … zufällig?" … "Solche Winter sind unangenehm, nicht nur für diejenigen, die frieren, sondern auch für diejenigen, die wegen des CO2-Ausstoßes wärmere Temperaturen angekündigt haben" … "Die Realität sei, schrieb der amerikanische Klimaforscher JUDAH COHEN, daß wir nicht trotz des Klimawandels frieren, sondern wegen ihm" … "Überzeugend wäre eine solche Erklärung aber nur, wenn sie nicht erst im Nachhinein käme. Stattdessen wurde jahrzehntelang das Gegenteil verkündet. Man erinnere sich an DAVID VINER von der britischen Climat Research Unit. Im Jahre 2000 hatte VINER gesagt, Schneefall in Großbritannien werde in wenigen Jahren sehr selten und eine Sensation sein. Kinder werden bald nicht mehr wissen, was Schnee ist."

Der frühere Fernseh-Meteorologe Wolfgang Thüne nimmt die ganze Angelegenheit unter fachlichen meteorologischen Aspekten auseinander[8]:

"Die hier [AWI-PM] publizierte AWI-Hypothese sagt nun:

<Die vorliegenden Modellrechnungen zeigen, dass der Luftdruckgegensatz bei geringerer sommerlicher arktischer Meereisbedeckung im darauf folgenden Winter abgeschwächt wird, so dass arktische Kälte bis in die mittleren Breiten vordringen kann.>

W e n n  dem so wäre, d a n n  müssten wir seit etwa 20 Jahren überwiegend kalte Winter haben,  denn mindestens seit dieser Zeit haben wir eine relativ sehr geringe arktische Eisbedeckung.

W e n n  diese AWI-Hypothese wissenschaftlich schlüssig wäre,  d a n n  müsste der Index der Nordatlantischen Oszillation (Luftdruck-Gegensatz Island-Azoren; vgl. Abbildung) seit ca. 30 Jahren weitgehend negativ sein  – das Gegenteil ist der Fall, wie die Abbildung zeigt : positiv 22, negativ 7, +/- Null 1 ! Selbst in den letzten 10 Jahren nur ‚halbe-halbe‘."

Abb.siehe Bild rechts oben: Index der Nordatlantischen Oszillation[9]

Ob kalte Winter in Europa, ob Temperatur-Entwicklung global:

Die Klimaforscher mit ihren Modellen sind "in schwerer See": Seit 15 Jahren stagniert die Erderwärmung[10]:

"…. Doch längst hat sich herumgesprochen, dass sich das Klima zuletzt anders entwickelt hat als vorhergesagt: Seit 15 Jahren stockt die Erwärmung, der Aufwärtstrend der globalen Durchschnittstemperatur hat sich seit 1998 nicht fortgesetzt. "Der Stillstand hat zu der Annahme geführt, die globale Erwärmung habe aufgehört", räumt die Nasa ein."

Dieses wird in den englisch-sprachigen Medien schon länger diskutiert, und hat nun auch die deutsche Öffentlichkeit erreicht[11].

Wie unangenehm, denn noch unlängst hörten wir sowas[12]:

"Die Er­wär­mung ent­wi­ckelt sich wie vor­her­ge­sagt. Die Mo­del­le wur­den auch an ver­gan­ge­nen Kli­ma­än­de­run­gen ge­tes­tet. Es gibt kei­nen Grund, den Mo­del­len zu miß­trau­en"

D A S   kann man offensichtlich auch anders sehen:

[13]

"Mit der gegenwärtig beobachteten Klima-Entwicklung sind die Modelle also nicht konsistent", gesteht Jochem Marotzke, Direktor des Hamburger Max-Planck-Institutes für Meteorologie.

[14]

"Nach unseren ersten Berechnungen müsste es in den kommenden Jahren sprunghaft wärmer werden. Aber wir trauen dieser Prognose nicht über den Weg. Denn die Simulation hätte auch den derzeit herrschenden Stillstand beim Temperaturanstieg vorhersagen müssen – was nicht gelang."   

Kevin Trenberth[15] schrieb am 11. Oktober 2009[16] an Hockeystick-Erfinder Michael Mann:

„Fakt ist, dass wir für die fehlende Erwärmung keine Erklärung haben und es ist ein Hohn, daß wir sie nicht haben“

(“The fact is that we cannot account for the lack of warming at the moment and it’s a travesty that we can’t.”).

Wie sagte doch der Kollege aus Kiel gleich noch (?) :

"…müssen Kinder heute oft viele Jahre auf größere Mengen Schnee warten."

Kinder, wie Ihr seht: Auch Professoren können irren, manchmal sogar fünf Jahre an einem Stück. Schaut einfach aus dem Fenster, auch in den nächsten Jahren, und lasst den Professor im Keller sitzen!

Fazit:

Weder die Winter in Europa noch die Temperaturen global machen  d a s , was Klima-Alarmisten und Modelle vorhergesagt haben. Was für eine Blamage für die etablierte Klima-Forschung. Häme jedoch ist da u.E. völlig unangebracht, denn es ist einfach nur noch peinlich für die Wissenschaft. Am Ehesten trifft da noch ein Zitat, dessen Ursprung zwar schon mehr als ein Jahr zurück liegt, aber das just – zumindest nun auch für manchen Naturwissenschaftler – wieder ganz aktuell ist:

"Dafür schäme ich mich nicht nur heimlich".

Klaus-Eckart Puls,  EIKE


[1] http://www.spiegel.de/wissenschaft/mensch/0,1518,71456,00.html ; 01.04.2000

[2] DIE ZEIT, 27. März 2002, Nr. 14, DOSSIER, Das große Schmelzen hat begonnen: Abbrechende Eisberge, schwere Überschwemmungen und andere Folgen der globalen Erwärmung / Von MOJIB LATIF

[3] Leipziger Volkszeitung, 1./2. Oktober 2005

[4] Dow Jones News GmbH Frankfurter Beratungsunternehmen 3c Climate Change Consulting GmbH, Bericht über die Konferenz am 28. und 29. März 2006 "Fachwelt entdeckt Klimahandel als Quelle für Investment und Finanzierung"

[5] BILD, 23.12.2010, S.7

[6] AWI, Presse-Mitt. 26.01.2012,

[7] WELTWOCHE, Frostbeulen der Erderwärmung, 1/2011, S.40

[8] http://www.eike-klima-energie.eu/news-cache/alfred-wegener-institut-wittert-lukratives-geschaeft-in-der-wetterwahrsagerei/

[9] Quelle: http://www.cru.uea.ac.uk/~timo/datapages/naoi.htm

[10] http://www.spiegel.de/wissenschaft/natur/stillstand-der-temperatur-erklaerungen-fuer-pause-der-klimaerwaermung-a-877941.html  ; 18.01.2013

[11] http://www.eike-klima-energie.eu/news-cache/klima-skepsis-erreicht-auch-die-deutschen-medien/ ; 30.01.2013

[12] Leipniz-Inst. Kiel, Mojib Latif, in : BILD , 20.09.07, S.13

[13] FOCUS-ol. : (http://www.focus.de/wissen/weltraum/odenwalds_universum/tid-25498/neuer-bericht-sorgt-fuer-kontroverseerderwaermung-eine-frage-deransicht_aid_737040.html ; 16.04.2012…)

[14] J. Marotzke, MPI HH, in: DER SPIEGEL, 27.02.2012, S. 113

[15] National Center for Atmospheric Research (NCAR) in Boulder, Co., USA

[16] Trenberth-Email, aufgedeckt im ClimateGate-Skandal 2009, email 1255352257*,  hier nachzitiert aus: DIE WELT, 03.12.09, S.3 ;




Konventionelle Weisheit, unkonventionelles Öl

Bild rechts: Konventionelles Öl sickert nahe McKittrick in Kalifornien aus dem Boden.

Ein Aspekt der Diskussion über Peak Oil, der mich immer beschäftigt hat, ist die Unterscheidung zwischen „konventionellem Öl“ und „unkonventionellem Öl“. Hier möchte ich darlegen, warum diese Unterscheidung bzgl. Peak Oil sinnlos ist.

Ich habe den ganzen Peak Oil-Deal lange verfolgt, der inzwischen, so weit ich das sagen kann, zu einem ein halbes Jahrhundert dauernden Tauziehen geworden ist. Während der früheren Jahre haben die Leute gerufen, das Öl würde uns ausgehen, dass der Höhepunkt [der Förderung] sehr bald erreicht werden wird und – du liebe Zeit – von da an wird würde alles schlimmer werden. Natürlich ist das immer noch nicht passiert. Also wurden die Peak Oil-Rufer mit der Frage zurück gelassen, die von verhinderten Untergangspropheten während der ganzen Menschheitsgeschichte gestellt worden ist, nämlich:

Wie in aller Welt kann ich die Aushöhlung meiner Position erklären und trotzdem noch einige Bruchstücke meines Rufes behalten?

Für die Peak Oil-Leute kam die Erlösung in gestalt des „unkonventionellen Öls“. Jetzt versichert man uns, dass das Öl immer noch ausgeht, dass sie also die ganze Zeit über recht hatten… Sehen Sie, man sagt, King Hubbert hatte recht, das konventionelle Öl geht wirklich zur Neige, aber währenddessen wird es nahtlos ersetzt durch „unkonventionelles Öl“. Soll heißen, wir haben immer noch Öl, obwohl uns das Öl ausgeht. Verstehen Sie?

Das Seltsame daran ist folgendes: wenn man ein Barrel unkonventionelles Öl öffnet, um zu sehen, welche Konventionen bei seiner Herstellung gebrochen worden sind, findet man heraus, dass es von konventionellem Öl gar nicht zu unterscheiden ist.

Was ist unkonventionelles Öl? Nun, wir können mit der Betrachtung der Konventionen hinsichtlich des Öls anfangen. Für buchstäblich Milliarden von Jahren lautete die Konvention, dass man Öl in kleinen Tümpeln und Löchern findet wie in dem Bild oben rechts. Tatsächlich war die Entdeckung von Öl in Oil Creek [= „Ölbach“] in Pennsylvania, der ersten Erdölbohrung in den USA, eine Folge des dort seit unzähligen Jahrhunderten austretenden Erdöls. Das war den ersten asiatischen Immigranten bekannt, und sie haben es in dem Gebiet genutzt, bevor später die bleichgesichtigen Massen eintrafen.

Also wird demnach konventionelles Öl, durch die historische ausgerufene, durch die Millenien weiter gereichte Konvention in Teersümpfen und Öl-Löchern an der Erdoberfläche gefunden. Das bedeutet, dass so unbedacht nach Öl bohren der Definition nach „unkonventionelles Öl“ nach oben pumpen ist… aber natürlich ist das alles nicht so einfach.

Als Ergebnis wird „konventionelles Öl” nicht durch die konventionelle Methode gefördert, es mit einem Eimer aus einem Loch abzuschöpfen, sondern durch eine entschieden unkonventionelle und zu jener Zeit noch nie gehörte Methode, ein Loch in die Erde zu bohren und es heraus fließen zu lassen…

Jahrelang lief es auf diese Weise einfach gut. Dann kamen „sekundäre Fördermethoden“ ins Spiel. Sie bestehen aus einer Anzahl physikalischer und chemischer Methoden, um noch mehr Öl aus bestehenden Feldern herauszuholen, einschließlich des Brechens von Felsen, damit das Öl noch leichter heraus fließt.

Etwa zu dieser Zeit begann sich die ganze Peak Oil-Geschichte nach Süden zu verlagern, weil – egal wie viele Peak Oil-Schreihälse aufheulten – in jedem Jahr noch mehr Öl entdeckt wurde. Jedes Jahr wuchsen die nachgewiesenen Ressourcen immer weiter. Und dieser Prozess setzt sich bis zum heutigen Tag fort, mit größeren nachgewiesenen Reserven als jemals zuvor. Wie erklären sich die Peak Oil-Leute das? Hey, da kommt „unkonventionelles Öl“ als Rettung!

 

Zum Beispiel sind dünnflüssigere Öle „konventionell”, aber zähere, mehr teerige Ablagerungen „unkonventionell“, obwohl sie von den Menschen seit Jahrhunderten genutzt werden. Also waren sie hinsichtlich Peak Oil nicht mitgezählt worden.

Wirklich lächerlich allerdings wird es, wenn man die „Konventionen“ über das Brechen des Gesteins mit einbezieht, um mehr Öl zu fördern, was wir „Fracking“ nennen. Die Fracking-Technologie wurde vor etwa vierzig Jahren entwickelt und ist seitdem benutzt worden, meistens für sekundäre Förderungen. Und alle diese Jahrzehnte lang war das aus den gebrochenen Felsen strömende Öl „konventionelles Öl“. Aber inzwischen hat man gelernt, horizontal zu bohren und das Gestein zu brechen… und jetzt plötzlich, nach 40 Jahren Felsen brechen, liefert das Fracking nur noch „unkonventionelles Öl“, nachdem es zuvor aus den senkrechten Bohrlöchern „konventionelles Öl“ gewesen war – einfach weil das Bohrloch jetzt horizontal und nicht mehr vertikal verläuft… Sieht irgendjemand einen Sinn darin?

Die Klassifizierung von „unkonventionellem Öl” durch Fracking zeigt klar die lächerliche Natur der Trennungslinie, wenn wir über Peak Oil reden. Hinsichtlich des vermeintlichen Peaks, warum ist Öl aus einer horizontalen Bohrung „unkonventionell“ und aus einer vertikalen Bohrung „konventionell“? Es ist immer die Technologie, und keine der Technologien ist „unkonventioneller“ als das Bohren des ersten Loches, ein höchst unkonventioneller Akt…

Die Bezeichnung von Öl aus horizontalen Bohrlöchern als „unkonventionell“ ist für die Peak Oil-Leute allerdings entscheidend. Wenn man nämlich das durch Fracking geförderte Öl konventionell nennen würde, würden die Behauptungen über „Peak Oil“ und Peak Gas“ einfach untergehen…

Sehen Sie, die hässliche Wahrheit ist, dass die Welt in fossilen Treibstoffen schwimmt. Als Erstes ist da die größte einzelne Konzentration fossiler Energie des Planeten, die Powder River Kohleformation in den nördlichen USA zu nennen. Die Welt verfügt noch viele hundert Jahre lang über Kohle. Die Kanadier haben große Ölvorräte… natürlich werden auch diese „unkonventionell“ genannt, weil das allein schon ausreicht, die „Peak Oil“-Behauptungen in die Tonne zu treten. Plus, dass wir inzwischen auch über „festsitzendes [tight] Öl“ verfügen, also Öl im Gestein, das natürlich unkonventionell ist.

Dann gibt es da noch die Entdeckung der Schiefergasvorkommen in der ganzen Welt. Selbst in Israel gibt es endlich einige heimische Energiequellen. Wie unkonventionell ist das? Australien hat gerade einen gewaltigen Fund bekannt gegeben. China verfügt über massive Gas-Ressourcen. Einer vorläufigen Schätzung zufolge haben wir einschließlich Schiefergas genug Gas für die nächsten paar Jahrhunderte im Vorrat.

Und schließlich haben wir als Freikarte [wild card] noch die Methanhydrate, das „brennende Eis“. Schätzungen von deren Menge gehen über alle Grenzen hinaus, aber alle haben eines gemeinsam – die Vorräte sind sehr, sehr groß, in einer Größenordnung von Quadrillionen Kubikfuß.  Dies addiert sich noch zu den globalen Erdgasreserven…

Und schließlich, die meisten Formen dieser fossilen Treibstoffe kommen in Kombination vor und können gegenseitig konvertiert werden. Kohle zum Beispiel kann man verflüssigen oder vergasen.

Und nun, weil es niemals jemanden gegeben hat, der über „Peak Coal“ gebrüllt hat, gibt es so etwas wie „unkonventionelle Kohle“ nicht, trotz gewaltiger Veränderungen beim Bergbau. Der Kohlebergbau hat sich genauso oder sogar noch stärker gewandelt als das Bohren nach Öl… warum also gibt es keine „unkonventionelle Kohle“?

Aber in diesem Fall, da die gesamten Kohlevorräte der Erde „konventionell“ zu sein scheinen und wir Kohle in Öl umwandeln, stellen wir dann „konventionelles“ oder „unkonventionelles Öl“ her? Vermutlich würde es eine Rolle spielen, wenn wir Kohle horizontal oder vertikal in Öl umwandeln würden…

Zusammengefasst: Wenn man einmal den Blödsinn der Unterscheidung zwischen „konventionellem“ und „unkonventionellem Öl“ überwunden hat, zeigt sich, dass es genug Kohle und Gas für viele hundert Jahre gibt, allein mit dem, was wir heute wissen. Dabei sind die Methanhydrate noch nicht einmal mitgezählt. Das ist der Grund, warum ich den Peak Oil-Alarmisten genauso wie den Klima-Alarmisten keinerlei Aufmerksamkeit mehr schenke. Eine Gruppe behauptet, wir haben zu viel Öl, und wir werden es alles verbrennen; die andere Gruppe behauptet, dass wir bald zu wenig Öl zum Verbrennen haben. Ich behandle diese beiden Schwindler genau gleich.

War die Trennung zwischen „konventionellem” und „unkonventionellem“ Öl dazu gedacht, das Scheitern der Peak Oil-Leute zu verschleiern? Keineswegs. Die Unterscheidung ist auf verschiedene Weise sinnvoll, wenn man die Welt der Ölressourcen analysiert. Ich glaube, dass das Konzept von den Peak Oil-Leuten einfach übernommen worden ist, weil es für sie sehr nützlich war, hat es doch das Scheitern ihrer Peak Oil-Vorhersagen komplett verschleiert. Für mich ist Öl gleich Öl gleich Öl, und falls man behauptet, dass der Welt das Öl ausgehen wird, kann man später nicht sagen, dass man die Dinge neu definiert hat, und dass das Öl, dass die Vorhersagen als falsch entlarvt, irgendeine Art Spezialöl ist, das nicht als Öl zählt, sondern nur wie Öl aussieht und die gleichen Eigenschaften wie Öl hat…

Willis Eschenbach

Link: http://wattsupwiththat.com/2013/02/02/conventional-wisdom-unconventional-oil/#more-78653

Übersetzt von Chris Frey EIKE




Wikipedia Wissen:Klima-Fälscher Connolley: Der Mann, der unser Weltbild umschrieb

Der Eintrag bei Wikipedia ist auffallend dünn:

William Michael Connolley (* 12. April 1964) sei ein britischer Informatiker, Autor und Blogger. Bis 2007 sei er beim British Antarctic Survey als Klimamodellierer beschäftigt gewesen. Er habe in Oxford studiert »und im Bereich Numerische Analyse abgeschlossen«. Bis Mai 2007 sei er als Gemeinderat tätig und für die Grünen aktiv gewesen. Im Bereich Klimaforschung habe er unter anderem behauptet, »dass bereits in den 70er Jahren die meisten Klimavorhersagen eine Globale Erwärmung und keine neue Eiszeit vorhersagten. Bis 2007 war er aktiver Mitarbeiter beim RealClimate Blog.« Sonst noch was? Ach ja: Der Mann hatte bei Wikipedia mitgearbeitet, und zwar als »Klimaexperte«. Seine Mitarbeit sei »lobend erwähnt worden«, unter anderem in der Wissenschaftszeitschrift Nature.

Manipulationsskandal bei Wikipedia

Erst ganz am Rande ist da auch noch nebulös von »Frustrationen« und »vorhandenen Konflikten« die Rede, die nicht ausgeblieben seien. Und auch von ihm auferlegten Einschränkungen wie dem »Entzug seiner Adminfunktion« bei Wikipedia und »zeitweisen Editierauflagen«. Erst hier merkt der aufmerksame Leser, dass es um den trefflichen Klimaaktivisten Connolley massiven Ärger gegeben haben muss. Am Ende des dürren Beitrags ist schließlich in einem einzigen Satz auch von »harscher Kritik« die Rede, »einschließlich der Behauptung, Connolley sei wesentlich für Meinungsmanipulationen bei klimabezogenen Artikeln der englischsprachigen WP verantwortlich«. »WP« steht für »Wikipedia«.

Das war‘s dann aber auch schon. Selbstreinigung sieht anders aus. Über das wahre Ausmaß des Manipulationsskandals rund um Connolley verliert die deutsche Wikipedia nämlich kein Wort. Dabei ist der Name »Connolley« nicht nur mit einem der größten Fälschungs- und Desinformationsskandale in der Klimaforschung verbunden, sondern auch mit einem der größten Propagandaskandale bei Wikipedia. Über Jahre trieb Connolley bei dem Onlinelexikon sein Unwesen, schrieb es im großen Stil im Sinne der etablierten »Klimaforschung« bzw. Klimalüge um und richtete dabei in dem weltweit wichtigsten Lexikon einen gewaltigen Flurschaden an. Aber nicht nur da, sondern auch an der Wahrheit und dem Weltbild von Abermillionen Menschen, die sich bei Wikipedia informieren.

Erst verschwand die Eiszeit, dann das Klimaoptimum

Kaum hatte die Klimaforschung weitgehend erfolgreich den so genannten »Climategate«-Skandal totgeschwiegen, bei dem Hunderte von E-Mails aufgeflogen waren, in denen sich Klimaforscher über ihre Manipulationen austauschten, da flog auch Connolley auf. Seine Arbeit an der Wikipedia-Seite habe er bereits 2003 begonnen, schrieb der kanadische Umweltjournalist Lawrence Solomon, der Connolleys Manipulationen erstmals in größerem Rahmen publik machte: »Connolley übernahm die Kontrolle über alle Klimathemen in der weltweit meistgenutzten Informationsquelle aller Zeiten – Wikipedia. Er schrieb Wikipedia-Artikel über globale Erwärmung, den Treibhauseffekt, die gemessenen Temperaturen, urbane Hitzeinseln, Klimamodelle und globale Abkühlung neu. Am 14. Februar begann er, die Kleine Eiszeit auszulöschen, am 11. August das mittelalterliche Klimaoptimum. Im Oktober wandte er seine Aufmerksamkeit der Hockeystick-Graphik zu« – einer Temperaturkurve, die inzwischen ebenfalls als Schwindel entlarvt wurde. »Er schrieb Artikel über die Politik bezüglich globaler Erwärmung und über die Wissenschaftler«, die der etablierten Klimaforschung »skeptisch gegenüberstanden« (zitiert nach: klimaskeptiker.info).

Über 5.000 Artikel umgeschrieben

Kurz: bei Wikipedia blieb kein Stein auf dem anderen. In welchem Ausmaß Connolley das Weltbild von Bürgern, Politikern und allen, die sich bei Wikipedia informieren, umschrieb, wird erst an den Zahlen deutlich. Alles in allem soll Connolley demnach nicht weniger als 5.428 Wikipedia-Artikel umgeschrieben oder verändert haben. 5.428 Artikel, die von Politikern genauso gelesen wurden wie von Wissenschaftlern, von Schülern genauso wie von Studenten, Lehrern und normalen Bürgern. Also praktisch die gesamte Klima-Berichterstattung bei Wikipedia. Ab 2006 stieg er auch noch für drei Jahre zum Redakteur des Lexikons auf, so dass er hemmungslos schalten und walten konnte, wie er wollte: »Wenn Connolley das Thema eines Artikels nicht gefiel, hat er ihn einfach gelöscht – über 500 Artikel mit verschiedenen Beschreibungen verschwanden durch seine Hand«, zählte Solomon zusammen. »Wenn er mit den Argumenten anderer nicht einverstanden war, hat er sie oft sperren lassen – über 2.000 Wikipedia-Mitwirkende, die mit ihm aneinandergerieten, fanden sich plötzlich von weiteren Wikipedia-Beiträgen ausgeschlossen. Willfährige, deren Texte mit Connolleys Ansichten über die globale Erwärmung übereinstimmten, wurden mit Wikipedia-Segnungen belohnt. Auf diese Weise hat Connolley Wikipedia in die missionarische Abteilung der Globale-Erwärmung-Bewegung verwandelt.«

Wikipedia: Der verzerrte Blick auf die Wirklichkeit

Tatsächlich sei die gesamte Wikipedia-Berichterstattung über den so genannten »menschengemachten Treibhauseffekt« von nackter Voreingenommenheit und Korruption infiziert worden, konstatierte auch der britische Journalist James Delingpole. Zwar wurde Connolley inzwischen aus dem Verkehr gezogen. Das Problem ist nur, dass die Conolleys überall sind. Denn erstens ist diese Kampagne wohl kaum allein auf Connolleys Mist gewachsen.

Zweitens geht die Propaganda gegen die Klimaskeptiker munter weiter: „Man erkennt gut, wie die ökoideologisch voreingenommenen Wikipedia-Sichter arbeiten, wenn man sich die Zeit nimmt, die begleitenden Auseinandersetzungen zum Wikipedia-Artikel über das [klimakritische] Europäische Institut für Klima und Energie (EIKE) einzusehen (Anmerkung: hierzu auf die buttons "Diskussion" bzw. "Versionsgeschichte" klicken), meint dessen Sprecher Professor Horst-Joachim Lüdecke. „Was sich hier zwischen den Wikipedia-Sichtern und den freien Autoren und Kommentatoren – auf die Wikipedia, schließlich angewiesen ist – abgespielt hat, hat mit einer Erfüllung der Aufgaben von Wikipedia-Sichtern gemäß den eigentlich verbindlichen Wikipedia-Regeln (neutral, sachgemäß, unvoreingenommen) nichts mehr zu tun.“  Nach einer kurzen „Pseudo-Diskussion“ sei EIKE von Wikipedia sogar auf die Blacklist  gesetzt worden. Damit sei es nicht mehr möglich, in irgendeinem Wikipedia-Artikel auf einen EIKE-Beitrag zu verlinken. Die gesamte EIKE-Seite werde von Wikipedia als “Spam“ behandelt. Den Spendenwillen für die ansonsten sehr begrüßenswerte Online-Lexikon-Aktion Wikipedia wird es bei den Nutzern, die die Manipulationen erkennen, wohl kaum fördern.

Und drittens steht schließlich zu befürchten, dass derartige Praktiken auch bei anderen hoch politischen Fragen verbreitet sind, wie etwa in Sachen Euro und Europäische Union, US-Politik und weltweite Krisenherde, Amokläufe und Waffengesetzgebung und anderes mehr. Tatsächlich muss man befürchten, dass Wikipedia inzwischen große Teile unseres gesamten Weltbildes verzerrt, nicht nur auf dem Gebiet der Klimaforschung. Die äußerst dürftige Aufarbeitung des Manipulationsskandals auf den eigenen Seiten spricht eine deutliche Sprache. Und außerdem ist kaum anzunehmen, dass die von Connolley manipulierten über 5.000 Artikel inzwischen sachgerecht überarbeitet wurden

Gerhard Wisnewski

zuerst erschienen bei Kopp Online hier

Über den Autor:

Gerhard Wisnewski wurde 1959 in Krumbach/Schwaben geboren. Aufgewachsen in der Mainmetropole Frankfurt, machte er dort 1979 sein Abitur und arbeitete schon ab 1978 als freier Mitarbeiter bei den Frankfurter Nachrichten.

Er studierte Politikwissenschaften mit den Nebenfächern Psychologie und Soziologie in München.
Seit 1986 arbeitet er als hauptberuflicher Jounalist, Schriftsteller und Filmautor. Er ist Fachmann für wissenschaftliche, technische, geschichtliche sowie politische Belange.
Mitarbeit bisher bei (Auswahl):
Frankfurter Nachrichten, Frankfurter Neue Presse, AZ, tz, Münchner Stadtzeitung, NRZ, BIO, Natur, SZ-Magazin, Allgemeines Sonntagsblatt, taz, Cosmopolitan, tempo, P.M., P.M. Perspektive
Erstes Aufsehen erregte Wisnewski 1992 mit dem Buch »Das RAF-Phantom« (mit Landgraeber, Sieker). Der darauf beruhende Spielfilm erhielt mehrere Preise, darunter den Grimme-Preis (Regie: Dennis Gansel).
Zusammen mit dem Filmemacher Willy Brunner drehte Wisnewski 2003 die weltweit erste kritische Dokumentation über die Attentate des 11.9.2001 für einen großen Sender (WDR).
Seit 2003 betätigt sich Wisnewski hauptsächlich als erfolgreicher Schriftsteller, der durch viele aufsehenerregende Bestseller auf sich aufmerksam machte.
Seit 2008 veröffentlicht er seinen sehr erfolgreichen kritischen Jahresrückblick »verheimlicht – vertuscht – vergessen«. (Der 2008 erschienene Jahresrückblick wurde noch nach dem Berichtsjahr »verheimlicht – vertuscht – vergessen 2007« genannt.)
2009 erhielt Wisnewski den José Lutzenberger-Preis für seine Zivilcourage und Verdienste als Aufdecker.




Eine weitere unbequeme Wahrheit – Anzahl der Tornados in den USA 2012 erheblich unter normal

Das NOAA Storm Prediction Center hat seinen Graph der Anzahl der Tornados gerade aktualisiert bis Ende November. Während das Jahr noch nicht vorbei ist, würde es mit der im Dezember zu erwartenden mittleren Zahl von 25 Tornados (oder weniger, wenn sich der unternormale Trend fortsetzt) eine Anzahl von Tornados deutlich unter dem Mittelwert geben.

Der NOAA-Spezialist Greg Carbin schreibt:

Nach einem ordentlichen Beginn hat die Anzahl der Tornadoereignisse in den USA 2012 deutlich unter die zu erwartende Norm abgenommen. Die vorläufige Zahl von 886 Tornados bis zum 30. November 2012 liegt um fast 400 Fälle unter dem, was man in einem „normalen“ Jahr erwarten kann.

Die Graphik oben zeigt, dass zu dieser Zeit im Jahr 2011 die Anzahl der Fälle um 400 „über“ dem Normalwert lag; spiegelbildlich zu 2012.

Die Graphik soll die dramatische Variabilität der Tornadozahlen belegen, die von einem Jahr zum anderen auftreten kann. Im Dezember gibt es im Mittel 25 Tornados, jedenfalls den Daten der letzten 30 Jahre zufolge. Eine detaillierte Zusammenfassung folgt hier:

Information über die Tornados im Jahr 2012 (bis heute) und Vergleich mit anderen Jahren und Ereignissen. Quelle: http://www.spc.noaa.gov/wcm/

Fußnote: Ein albernes Wetter-Propaganda-Video von Al Gore ist hier.  

Anthony Watts

Link: http://wattsupwiththat.com/2012/11/30/another-inconvenient-truth-2012-us-tornado-count-well-below-normal/

Übersetzt von Chris Frey EIKE




Die Klimakrieger der ZEIT, guter Journalismus?

Ich gestehe, Die ZEIT allenfalls gelegentlich im Cafè zu lesen. Ich bevorzuge das kleine Format, wie dasjenige der von mir hoch geschätzten Le monde, sowie Artikel, die sofort auf den Punkt kommen, wie die des britischen economist. Der ZEIT-Artikel betrifft mich aber als "Interview-Gastgeber" der ZEIT-Redakteurin Frau Anita Blasberg. Diese ließ es sich nicht nehmen, extra von Hamburg nach Heidelberg zu reisen. Hierzu weiter unten mehr. Die zweite Redakteurin der „Klimakrieger’’, Frau Kerstin Kohlenberg, ist mir dagegen nicht bekannt. Beide Autorinnen werden im Folgenden als BK abgekürzt.

Das ZEIT-Dossier „Die Klimakrieger’’ umfasst 3 volle Seiten des bekannt überdimensionalen ZEIT-Formats. Dennoch können die in ihm enthaltenen Faktenaussagen kurz abgehandelt werden. Es gibt nur wenige.

1. Faktenaussage – „Wie von der Industrie bezahlte PR Manager der Welt seit Jahren einreden, die Erderwärmung finde nicht statt. Chronologie einer organisierten Lüge“:

Es ist kein ernst zu nehmender Klimaskeptiker bekannt, der von einer nicht vorhandenen Erderwärmung spricht, noch nicht einmal ein von der Industrie bezahlter PR-Manager. Marc Morano, dessen Entlarvung als erfolgreicher Weltverschwörer BK gut eine ganze ZEIT-Seite wert ist, kenne ich leider kaum. Die wissenschaftlicheren, englischsprachigen, klimaskeptischen Blogs findet man bei Judith Curry,  WUWT und Joanne Nova. Daher musste ich mir Moranos Blog ClimateDepot nunmehr einmal ansehen. Die von BK Herrn Morano vorgeworfene Lüge ist freilich nicht auffindbar. Jeder, der sich ein wenig auskennt – Morano gehört vermutlich dazu – weiß über den mittleren globalen Temperaturverlauf des 20. Jahrhunderts und die jüngste globale Abkühlung Bescheid. Die Messdaten sind eindeutig und lassen keine Lügen zu. Das 20. Jahrhundert war durch zwei Erwärmungsphasen, 1900-1935 sowie 1970-1995 und eine längere Abkühlungsphase von 1935-1970 geprägt. Seit etwa 1996 stagnieren die Temperaturen und sinken nunmehr. Das Temperaturmaximum Ende des 20. Jahrhunderts wurde kurzfristig fast schon einmal in den 1930-er Jahren erreicht (linke Fig. 8 in hier). Der Temperaturwert der globalen Erwärmung im 20. Jahrhundert ist etwas umstritten, fest steht freilich, dass er sich bestens in die Fluktuationen früherer Jahrhunderte einordnet. Anthropogenes CO2 ist zu seiner Erklärung nicht zwingend nötig.

Vermutlich ist BK eine Verwechslung unterlaufen. Bezweifelt wird von Klimaskeptikern nicht der gemessene Temperaturverlauf, sondern die Hypothese, dass die Erwärmungsphase in der zweiten Hälfte des 20. Jahrhunderts – von gerade einmal 25 Jahren Dauer – anthropogen sei. Diese Zweifel sind begründet, denn für diese Hypothese fehlt in der Fachliteratur bis heute ein entsprechender Nachweis.

2. Faktenaussage – Die von BK rot gehaltenen Zitate von Morano:

Sie sind vermutlich von BK – unübersehbar rot/fett – in den Text eingestreut worden, um die Inkompetenz Moranos zu demonstrieren. Ohne mich als Sachwalter von Morano zu fühlen, erscheint mir das Vorgehen von BK allerdings nicht geeignet, ihren Standpunkt zu untermauern. Schauen wir uns dazu die Morano-Zitate näher an, wobei nur auf die mit Sachaussagen eingegangen wird, der Rest ist Geschmackssache und führt nicht weiter. Hierzu gehe ich – ohne Überprüfung  – von der Echtheit der von BK angegebenen Zitate aus:

a) Zitat Morano „Tatsächlich ist die Population der Eisbären fünf Mal so groß wie vor 40 oder 50 Jahren“. Falsch oder zutreffend?

Über dieses Thema ist zum Beispiel hier Sachliches zu finden. Fakt ist, dass der Eisbär nicht ausstirbt. Er hat alle früheren Warmzeiten, insbesondere die sehr starken des Holozäns um 4,5 und um 6,5 Jahrtausende vor unserer Zeit und natürlich die des Mittelalters, bestens gemeistert. Sein Überleben wird vom Jagdverhalten des Menschen, nicht vom Polarklima bestimmt. Moranos Zitat trifft daher zu, über die von Morano angegebenen Zahlen kann ich nichts sagen, sie sind im Detail auch unwichtig.

b) Zitat Morano „Der einzige Ort, an dem die angebliche Klimakatastrophe stattfindet, ist die virtuelle Welt der Computermodelle, nicht die reale Welt“. Falsch oder zutreffend?

Bis heute ist keine Fachveröffentlichung bekannt, die einen anthropogenen Einfluss auf Erdtemperaturen auf der Basis von Messungen nachweisen kann. Bis heute sind ferner keine Zunahmen von Extremwetterkatastrophen aufzufinden, dies bestätigt das IPCC im Report von 2001, the scientific basis, Kap. 2.7 (hier) und im jüngsten Extremwettereport von 2012 (hier). Da es bis heute keine anthropogenen Klimakatastrophen gibt, ist allein aus logischen Gründen Moranos Aussage korrekt. Die Zukunft kann nur aus der Kristallkugel oder aus Modellen vorhergesagt werden. Nachfolgend einige Zitate von Klimaexperten über ihre Auffassung zur Zuverlässigkeit von Klimamodellen:

Prof. Hans-Otto Peitgen (Mathematiker und Chaosforscher): “Jetzt reden wir von Glaubenssachen. Es gibt Leute, die glauben – und viele von denen sitzen in hoch bezahlten Positionen in sehr bedeutenden Forschungszentren -, dass man das Klima modellieren kann. Ich zähle zu denen, die das nicht glauben. Ich halte es für möglich, daß sich die mittlere Erwärmung der Ozeane in 50 Jahren mit einem bestimmten Fehler vorausberechnen lässt. Aber welche Wirkungen das auf das Klima hat, das ist eine ganz andere Geschichte“.

Prof. J. Negendank (GFZ Potsdam): “Das Klima ist zur Zeit unberechenbar und unkalkulierbar“ und weiter zu den Klima-Modellen “… dass man sich bewusst bleiben muss, dass es sich um Szenarien handelt, die auf vereinfachten Annahmen beruhen. Das Klimasystem ist aber bei weitem komplexer und wird auch in Zukunft Überraschungen bereithalten“.

Prof. Hans von Storch (GKSS-Forschungszentrum Geesthacht): “Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen“. Und an anderer Stelle: “Weder die natürlichen Schwankungen noch die mit dem vom Menschen verursachten Klimawandel ausgehenden Veränderungen können in Einzelheiten prognostiziert werden. Bei den natürlichen Schwankungen ist dies wegen der chaotischen Natur der Klimadynamik nicht möglich. Bei den anthropogenen Veränderungen kann es keine Vorhersagen geben, weil die Antriebe, d.h. die Emissionen von klimarelevanten Substanzen in die Atmosphäre, nicht vorhergesagt werden können“.

Nun wieder zurück zu den Morano-Zitaten!

c) Zitat Morano  „Unser Ziel ist es, die schlechte staatliche Politik zu stoppen, die auf unbegründeten und hysterischen wissenschaftlichen Behauptungen zur menschgemachten Erderwärmung beruht“. Falsch oder zutreffend?

Dieses Zitat ist keine Sachaussage, dennoch sei eine Anmerkung erlaubt. Dem Ziel von Morano, eine schlechte staatliche Politik zu stoppen, die auf unbegründeten und hysterischen wissenschaftlichen Behauptungen beruht, stimme ich zu. Was ist dagegen einzuwenden? Soll man eine schlechte Politik, die auf unbegründeten Annahmen beruht, unterstützen?  

d) Zitat Morano „Die zehn tödlichsten Flutkatastrophen der Welt ereigneten sich alle vor 1976“. Falsch oder zutreffend?

Der Link belegt, dass Morano recht hat. Für Europa gibt es die Flusspegelwände, auch von diesen wird Morano bestätigt. Ob es nun genau 10 oder mehr oder weniger Flutkatastrophen sind, spielt keine Rolle. Fest steht, dass die stärksten Überschwemmungsereignisse nicht in die Zeit des ansteigenden anthropogenen CO2 fallen.

e) Zitat Morano „Aus Kohle gewonnene Energie ist einer der größten Erlöser der Menschheit in der Geschichte unseres Planeten“. Falsch oder zutreffend?

„Erlöser“ klingt ein wenig geschwollen, sachlich trifft der Satz freilich zu. Ohne Nutzung der Kohle ist die industrielle Revolution und die Moderne undenkbar. Bei aller Abneigung gegen die Technik sollten rot-grüne Nostalgiker vielleicht einmal an einen Zahnarztbesuch im 17. Jahrhundert denken. Im Übrigen stellt auch heute weltweit die Kohle den größten Anteil an Primärenergie. Morano hat absolut recht.

BK hätten vielleicht versuchen sollen, die Morano-Zitate als falsch zu widerlegen. Das Dossier wäre damit zur zielstellenden Lektüre geworden.

Das zweite große Thema des Dossiers ist der Hockey-Stick von Michael Mann. M. Mann ist unbestritten ein Klimaforscher, der viel und zum Teil sehr Ordentliches publiziert hat und nicht nur seine berüchtigte Kurve aus der amerikanischen Borstenkiefer herausdestillierte. Über diese Kurve ist fast unendlich viel geschrieben und publiziert worden. Zunächst einmal ist sie falsch. Sie widerspricht allen anderen Proxy-Kurven, angefangen von Stalagmiten über weitere Baumringkurven bis hin zu aus Eisbohrkernen gewonnenen Temperaturkurven. Das mittelalterliche Wärmeoptimum und die kleine Eiszeit Ende des 17. Jahrhunderts ist in ihr nämlich nicht zu sehen. Über die globalweite Existenz dieser beiden Ereignisse braucht man heute nicht mehr zu streiten. Die wissenschaftlichen IPCC-Berichte enthalten dementsprechend den Hockeystick auch nicht mehr. BK hätten sich darüber unschwer informieren können.

Desweiteren sind mit der Propagierung des Hockeysticks durch M. Mann und seine Anhänger Vorkommnisse verknüpft, die mit den Regeln ordentlichen wissenschaftlichen Arbeitens nicht vereinbar sind – das Buch von Andrew Montford, "The Hockeystick Illusion", schildert dies ausführlich. BK kennen dieses Buch nicht. Drittens gibt es nicht nur die oben erwähnten anders aussagenden Temperaturkurven, die den Hockeystick falsifizieren, sondern es gibt zusätzlich auch noch begutachtete Publikationen, die die Fehler in der Vorgehensweise von M. Mann nachweisen. Dies dürfte sachlich genügen.

M. Mann hat mit dem massiven „Massieren“ seiner Baumringdaten (cooking the books heißt es im Englischen) etwas getan, was viele Leute als wissenschaftlichen Betrug bezeichnen. Ob man sich dieser Ansicht anschließt, ist Geschmackssache. Da ich den Vorgang kenne und ein wenig von Temperaturanalysen, Baumringdaten und Statistik verstehe, halte ich an der Bezeichnung „Betrug“ fest. Offizielle Untersuchungen über die Arbeitsweise eines Wissenschaftlers werden nicht vom Zaun gebrochen, weil irgendein PR-Manager eine „Verschwörung“ gegen Klimaforscher anzettelt, so einfach sind nicht einmal die USA gestrickt. Das von BK weichgezeichnete und von allen bösen Klimaskeptikern und insbesondere von Morano verfolgte Unschuldslamm M. Mann musste immerhin per Gericht gezwungen werden, seine Daten, mit denen er den Hockeystick aus dem Hut zauberte, nachprüfenden Kollegen zu übergeben. Mehr braucht über diesen Vorfall nicht gesagt zu werden.

Zur Klage von BK, es werde nichts zum Klimaschutz getan: BK scheinen ihr Schulwissen vergessen zu haben. Es gibt nicht das(!) Klima, nur Klimazonen von tropisch bis polar. Die Klimate in allen Zonen haben sich seit Bestehen der Erde stets gewandelt. Welches der verschiedenen Klimate soll geschützt werden? Und wie soll das geschehen? Wir müssten dazu beim „Schutz des Wetters“ anfangen.

Als letzten Punkt seien CO2 und Pflanzen angesprochen. Ihn bringen BK mit der Leugnung der Erwärmung durcheinander. Diese beiden Themen haben nichts miteinander zu tun. Besseres Pflanzenwachstum (insbesondere von Nahrungspflanzen wie Getreide) durch höhere atmosphärische CO2-Konzentrationen sind bestens bekannt und nachgewiesen (hier, hier, hier). Insofern spricht die von BK zitierte Antwort von M. Mann "Ich sehe wenig, was dafür spricht" auf die Frage Inhofes "stimmen Sie überein, dass ein erhöhter Kohlendioxidausstoß viele Vorteile für Flora und Fauna habe" von mangelnder Fachliteraturkenntnis oder von Klima-Alarmismus. Sachlich haben Soon und Legates in ihren zustimmenden Antworten recht, M. Mann dagegen mit seiner Antwort nicht.

Hiermit ist der Faktenteil des Dossiers von BK abgeschlossen, mehr gibt es nicht.

Nun zur  Kategorie „Unsachliches“ im ZEIT Dossier "Die Klimakrieger". Jeder Leser erkennt, dass das Dossier ein miserabel geschriebener Propaganda-Artikel gegen die sog. Klimaleugner ist, der sich ausschließlich auf ad hominem Attacken stützt. Er enthält so gut wie keine Sachargumente, und Gegenmeinungen gibt es schon gar nicht. Wer es mag, kann Parallelen zum Stil des Neuen Deutschland oder des Völkischen Beobachters ziehen, die Methoden sind erschreckend ähnlich. Ich gebe zu, dass meine Hochachtung vor dem Otto-Brenner-Preis, dem Deutschen Sozialpreis, dem Herbert-Riehl-Heyse-Preis und dem Georg-von-Holzbrick-Preis – alle diese Preise wurden an BK vergeben – stark gelitten hat.   

Interessanter sind die Gründe und Motive einer früher hochwertigen Wochenzeitung, die solch eine Polemik-Schmonzette wie die „Klimakrieger“ durchgehen lässt. Man erinnert sich wehmütig an bessere Artikel zu ähnlichen Themen, stellvertretend hier und hier. Anlässlich des von Frau Blasberg gewünschten Interviews empfahl ich ihr telefonisch, der interessanten Sachinhalte wegen ein wenig Zeit mitzubringen, denn als fachfremde Soziologin hätte sie vermutlich Erklärungsbedarf. Dieser Vorschlag war, wie ich im Nachhinein erkennen musste, unnötig. Frau Blasberg brachte knapp 1,5 Stunden mit, auch die waren noch zuviel. Von Klimafakten, von einer Zusammenstellung der unzähligen Petitionen und Manifeste von Klimaexperten gegen die AGW-Hypothese, von der politischen Instrumentalisierung der Klimafurcht und von vielem weiteren mehr wollte sie trotz meiner für sie vorbereiteten und zur Verfügung gestellten Unterlagen nichts wissen. Sie war nur an den EIKE-Interna interessiert. Nun steht EIKE als wichtigstes, deutsches Klimaskepsisforum mit rasant steigenden Internet-Besucherzahlen im Brennpunkt öffentlicher Aufmerksamkeit. Infolgedessen konnte Frau Blasberg nicht erwarten, von mir das Gewünschte zu erhalten. Vermutlich etwas verstimmt über ihren Misserfolg wurde ich dann im Dossier zu einem flüsternden Verschwörer stilisiert, amüsant! Die mir  untergeschobenen Aussagen gab es natürlich nicht. Die ZEIT hätte sich die Reisekosten von Frau Blasberg sparen können.

Frau Blasberg teilte mir stolz mit, dass sie sehr viel Zeit – ich meine, mich an 2 Monate zu erinnern – von ihrer Redaktion für den Artikel zur Verfügung hätte. Ob sie wahrheitsgemäß berichtete, kann ich nicht beurteilen. Wenn es zutraf, lag wohl ein Kommunikationsproblem zwischen ihr und der ZEIT-Redaktion vor. 2 Monate waren für Sachrecherchen tatsächlich angebracht, nicht für das abgelieferte Produkt. Die überdicke Tusche, mit der Morano und Vahrenholt mit Hilfe von Bösewichtphotos, M. Mann dagegen als liebevoll-sympathischer Forscher gezeichnet wurden, ist von vielen ZEIT-Lesern mit Sicherheit als Beleidigung ihrer Intelligenz empfunden worden. Ebenfalls der Verriss von Vahrenholt. Weil Vahrenholt auf studentische Fragen kenntnisreich antwortet, ist er ein Besserwisser. Wenn er es nicht getan hätte, wäre er von BK zweifellos fachlicher Unkenntnis geziehen worden. Solche journalistischen Tricks aus der Mottenkiste sind der ZEIT nicht angemessen.

Das Kernproblem hat man bei der ZEIT, aber auch bei der Süddeutschen Zeitung und weiteren Blättern mit ihren bekannten Polemiktiraden gegen die „Klimaleugner“ immer noch nicht begriffen. Ohne eine sachliche Diskussion in der Klima-Auseinandersetzung geht es nicht mehr. Mit solchen Dossiers wie von BK macht sich die ehemals niveauvolle Wochenzeitung ZEIT lächerlich. Guter Journalismus sieht anders aus. Die ZEIT darf sich nicht wundern, die wertvollsten, weil an wirklicher Information interessierten,  Leser auf immer ans Internet zu verlieren.

Prof. Dr. Horst-Joachim Lüdecke

EIKE Pressesprecher

Occupy hat das komplette ZEIT "Dossier" ins Internet gestellt. Zum Nachlesen hier

Mit Dank an Leserin Barbara




„DIE ZEIT“: „Wie guter Journalismus überleben kann“ und das Phantom „Die Klimakrieger“

Was sie darunter versteht, ist exemplarisch am Dossier über die „Die gekauften Klimakrieger“ – so der Aufmacher zum Dossier auf Seite 1 derselben Ausgabe- zu erfahren. (Occupy hat das komplette ZEIT „Dossier“ ins Internet gestellt. Zum Nachlesen hierMit Dank an Leserin Barbara)

„Die Zeit“ – früher das etwas sperrige Leib- und Magenblatt des liberalen Bürgertums mit durchweg ausgewogenen Pro und Kontra Darstellungen auch kniffligster Probleme, hat sich in den letzten Jahren immer mehr zum links-grünen Kampfblatt des öko-industriellen Komplexes entwickelt. Neue Abonnenten aus dem frisch ergrünten satten Bürgertum dankten es ihr. Und die wollen entsprechend bedient werden. Mit „gutem Journalismus“.

Dazu eignet sich besonders die Betonung von der Notwendigkeit der Weltrettung, z.B. vor der Klimakatastrophe.  Da die aber, trotz aller wiederholten Kassandrarufe, seit Jahrzehnten auf sich warten lässt, weil sich das Weltklima zudem noch total anders entwickelte, als die IPCC-&-PIK Gurus voraussagten, sollte die Neuanfachung des Katastrophenglaubens eine wichtige ZEIT-gemäße, erzieherische Aufgabe werden. Und so widmet man sich dieser Aufgabe immer wieder mit Inbrunst. Auf Seite 32 liefern die bereits einschlägig bekannten Redakteure Frank Drieschner und Fritz Vorholz dem Klimakastrophisten Schellnhuber vom Potsdam Institut für Klimafolgenforschung (PIK), die Stichworte für sein heißes vier Grad Scenario – welches uns zum Glück erst in 90 Jahren droht.

Weil dieses wahrlich heiße Scenario aus Computer Modellen aber evtl. noch nicht genug Panik liefert, mussten zusätzlich investigative SpitzenjournalistInnen ran, um die Gegner dieser Panikmache, „gut bezahlte Söldnertruppe“  genannt, zu „enttarnen“ und damit unschädlich zu machen. Was bei dieser Anstrengung herauskam war „..ein Lehrstück über die Kunst des Lügens“ wie die AutorInnen ungewollt selbstironisch zu Protokoll gaben.

Und weil die Söldner (wie anders) alles Männer waren, wählte die Chefredaktion trickreich und zudem in politisch sehr korrekter Übererfüllung der Frauenquote  für diese schwierige Aufgabe zwei, in investigativem Journalismus trainierte und damit gestählte, JournalistInnen aus.

Aus dem neugegründeten Ressort „Dossier“ durften Frau Anita Blasberg Jg. 1977 (anita.blasberg@zeit.de)  und Frau Kerstin Kohlenberg (kerstin.kohlenberg@zeit.de) Jg. 1970 den Kampf gegen die Söldner aufnehmen. Gewiss keine leichte Aufgabe, denn sie verlangte Mut und Kenntnisse in journalistischer Kampftechnik. Doch sie waren gut vorbereitet. Denn zuvor hatten sie so harte Fächer wie – Soziologie, Politik, Psychologie und Germanistik, bzw. Soziologie, Volkswirtschaft und Politik studiert und sich anschließend einem Journalismustraining in bekannten Kaderschmieden, wie der Henri-Nannen-Journalistenschule unterzogen, bzw. als Redakteurin beim „Tagesspiegel“ das investigative Handwerk von der Pike auf gelernt. Die eine bekam dafür bald den Otto-Brenner-Preis für kritischen Journalismus  und den Deutschen Sozialpreis, die andere wurde u.a. für den Henri-Nannen-Preis nominiert.

So trefflich gerüstet flog man zur Recherche mehrere Male ins Lieblings-Reich des Bösen aller deutschen Intellektuellen, den USA. Dort hatte zwar die Lichtgestalt deutscher Gutmenschen Barack Obama erneut – wenn auch mit knapper Not- die Präsidentschaft übernommen, derselbe Obama, der im Wahlkampf 2008 von sich behauptete, dass er – wenn gewählt- den Planeten heilen werde, und das Meer veranlassen würde nicht mehr zu steigen. Nun, der Planet ist zwar so heil oder kaputt wie eh und je, aber das Meer stieg nun prompt nicht mehr an. Wohl angespornt durch diesen unverhofften Erfolg erklärte sich Obama nach seiner Wiederwahl zum treuen Gläubigen des Märchens vom (anthropogenen) Klimawandel und versprach mehr Augenmerk als in seiner ersten Amtszeit auf dieses „brennende“ Problem zu lenken.

Damit voll in Linie, scheute „Die Zeit“ keine Kosten und Mühen ihn im Kampf gegen die „Klimaleugner“ brav und vorauseilend zu unterstützen. Doch im Eifer die vermuteten Klimakrieger hart zu treffen, unterlief ihr schon der erste Fehler in „guter journalistischer Arbeit“. Statt den Betreiber des weltweit mit Abstand meist gelesensten und zitierten Klimarealisten Blogs WUWT von Anthony Watts anzugehen, wählte man als Hauptzielperson Marc Morano aus. Den Betreiber des CFACT Blogs „Climate Depot“ Der passte doch viel besser ins Gut-Böse Schema, war er doch nicht nur „Klimaleugner“ sondern zudem noch überzeugter Republikaner und hatte – über allerlei Umwege zwar- indirekt auch für den verhassten George W. Bush gearbeitet. Das hatte zudem den Charme, dass man sich fachlich nicht auseinander zu setzen hatte, denn Marc Morano ist kein Meteorologe wie Antony Watts, sondern glücklicherweise nur ein „PR-Stratege“ mit dem „bösen“ Parteibuch der Republikaner.  Um ihn niederzuschreiben konnte man leichter alte und neue Kamellen nahtlos aneinander reihen. Sie passten allesamt gut ins fest geschlossene Weltbild der Zeit. Zum Beispiel die Behauptung, dass der „PR-Stratege“ die weltweite Kampagne der Klimaleugner entfacht hätte (s. Bildbeschriftung und im Text). Dass diese schon seit mindestens 20 Jahren läuft und von zehntausenden Wissenschaftlern weltweit unterstützt wird, war den ZEIT-InvestigatorInnen in ihrem Eifer eine Sensation aufzudecken, entgangen, oder hätte den schönen Anklagetext gestört.

Ein professioneller Fotograf machte dann viele schöne Aufnahmen eines unerbittlich schauenden Marc Morano, wie der das Klima verbissen leugnet. Pate Godfather ließ grüßen. Dabei soll er doch das „wohl aggressivste Mitglied einer gut bezahlten Söldnertruppe“ sein. An seiner „guten“ Bezahlung kann sein grimmiger Gesichtsausdruck daher wohl nicht liegen.

Oder die Behauptung über die vielen hundert Millionen Dollar, welche die Klimaleugner von der bösen Industrie erhalten hätten. Denn leider vergaßen die AutorInnen eine Quelle anzugegeben welche die hunderte von Millionen belegen könnte, die – so wird einfach im Text „gut journalistisch und investigativ“ behauptet- die Klimaleugner erhalten hätten. Wir von EIKE müssen für uns und auch für CFACT enttäuscht feststellen, dass von diesem Geldsegen bei uns nichts angekommen ist.

Völlig außen vor ließen die AutorInnen hingegen die jährlichen hunderte bis tausende von Milliarden die von staatlicher wie privater Seite an die Klimakatastrophisten bezahlt wurde. Die folgende Tabelle holt dies für alle Leser nach und gibt einen Überblick:

Entity USD  Quelle
Greenpeace  $300m  2010 Annual Report
WWF  $700m  ”  ($524m Euro)
Pew Charitable Trust  $360m 2010 Annual Report
Sierra Club  $56m 2010 Annual Report
NSW climate change fund (just one random govt example)  $750m  NSW Gov (A$700m)
UK university climate fund (just another random govt example) $360m UK Gov (£234 m)
Heartland Institute $7m  (actually $6.4m)
US government funding for climate science and technology  $7.000m  “Climate Money” 2009
US government funding for “climate related appropriations” $1.300m USAID 2010
Annual turnover in global carbon markets $120.000m 2010 Point Carbon
Annual investment in renewable energy $243.000m 2010  BNEF
US government funding for skeptical scientists $ 0  

Das sind jährliche Beträge und jährliche Etats. „m“ steht für Million;  Quelle: Joanne Nova Blog

Im Gegensatz zum harten Hund Morano wurde hingegen bei Michael Mann der journalistische Weichzeichner eingesetzt. Er ist bekannt geworden als der Erfinder, der schnell als Fälschung entlarvten, Hockeystickkurve, und größter Trickser (und hier und hier) in der Klimawissenschaft,.

Da wird von einem „scheuen, etwas rundlichen Wissenschaftler in ausgetretenen Schuhen“ erzählt, der davon „träumte die Schwankungen des Klimas zu erklären und sich noch immer im Labor“ (in welchem wird nicht gesagt, vermutlich im Klimalabor?) wohler fühlt, als unter Menschen. Er mag es auch sehr in den Wäldern Pennsylvanien zu wandern. Doch wie er wirklich tickt, lässt er -zum Entzücken der InterviewerInnen- auch alle wissen:  „Der Hockeyschläger war das Schlimmste was der Industrie passieren konnte“ sagte er und dass er es liebt, dass sein Strom für sein „kleines“ Haus durch Windkraft erzeugt wird. Und er findet auch – liefert aber natürlich keinen Beweis- dass„seit Jahren industriefinanzierte Kampfgruppen  versuchen, mich zu diskreditieren, mit einem einzigen Ziel: politisches Handeln zu verhindern“.

Aufgrund dieser Aussagen, so lassen uns  die AutorInnen wissen, seien seine Ergebnisse völlig unstrittig,  auch wenn einer der besten Statistikexperten Amerikas -Eduard Wegmann – belegte,  dass die Mann´sche Methodik und damit seine Ergebnisse[1] schlicht falsch sind und zudem nach intensiver Beschäftigung mit dem Thema auch enthüllte, dass Mann als Mittelpunkt und Treiber einer ganzen Wissenschaftlertruppe des hehren „Weltklimarates“ agierte, die wegen ihrer Tricksereien und Betrügereien um den Anstieg der Welttemperatur wenig später durch den ClimateGate Skandal zu trauriger Berühmtheit gelangten. Auch das IPCC bemühte sich später nach Kräften die Hockeystick-Kurve -nach der Entlarvung durch McIntyre und McKitrick 2006- im nächsten Bericht (AR4) vergessen zu machen und versteckte ihn dieserhalb unter einer Fülle von anderen Temperaturkurven anderer Forscher, welches als Spagetti-Diagramm zu trauriger Berühmtheit gelangte.

Dies alles sei natürlich nur eine Verschwörung der Klimaleugner, lassen uns die AutorInnen wissen, zumal doch Michael Mann, edel wie er und auch seine Kollegen vom „Weltklimarat“ sind, nur von der Luft und von der Liebe leben, weil sie doch „unentgeltlich“ arbeiten. Während die bösen Seitz, Singers etc. nicht nur für die Tabaklobby, sondern auch noch für die Raketen- und Atomindustrie gearbeitet hätten, und sich für ihr schändliches Treiben auch noch mit 5000 $ pro Monat (Singer!) entlohnen ließen. Ja, die Welt ist schlecht, da muss der Leser den AutorInnen recht geben.

Den Kampf um die Öffentlichkeit geben die AutorInnen für die USA verloren, aber in Europa seien die Klimaleugner noch in der Defensive, denn hier – in Deutschland – glauben die meisten Leute noch an die Ergebnisse der Wissenschaft. Nur der richtigen, natürlich!

Und damit kommt das lange, lange  Dossier doch noch auf Deutschland und damit EIKE und all die anderen Bösen. Z.B. auf Fritz Vahrenholt, Mitautor des Bestsellers „Die kalte Sonne“.  EIKE, dem man immerhin nicht absprechen kann die wichtigste deutsche Plattform der „Klimaleugner“ zu sein, versucht man im spätjugendlichen Hochmut als „Rentnerverein“  zu diskreditieren,  ohne auch nur einen Gedanken daran zu verschwenden, dass offensichtlich nur finanziell unabhängige Leute wie z.B. Rentner, in Deutschland sich objektiv dieser Thematik annehmen können, weil alle anderen sonst erhebliche Schwierigkeiten im beruflichen Umfeld zu erwarten haben. Einer insbesondere staatlichen Repression – das Beispiel Dött wurde sogar erwähnt- der sich viele nicht aussetzen wollen.

Wie richtig diese Erfahrung ist, belegten die AutorInnen später, wo sie in bewährter grün-roter Manier Fritz Vahrenholt seine vermutete Nähe zur Industrie bei Ölkonzernen wie Shell und später RWE als belastend auslegten. Obwohl er – das wurde irgendwie empört festgestellt- doch eigentlich zu den Guten gehörte, so als SPD-Mitglied und ehemaliger Umweltsenator! Wie kann der nur? Und weil sie ihm sachlich nichts entgegen setzen konnten, auch weil seine Interviewerin nichts von dem verstand, was er ihr sagte und zeigte, behaupteten die beiden dann :

„Vahrenholt behauptet nicht, die Klimaforscher seien Betrüger, aber er suggeriert, sie seien dümmer als er!“

Wer Fritz Vahrenholt kennt, weiß, dass dieser gebildete Mann niemals zu so plumpen Methoden, wie ihm die AutorInnen unterstellen, greifen würde. Er hat sich aber des Verbrechens schuldig gemacht, von seiner Interviewerin -Frau Blasberg- mehr zu erwarten, als sie verstehen konnte, indem er ihr die entsprechenden offiziellen Temperaturgraphen zeigte, die seine Feststellungen -für jeden, der klar im Kopfe und guten Willens ist – deutlich untermauern. Frau Blasberg hat diese Graphen leider nicht so recht deuten können und schloss deshalb messerscharf von sich auf „dümmeren Klimaforscher“.  So was kann einem passieren, Shit happens!

Das lange Dossier endet dann mit dem denkwürdigen Absatz: „Als Fritz Vahrenholt in Dresden spricht, liegt der Tag, an dem Michael Mann und seine .Kollegen das „Hockeyschäger-Diagramm“ veröffentlichten, 14 Jahre zurück. In diesem Zeitraum ist der jährliche Ausstoß von Kohlendioxid auf der Welt um mehr als 40 Prozent gestiegen“. Das die globale Mitteltemperatur im selben Zeitraum aber nicht mit stieg, wie es die These von der Wirksamkeit des CO2 zwingend verlangt, sondern sogar leicht fiel,  war den AutorInnen in ihrem Eifer glatt entgangen, obwohl das deutlich auf den offiziellen Graphen, die Vahrenholt zeigte, zu erkennen war. Blinder Eifer ist leider kein Ersatz für guten Journalismus, darf hier getrost festgestellt werden, auch wenn er bei der ZEIT wohl dafür gehalten wird.

Unser Fazit: Nur für die Wahrheit blinde (oder unwillige) JournalistInnen sind für „Die Zeit“ gute Journalisten. Ein Lehrstück in Orwellscher Rhetorik.

Michael Limburg EIKE


[1] Prof. Mc Kitrick: Das Wegman-Komitee stellte eigentlich fest, dass „die Darstellungen, die Neunziger Jahre das wärmste Jahrzehnt im Jahrtausend und 1998 das wärmste Jahr im Jahrtausend gewesen seien, durch die Analyse von Mann et al. nicht gestützt werden“. Und Wegman Original  „Ganz allgemein finden wir die Kritik (von McIntyre und McKitrick) berechtigt und ihre Argumente überzeugend. Wir konnten ihre Ergebnisse reproduzieren und sowohl theoretische Erklärungen wie auch Simulationen bieten, die verifizieren, dass ihre Beobachtungen korrekt sind“.




„Weltklimarat“ IPCC arbeitet intransparent und mogelt nach Kräften! Ein Insider packt aus.

Im kommenden Jahr soll der fünfte Sachstandsbericht des Weltklimarats (IPCC) veröffentlicht werden. Dann wird es auch wieder eine Debatte um die Seriosität dieses Reports geben. In der Vergangenheit hatten Manipulationsvorwürfe die Glaubwürdigkeit des Papiers als Ganzes in Mitleidenschaft gezogen.

Nun hat mit einem der Autoren des vierten IPCC-Berichts erstmals ein Insider aus dem Weltklimarat die Methoden enthüllt, unter denen der Bericht zustande kommt: Ross McKIttrick, Ökonomieprofessor an der Universität Guelph im kanadischen Bundesstaat Ontario.

McKIttrick ist am 17.9.12 in Berlin aufgetreten, und was er dort in einem minutiös detaillierten undefinedVortrag berichtete, untermauert die Zweifel an dem Hunderte von Seiten umfassenden Gesamtwerk. „Es ist sehr schwach und weit weg von akademischen Standards“, sagte McKittrick über den Inhalt der Studie, an der er 2005 und 2006 mitgearbeitet hat.

Großer Einfluß des WWF in allen Autorengruppen

Zum einen kritisiert er die Zusammensetzung des Autorengremiums. Es wird suggeriert, als wäre die Elite der Wissenschaft zusammen, um die Berichte des IPCC zu schreiben. In Wahrheit entsenden viele Länder gar keine Experten.

Jedes einzelne Hauptkapitel (gegliedert nach Arbeitsgebieten: hier "Working Group I", The Scientific Basis) nach wird von Autorengruppen, die wiederum die Unterkapitel bearbeiten.  McKIttrick war in der Working Group I und arbeitete an Entwürfen mit. Er mußte jedoch feststellen, daß seine Korrekturvorschläge ohne Begründung regelmäßig zurückgewiesen wurden. Nach Abschluß der Arbeit wurden zudem ohne Diskussion mit den Beteiligten gravierende Änderungen eingefügt. Im akademischen Bereich eine völlig inakzeptable Vorgehensweise, so McKIttrick.

Der Wissenschaftler weist zudem auf den Einfluß der Lobbygruppe World Wide Fund For Nature WWF (Details dazu hier im Vortrag von D. Lafromboise) hin.

28 von 44 Kapiteln seien von Gruppen verfaßt worden, in denen mindestens ein WWF-Mitglied saß. Auch die Führungsgruppen seien von WWF-Leuten dominiert.

McKittrick unterbreitet undefinedzehn Reformvorschläge. So rät er unter anderem dazu, die Berichte der Arbeitsgruppen immer gleich online zu stellen, um nachträglichen Manipulationen durch die IPCC-Strippenzieher einen Riegel vorzuschieben. Die Auswahlkriterien für die  Autoren sollten härter werden.

Vorschläge für eine Reform

1. Einführung eines objektiven und transparenten  Auswahlverfahren für die Lead Autoren.

2. Einführung eines transparente Ernennugnsprozesses der jeweiligen Fach-Autoren

3. Ernennung von Redakteurs-Aufsichtsräten und Identifizierung von potenziell kontroversen Abschnitte.

4. Explizite Zuordnung von beiden:  Autoren- und Gutachter Positionen. 

5. Einführung eines iterativen Prozess, um eine endgültige Fassung unter der gemeinsamen Aufsicht von Autoren, Gutachtern und Redakteuren zu erreichen.

6. Einführung eines Verfahrens für die Suche nach sachlich geeigneten Inhalten, wenn nötig von außerhalb der Liste der Autoren und Gutachter an der Assessment-Prozess.

7. Einführung eines "Due Diiligence"- (gebotene Sorgfalt) Verfahrens  in Bezug auf zentrale papers und die vollständige Offenlegung aller Daten und Methoden die die ursprünglichen IPCC Abbildungen und Tabellen zu erzeugen.

8. Sofortige Online-Veröffentlichung jedes vollständigen Berichts bei Abschluss desselben, noch vor der Erstellung der Zusammenfassung.

9. Erstellung der Zusammenfassung durch Ad-hoc-Arbeits-Gruppen des Gremiums, die auf Empfehlungen des Redakteurs-Aufsichtsrats (Editorial Advisory Board) basierend, ernannt werden.

10. Veröffentlichung aller Entwürfe, Review-Kommentaren, Antworten und Autoren-Korrespondenz samt Datensätzen innerhalb von 3 Monaten nach Online-Veröffentlichung des vollständigen Berichts.

Der Katalog von McKittrick endet mit der Forderung:

Dass die am IPCC beteiligten Nationen diese Reformen sofort starten, und, wenn ein solcher Reform-Prozess nicht eingeleitet werden kann, dann sollten sich die nationalen Regierungen, die wirklich an objektiver und fundierter Beratung zu Fragen des Klimawandels interessiert sein sollten, aus dem IPCC zurückziehen. Sie sollten dann den Prozess zum Aufbau einer neuen Institution beginnen, die frei von den oben genannten Mängeln ist.

Das Vorwort zu McKittricks Studie ( What is wrong with the IPCC?) hat der frühere australische Premierminister John Howard geschrieben, ein erklärter Gegner der gängigen Erderwärmungsthese. Der Report sei „gut recherchiert“ und seine Lektüre „notwendig“, um den IPCC-Bericht verstehen zu können, so Howard. (rg)

R. Gläser (Red. M.Limburg); zuerst erschienen auf Junge Freiheit




Anthropogen verursachte globale Erwärmung widerlegt – die gescheiterte Theorie

Die Modelle haben Änderungen der Ausstrahlung nicht korrekt vorhergesagt; ebensowenig die Feuchtigkeit und die Temperaturtrends der oberen Troposphäre. Der wichtigste Einzelaspekt, der alles andere dominiert, liegt in der Tatsache, dass der Wärmegehalt der Ozeane seit 2003 kaum zugenommen (und möglicherweise sogar abgenommen) hat, entgegen den Simulationen. In einem Best-case-Szenario reichte keine der beobachteten Zunahmen an die Modelle heran. Modelle können lokale und regionale Verteilungen sowie jahreszeitliche Auswirkungen nicht vorhersagen, und doch summieren die Modellierer alle diese kleinen Fehleinschätzungen und behaupten, eine akkurate globale Makro-Vorhersage zu erstellen. Die größte Erwärmung fand stufenartig im Jahre 1977 statt, das CO2 dagegen ist jährlich gestiegen.

Beobachtungen aus jeder einzelnen Richtung deuten auf die gleiche Schlussfolgerung

Studien zur Auswertung von 28 Millionen Wetterballonen, tausender Aufzeichnungen von Satelliten, 3000 Messbojen im Ozean, Temperaturaufzeichnungen an 50 Orten in den USA und 1000 Jahre Temperatur-Proxies zeigen, dass die globalen Klimamodelle positive Rückkopplungen überschätzen und auf reinen Hypothesen beruhen. Die Beobachtungen zeigen geringere Werte der Klimasensitivität, egal ob man langzeitliche Feuchtigkeit, hochtroposphärische Temperaturtrends, langwellige Ausstrahlung, Änderungen der Wolkenbedeckung oder Änderungen des Wärmegehalts der riesigen Ozeane betrachtet.

Der fortgesetzte Glaube an gescheiterte Modelle bricht zentrale Grundsätze der Wissenschaft

Es gibt zwei Dinge, die Wissenschaft und Religion unterscheiden: in der Wissenschaft ist nichts geheiligt, und alles aus der Wissenschaft muss ultimativ zu den Beobachtungen in der realen Welt passen. Während eine Theorie nie zu 100% bewiesen werden kann, kann sie aber widerlegt werden. Die Teile des Klimapuzzles finden sich zusammen. Die Beobachtungen zeigen, dass der Erwärmungseffekt der anthropogenen CO2-Emissionen in den Computersimulationen um den Faktor 3 bis 7 überschätzt worden ist.

Die Beobachtungen zeigen wesentliche Fehler [der Modelle auf]:

  1. 1. Die fehlende Wärme im Ozean 8 – 14
  2. 2. Satellitenbeobachtungen zeigen, dass eine wärmere Erde  zusätzlich Energie in den Weltraum abstrahlt 15 -17
  3. 3. Die Modelle zeigen falsche Kernhypothesen – der Hotspot fehlt 22 – 26, 28 – 31
  4. 4. Wolken kühlen den Planeten, während er sich erwärmt 38 – 56
  5. 5. Die Modelle sind im lokalen, regionalen oder kontinentalen Maßstab falsch. 63- 64
  6. 6. Acht verschiedene Verfahren ergeben eine Klimasensitivität von 0.4°C 66
  7. 7. Hat sich der Planet durch das CO2 überhaupt erwärmt während der letzten 50 Jahre? Das ist schwerer zu sagen als man denkt. 70
  8. 8. Selbst bei der Annahme dass es seit 1977 wärmer geworden ist und die Erwärmung durchweg vom CO2 verursacht worden ist, sind die Rückkopplungen Null — Katastrophe abgewendet. 71
  9. 9. Vor 1000 Jahren war es warm oder wärmer als heute. Die Modelle können das nicht erklären. Es lag nicht am CO2. (Siehe auch Fehlschläge der Hockeyschläger) Die Modelle können vergangene Episoden mit Erwärmung nicht abbilden, warum also sollen sie die Zukunft vorhersagen können?

Bild oben rechts: Vergleich der Klimasensitivität (empirische Methoden im Vergleich zu Modellaussagen bei einer Verdoppelung des CO2-Gehaltes).

Die direkte Auswirkung von CO2 beträgt nur  ca. 1,2°C

Das IPCC schätzt, dass die direkte Auswirkung von Kohlendioxid bei jeder Verdoppelung des Gehalts bei 1,2°C Erwärmung liegt1 (das heißt vor Berücksichtigung der Rückkopplungen). Die Modelle verstärken diese Erwärmung mit Annahmen über eine positive Rückkopplung (blaue Region der Modellabschätzungen in der Graphik oben rechts). Aber die Beobachtungen zeigen, dass die Gesamtrückkopplung möglicherweise negativ ist, was die direkte Auswirkung des zusätzlichen Kohlendioxids reduzieren würde.

Während unabhängige Wissenschaftler auf diese empirischen Beweise verweisen, argumentieren von der Regierung bezahlte Wissenschaftler, dass eine Mehrheit der Wissenschaftler, ein Konsens, dass die Theorie von der vom Menschen verursachten Katastrophe kommen wird2. Dies ist rundweg unwissenschaftlich und ein logischer Trugschluss. Getestet werden wissenschaftliche Erkenntnisse durch Experimente und Beobachtungen. Die einzigen Beweise, die die Regierungswissenschaftler für die Schlüsselpunkte des Beitrags (dem Grund der Erwärmung) präsentieren können, sind von Computermodellen erzeugte Simulationen des Klimas. Diese Modelle sind nicht verifiziert und haben, wenn man sie darauf abklopft, keinerlei „Fähigkeiten (skills)“, das Klima vorherzusagen. Wissenschaftler mögen etwas anderes behaupten, aber kein einziges Modell ist dazu geeignet. Lediglich eine Auswahl der Modelle zeigt hinsichtlich einiger Parameter „Erfolge“.

Eine Vielzahl von Beobachtungen stimmt im Großen und Ganzen darin überein, dass jede Zunahme der mittleren globalen Temperatur infolge einer Verdoppelung des CO2-Gehaltes wahrscheinlich eher bei einem halben Grad liegt als die vom IPCC bestimmten 3,3 Grad3.

Das große Problem der Modelle: Rückkopplungen

Unser Klima ändert sich durch Einwirkungen von außen, Antriebe genannt: Die Sonne wird heller, oder ihr magnetisches Feld ändert sich, Ozeanströmungen verschieben sich, die Vegetation verändert sich oder Kontinente driften. Die Erde ist ein Ball aus Magma, sie ist 12 000 km dick mit einer dünnen Kruste von etwa 12 km Felsgestein darauf – wer weiß, welche Auswirkungen von innerhalb der Erde kommen? Das IPCC erkennt nur zwei Typen von Antrieben: Treibhausgase und solare Intensität.

Antriebe sind schwierig herauszuarbeiten. Noch schwieriger ist das mit den Rückkopplungen, da Systeme sich weltweit an veränderte Bedingungen anpassen. In einer wärmeren Welt beispielsweise bedeuten weniger Eis und mehr Pflanzenwachstum, dass weniger Sonnenlicht ins Weltall reflektiert wird, was mehr Erwärmung bewirkt. Der Ozean gast Kohlendioxid aus, mehr Wasser verdunstet, die Feuchtigkeit ändert sich, der Meeresspiegel steigt, und all diese Folgeänderungen beeinflussen die Temperatur immer weiter.

Die Rückkopplungen sind nicht einfach nur der Zuckerguss auf dem Kuchen, aber nach Ansicht des IPCC mächtiger als alle Antriebe, die direkt mit dem CO2 zusammenhängen. Während das CO2 tatsächlich zu einer Erwärmung von etwa 1 Grad führen kann, verstärken die Rückkopplungen dies – jedenfalls theoretisch – auf bis zu drei Grad. Der Hauptakteur bei den Rückkopplungen ist dem IPCC zufolge der Wasserdampf (d. h. Feuchtigkeit) 4. Das IPCC könnte für hundert Faktoren richtig liegen, aber wenn es die falschen Hypothesen benutzt hinsichtlich des Verhaltens von Wolken und Feuchtigkeit, kann die Vorhersage von alarmierenden drei Grad auf eine Vorhersage von lediglich einem halben Grad reduziert werden. Einige Details zählen mehr als andere.

Es ist nicht nur sehr schwierig, alle diese Rückkopplungen zu bewerten, es ist auch schwierig zu erkennen, ob einige Änderungen eine Rückkopplung, ein Antrieb5 oder beides zugleich sind – Wolken zum Beispiel. Der Einfluss der Wolken auf das Klima würde sich offensichtlich bei einer Erwärmung der Welt verändern (eine Rückkopplung). Aber wenn solarmagnetische Vorgänge die Wolken verändern, wie es sich jetzt immer mehr herausstellt, können die Wolken das Klima auch treiben (ein Antrieb) 6, 7.

Alle hier erwähnten Elemente zeigen unabhängig voneinander, dass die zentralen Modellannahmen falsch sind. Die Modelle nehmen an, dass die Relative Feuchtigkeit über den Tropen in einer sich erwärmenden Welt immer gleich bleibt, dass Wolken eine positive und nicht eine negative Rückkopplung bewirken und dass Änderungen der Bewölkung eine Rückkopplung und nicht ein Antrieb sind. Dies sind drei kritische und leicht zu belegende Irrtümer.

Schlussfolgerung

Egal wie man es dreht und wendet, die Modellvorhersagen passen nicht zu den Beobachtungen.

Die Erwärmung der letzten dreißig Jahre impliziert, dass wir bestenfalls [eine Erwärmung um] 1°C durch eine Verdoppelung des CO2-Gehaltes erwarten können, aber Beobachtungen aus acht natürlichen Experimenten weltweit und selbst auf Mars und Venus legen nahe, dass die obere Grenze der Klimasensitivität irgendeines Antriebs bei 0,4°C liegt. Außerdem, wenn Miscolscki recht hat und eine Zunahme des Kohlendioxids zu einer Verringerung des Wasserdampfes führt, könnte die Sensitivität von CO2 nahe Null liegen.

Den Vorhersagen der globalen Erwärmung widersprechen die Daten. Die riesigen Finanzmittel, die derzeit ausgegeben werden, um das Problem der globalen Erwärmung zu ‚lösen’, sollten in die Erforschung von Hypothesen umgeleitet werden, die konsistent mit empirischen Daten sind und von beobachteten Beweisen belegt werden.

Jo Nova und Anthony Cox

Die Ausnahmen bestätigen, dass die Regel falsch ist. Das ist das Prinzip der Wissenschaft. Sollte es zu irgendeiner Regel eine Ausnahme geben und das durch Beobachtungen gezeigt werden kann, ist diese Regel falsch.

Richard Feynman, according to The Meaning of it All, 1999 ­­­

Jo Nova und Anthony Cox

Link: http://joannenova.com.au/2012/10/man-made-global-warming-disproved/

HINWEIS: Im Original folgt eine lange Liste von Referenzen mit 80 Eintragungen.

Übersetzt von Chris Frey EIKE




Der letzte Tag, an dem die Klimatologie noch eine Wissenschaft war

Einführung

Helmut Jäger 

Sir John Houghton, Vorsitzender der Konferenz der IPCC-Arbeitsgruppe I (Madrid, Nov. 1995) schrieb 2008 in einem Aufsatz in der Fachzeitschrift Nature, dass diese Konferenz die Welt veränderte: „… ohne sie gäbe es heute kein Kyoto-Protokoll“. Houghton erinnert sich, wie es zu der entscheidenden Feststellung im „Zweiten Zustandsbericht des IPCC – SAR“ gekommen sei, dass der Mensch den Klimawandel verursache. Nach Meinung von Nature hätte damals die Wissenschaft obsiegt (Nature, vol455, 9Oct08).

Korrumpiert wurde sie damals, die Wissenschaft, meint dagegen der australische Autor Bernie Lewin. Für ihn war die Konferenz in Madrid 1995 der Tag, an dem sich die Klimatologie dem gemeinsamen amerikanischen, englischen und kanadischen Regierungsdruck unterwarf und damit ihre Wissenschaftlichkeit opferte. Diese Willfährigkeit gegenüber der Politik wirkt bis heute fort. Der englische Umweltpolitiker Sir John Houghton und der amerikanische Klimatologe Ben Santer spielten dabei eine besondere Rolle. Der Australier Bernie Lewin beschreibt die Vorkommnisse. Lassen wir ihn zu Wort kommen.
[Der Originalartikel entstammt einer Reihe von vier Artikeln zum Thema und ist leicht gekürzt und geringfügig zum besseren Verständnis für deutschsprachige Leser überareitet.
Einfügungen der Übersetzer in eckigen Klammern. Internet-Links auf die übrigen Artikel am Ende.]

Madrid 95: Der letzte Tag, an dem die Klimatologie noch Wissenschaft war

Von Bernie Lewin

Ben Santer in Madrid

Ben Santer kam im Spätherbst 1995 in Madrid an. Da wusste er noch nicht, dass diese Konferenz sein Leben entscheidend verändern würde.

Er war ehrgeizig, ein aufsteigender Stern am Himmel der Klimamodellierer. Er hatte sich schon einen Namen gemacht. Gerade war er 40 geworden und wurde nun maßgeblich mit der Überarbeitung eines Schlüsselkapitels des IPCC Second Assessment Report beauftragt. Erst spät hatte ihn John Houghton, Sitzungsleiter in Madrid, um die Übernahme dieser Aufgabe gebeten, nachdem andere wohlbestallte Wissenschaftler abgelehnt hatten. Vielleicht ahnten sie, was sich da zusammenbraute. Denn es sollte dann auch Santers Schicksal werden, dass auf ihn eine große historische Last als Leitautor dieses Kapitels zukommen würde. Als er damit fertig war, als Houghton nach einigen Tagen den Schlussentwurf erhalten hatte, würde die Klimatologie nie mehr so sein wie früher.
Nach langem Kampf hatten sich die Jünger der Wissenschaft den überstarken Kräften der Politik ergeben. Und bald würden sie völlig und unwiderruflich darin verstrickt sein.

Die Geschichte von Santers späten Änderungen am Kapitel 8 des Berichts der Arbeitsgruppe I ist durch die skeptischen Darstellungen der Klimawandel-Kontroverse bekannt geworden. (Siehe hier und hier und hier in einem nicht skeptischen Bericht).
Die Geschichte wird aber oft von anderen Ereignissen überschattet, und ihr wird nicht die gleiche Bedeutung gegeben, wie z. B. Hansens schweißtriefender Kongress-Anhörung 1988, oder wie es zur Entstehung des IPCC kam, oder der Hockeyschläger-Kontroverse. Wenn man aber mit dem Maßstab des Einflusses auf die Wissenschaft misst, dann steht die Madrider Konferenz von 1995 unangefochten an der Spitze.

Der letzte Tag der Konferenz

Der Vormittag des letzten Tages war schon weit fortgeschritten, als der Abschnitt „Detection and Attribution“ (D&A) [Aufdeckung und Verursachung] in der „Summary for Policymakers“ im Madrider Plenum durchgesprochen wurde. Der vorgelegte Text war das Ergebnis intensiver Diskussionen in einem ad hoc-Ausschusses, der am ersten Tag der Konferenz eingerichtet worden war, unmittelbar nach den lauten Reaktionen auf Ben Santers Präsentation der Ergebnisse der [damals] neuesten ‚Fingerabdruck‘-Studien. Der [zuvor abgestimmte] D&A-Teil schien nun veraltet und überarbeitungsbedürftig …
(Am ersten Tag von Madrid waren noch weiter Ausschüsse gebildet worden, aber keiner führte zu einer solchen Kontroverse im Plenum)

Es gibt verschiedene Darstellungen über den Verlauf des letzten Tages, wir folgen weitgehend dem Bericht der australischen Delegation wegen seines ungewöhnlichen Blickwinkels:

Dr. Al-Sabban von der saudischen Delegation schlug vor, im Plenum den exakten Text der eingereichten [alten] „Concluding Summary“ (von Kapitel 8) zu besprechen. Dr. Santer wies Dr. Al-Sabbans Forderung zurück, der darauf beharrt hatte, dass die vorgelegte [neue] Fassung „keine stimmige Zusammenfassung der Wissenschaft sei“.

Daraufhin bat Dr. Al-Sabban den Vorsitzenden (Houghton) um eine Entscheidung, weil die IPCC-Prozeduren doch vorschrieben, dass die ‚Summary for Policymakers‘ zusammen mit dem zugrunde liegenden wissenschaftlichen Kapitel übereinstimmen müsste. Sir John Houghton entschied, es ginge in Ordnung, wenn auch die zugrunde liegenden Kapitel geändert würden, um sie in Übereinstimmung mit der von der ad hoc Gruppe erarbeiteten [neuen] Erkenntnisse zu bringen. Er wurde von Professor Bolin (IPCC-Vorsitzender) unterstützt. Dr. Al-Sabban protestierte: Während der vergangenen sechs Jahre seiner Tätigkeit im IPCC wäre ihm viele Male verweigert worden, Texte in die ‚Summaries‘ einzufügen, wenn diese nicht auf den zugrunde liegenden Kapiteln basierten. Dem hätte er sich immer gebeugt, aber nun glaube er, würde diese grundlegende Regel verändert.

Santer ereiferte sich. Der Druck auf eine stärkere und durchgängigere Botschaft von einer vom Menschen herbeigeführten Verursachung [des Klimawandels] hatte 2 Tage vorher mit Houghtons Ankündigung der Änderung der Agenda begonnen. Nun geriet diese Absicht in Gefahr. Die Auseinandersetzung barg moralische Probleme [der Integrität] für alle Wissenschaftler auf dem Podium.

Druckaufbau, um das Urteil von der „menschlichen Verursachung“ herbeizuführen

Die alte ‚Concluding Summary‘ von Kapitel 8 war schlüssig und skeptisch, hauptsächlich wegen des Einflusses einer durchweg skeptischen noch unveröffentlichten Studie von Barnett et al., bei welcher Santer ebenfalls Ko-Autor war.

Und so befinden wir uns in einer übernationalen Plenardebatte, deren Teilnehmer einen Konsens bei der Formulierung der ‚Summary for Policymakers‘ finden müssen. Und der Vorsitzende des Plenums entpuppt sich als Komplize eines Leitautors bei dessen Bemühen, die Schlussfolgerungen eines Kapitels zu verwerfen, die in einem [abgeschlossenen] Arbeits- und Begutachtungsprozess von IPCC-Experten erarbeitet worden waren.

Der Vorsitzende Houghton rechtfertigte diese außerordentliche Vorgehensweise mit dem Auftauchen wichtiger neuer Beweise. Diese waren aber nicht neu: Das Muster der ‚vertikalen‘ Verteilung der Korrelationsergebnisse war bereits auf einer Plenarsitzung der Kapitel-Autoren in Asheville im vorhergehenden Juli präsentiert worden. Die Ergebnisse waren in das Kapitel eingearbeitet worden, zusammen mit anderen kürzlich gefundenen ‚Fingerabdrücken‘ von CO2+Sulfaten. Und diesen Sachverhalten war eine erhöhte Bedeutung durch die Erwähnung in der Kapiteleinführung beigemessen geworden.
In Kommentaren, die bereits in Asheville auf dem Tisch lagen, hatte die US-Regierung eine noch stärkere Berücksichtigung der Auswirkungen von CO2+Sulfaten bei der Frage nach der Verursachung gefordert. Und schon in Asheville [wollte die US-Regierung] diese ganz neuen Erkenntnisse in der gleichen Weise behandelt sehen, wie später in Madrid: als Mittel zur Verstärkung einer durchgängigen Botschaft hinsichtlich der Verursachung [durch den Menschen]. Das Problem war nur, dass es Widerstand dagegen gab und dies im Madrider Entwurf (18. April 1995) nur unvollständig berücksichtigt war. Daher sollte der Druck in Madrid fortgesetzt werden. Das große Hindernis war die skeptisch formulierte ‚Concluding Summary‘.

Eine Bresche war bereits zuvor [in Asheville] mit einer Aussage zur Verursachung im Entwurf des Kapitels 8 (19. April 1995) geschlagen worden. In einer früheren Kapitel-Einführung hatte es noch geheißen:

Ein Muster von Klima-Reaktionen auf menschliche Aktivitäten ist in den Klimaaufzeichnungen erkennbar (SAR-Entwurf April 95).

Die Aussage stand aber in einem Kontext von Vorbehalten, die sie anzweifelten.

In Asheville war eine neue Einführung entstanden mit starker Betonung auf die CO2+Sulphate-Muster-Studien, dazu war ein neues Gesamturteil zur Verursachung gekommen:

Insgesamt deuten die Ergebnisse auf einen menschlichen Einfluss auf das Klima hin.

Und das spiegelte sich so als Gesamturteil im Entwurf der ‘Summary for Policymakers’:

Insgesamt deuten die Ergebnisse auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin.

Doch dieses Urteil stach abrupt hervor, und es stand auf den wackligen Beinen von nur zwei kurze Sätzen mit Verweisen auf neue Studien über Verteilungsmuster. (Wegen der schwachen Beweislage also, sollte die ad hoc D&A-Arbeitsgruppe in Madrid die Begründung vertiefen und verstärken).
In Asheville hatte es zur Frage der menschlichen Verursachung eine heiße Debatte gegeben, die Aufrechterhaltung der Behauptung blieb heikel, vor allem angesichts der schlüssigen Kritik an einer derartigen Schlussfolgerung, die bereits aus dem Barnett et al. Papier eingearbeitet worden war.

Aus den intensiven Debatten in Asheville über die Verursachung wurden bisher nur wenige Details bekannt. Ein Hinweis, wie es dort zugegangen ist, kam mit dem Ausbruch der [späteren] Kontroverse im folgenden Frühling. Als Antwort auf den Vorwurf, dass er die gesamte ‚Concluding Summary’ herausgeschnitten hätte, erinnerte Santer seine Mitautoren:

…Ich habe in Sigtuna, Brighton und Asheville hart gekämpft, um Abschnitte über Signale und Rausch-Ungewissheiten in das Kapitel 8 einzufügen (3. Juni und nochmals am 12. Juni; Hervorhebung von Santer)

Die Global Climate Coalition bezeichnete das als nicht zu überbietende Ironie. Auf diese Kritik und als Antwort auf eine in Santers Augen persönliche Attacke auf ihn von Fred Seitz [im Wallstreet Journal], der ihn als den verantwortlichen Autor nennt, hatte Santer den Ball aufgenommen und betont, dass er es ja gewesen wäre, der um die Aufnahme der Signal- und Rausch-Ungewissheiten in das Kapitel 8 gekämpft hätte. Santer:

„Im Endeffekt werde ich als Wissenschaftler herausgepickt und aufs Korn genommen”.

Das ist eine schlüssige Beweisführung, weil Santer in beiden Fällen den Vorwurf der Ironie auf die bei den drei Treffen der Kapitelautoren teilnehmenden Wissenschaftler umlenkt, die es ja besser wissen müssten, wenn es nicht so gewesen wäre.

Zieht man den nordamerikanischen Sinn des Wortes ‚Ironie‘ heran, so scheint Santer zu behaupten, ihn verantwortlich zu machen, widerspräche den Fakten, sei irreführend und unfair. Unfair sei, es ihn ausbaden zu lassen, wo er es doch gewesen wäre, der immer wieder die Beibehaltung der außerordentlich ausführlichen Ausarbeitungen der Ungewissheiten in den Abschnitten 8.2 und 8.3 verteidigt hätte – Ausarbeitungen, die die skeptische Schlussfolgerung zeigten und rechtfertigten. Eine frühzeitige Entfernung dieser Abschnitte (vor allem vor Asheville) hätte es sehr erleichtert, die vielen verschiedenen skeptischen Urteile bei der nachfolgenden Darstellung der Beweise zu entfernen, und die skeptische Schlussfolgerung im Ganzen. Dass sie beibehalten worden wäre, worauf Santer bestand, hätte nach dem vollen Erfolg des Drucks in Madrid doch bedeutet, dass er [Santer] hinterher mit der mühevollen Aufgabe belastet gewesen wäre, alle Ungewissheiten als Vorbehalte gegen die positive Schlussfolgerung umzuschreiben und die skeptische Zusammenfassung zu ersetzen. Und seine Belohnung für all das? Er würde ‚herausgepickt‘.

Vielleicht lag es mit an Santers Widerstand, dass die Version des Kapitels, die an die Delegationen wie gefordert sechs Wochen vor Madrid (9. Oktober 1995) verteilt worden war, inkonsistent mit seiner eigenen Einführung und mit der ‚Summary for Policymakers’ in diesem äußerst strittigen Punkt war. Obwohl die Kapitel zu diesem Zeitpunkt in der Endfassung hätten vorliegen sollen, wurde die Inkonsistenz in den Kommentaren der US-Regierung angemerkt, die ‚Summary’ aber für richtig und schlüssig erklärt. Daher forderten die USA (und deren Verbündete) diese Inkonsistenz in Madrid aufzulösen.

Die Saudis (und deren Verbündete) aber wollten das Ganze auf den ursprünglichen Skeptizismus zurückdrehen. Die Saudis wollten die schwache und unklare Formulierung ‚deutet auf … hin‘ in der neuen Einführung belassen, und die ‚Concluding Summary’ würde in die ‚Summary for Policymakers’ eingehen, die jetzt abzustimmen war.

Die USA dagegen wollten inhaltliche Änderungen an vielen Stellen und in jedem Abschnitt des Kapitels. Am Schwierigsten würde es werden, den Skeptizismus zu beseitigen, der sich wie ein roter Faden durch die gesamten Schlussfolgerungen zog.

Keine Allianz zur Verteidigung der letzten Bastion der Wissenschaftlichkeit

Und damit sind wir wieder beim letzten Vormittag in Madrid, an dem Santer den neuen, stärkeren D&A-Entwurf präsentierte, als Al-Sabban aufstand und vorschlug, zur [ursprünglichen] Schlussfolgerung des Kapitels zurückzukehren, worauf Santer aus der Haut gefahren war.

Al-Sabban war persönlich zur Gruppe bei der Überarbeitung des Entwurfes eingeladen gewesen. Warum hat er nicht teilgenommen hätte, wenn dies für ihn so wichtig wäre? fragte Santer. Nach einem weiteren erbitterten Wortgefecht bat Al-Sabban um eine Entscheidung des Vorsitzenden.

Houghton stellte sich fest hinter den Leitautor des Kapitels und gab sein Einverständnis, dass dieses supranationale Plenum die Kompetenz hätte, den Beurteilungs- und Begutachtungsprozess zu übersteuern, wenn die Leitautoren zustimmten. Unter den außergewöhnlichen Umständen neuer Beweise müssten die Schlussfolgerungen der ‘Summary for Policymakers’ nicht mehr von den unterliegenden Kapiteln abgeleitet werden. Der ebenfalls anwesende damalige IPCC-Vorsitzende Bert Bolin [auch IPCC-Gründungsmitglied] segnete Houghtons Vorgehen ab. Al-Sabban formulierte dann einen Protest: Grundregeln die zuvor gegen seine Vorschläge angewandt worden wären, schienen nun geändert worden zu sein.

Nun bewegten sich die amerikanische, die englische und die kanadische Delegation sehr rasch und machten klar, dass sie weder die alten Schlussfolgerungen des Kapitels 8 akzeptieren würden, noch wollten sie auf den Text der von den Wissenschaftlern in Ashville vorbereiteten ‚Summary‘ zurückfallen. Tatsächlich hatten die Amerikaner, Engländer und Kanadier in der Arbeitsgruppe eine noch stärkere Position bezogen, als im nun abgestimmten Endkompromiß. Als dieser Kompromiß erneut gefährdert war, drängten sie in der Plenarsitzung auf einen noch deutlicheren Text.

Jeder Teilnehmer wußte genau, dass viel auf dem Spiel stand, und daher ging der Kampf an diesem letzten Morgen erst richtig los. Die Kanadier meinten, die neuen Beweise vom „Fingerabdruck“ wären einfach „überwältigend“. Der kenianische Delegierte, zuvor auf der Seite von Al-Sabban, beteiligte sich an der Diskussion und wurde auf die andere Seite gezogen. Der Druck kippte das gesamte Auditorium. Der scheinbar einzig verbliebene Widerständler war der mit entnervender Höflichkeit auf einen Konsens drängende Dr. Mohammed Al-Sabban.

Ungeachtet dessen, was Sie vielleicht gehört haben, war er nicht der Einzige. Nur Wenigen ist bekannt, dass es noch einen anderen Delegierten gab, der sich wehrte. Es war der Leiter der australischen Delegation, John Zillman.

Rolle des australischen Delegationsleiters John Zillman

Zillman, Leiter des Australischen Wetterdienstes seit 1978, war zusammen mit Bolin und Houghton bei den internationalen Verhandlungen von Anfang an dabei. Er war dabei, als die Vorstellung vom politisch-wissenschaftlichen Beinflussungsapparat erfunden wurde. Er bemerkte den sich entwickelnden Alarmismus seit der Konferenz in Villach (1985), der auch von Hansen (1988) und in großem Ausmaß in den späten 1980er Jahren verbreitet wurde.
Er machte sich immer mehr wegen der Integrität der Wissenschaft Sorgen und wegen der Bereitschaft von Regierungen (besonders der USA), denjenigen Wissenschaftlern zu vertrauen, die mit extremen Meinungen unangemessene Aufmerksamkeit fanden.
Er wünschte sich eine regierungsamtliche nüchterne wissenschaftlich fundierte Einschätzung, und er glaubte, dass dies im IPCC-Verfahren gesichert wäre.

An diesem letzten Tag in Madrid allerdings muss man fragen, ob Zillmann der einzige Klimawissenschaftler im Auditorium war, der das sich abzeichnende Gespenst eines Faustischen Pakts wahrnahm?  Houghtons Entscheidung bedeutete, dass die Integrität des wissenschaftlichen Verfahrens aufgegeben würde und nur noch dazu benutzt würde, mit schwer erkämpfter Glaubwürdigkeit politische Ziele durchzusetzen – wie ehrenhaft solche Ziele auch sein mochten. Wenn es Andere gegeben hat, die darüber alarmiert waren, wie die Einwände der Saudis behandelt wurden, dann haben sie geschwiegen, keine weitere Stimme erhob sich.

Am Ende war Australien im Zustimmungsverfahren mit der Überarbeitung einverstanden, aber erst nachdem zwei Einwände protokolliert worden waren. Im ersten ging es darum, wie die Integrität im wissenschaftlich-politischen Verfahren zu wahren wäre:

Wir sind über die Entscheidung des Vorsitzenden überrascht wie auch von Dr. Santers Vorschlag, dass das betreffende Kapitel nicht als beste Quelle für die gegenwärtige wissenschaftliche Erkenntnis dienen soll.

Australiens Einspruch unterstützte nicht nur das IPCC-Verfahren, es unterstützte auch die wissenschaftliche Urteilsfähigkeit des IPCC: Australien bezog eine Position zur Unterstützung einer wissenschaftlichen Erkenntnis, die durch eine Regelverletzung gekippt werden sollte.

Australiens Verteidigung der wissenschaftlichen Urteilsfähigkeit des IPCC war in der D&A Arbeitsgruppe bekannt. Denn dort saß ein australischer Delegierter (Als Zillman 2012 befragt wurde, konnte er sich nicht erinnern, dies selbst gewesen zu sein, aber der Bericht der Delegation bestätigt es). Gegen den Druck seiner englischsprachigen Verbündeten, drückte Australien seine Bedenken aus, dass …

…die Erwärmung dieses Jahrhunderts immer noch etwa von gleicher Größenordnung ist (in anderen Abschnitten des Berichts wird sie auch möglicherweise geringer genannt) wie die natürliche Variabilität, die sich in den Beobachtungen der vergangenen 600 Jahre zeigt.

Das heißt, Australien blieb bei seinen Bedenken wegen der Aussage, wir hätten den Maßstab der natürlichen Variabilität verlassen, trotz aller jüngster Belege mit “Fingerabdrücken”, die gerade in Madrid vorgestellt wurden.
Und da sind wir wieder bei all den gleichen Bedenken, die immer wieder in der langen Geschichte der Zweifel an der anthropogenen Verursachung geäußert worden sind, zurück bis zu Wigley im ersten IPCC-Zustandsbericht, sogar zurück bis 1938, als Callendar zum ersten Mal die Möglichkeit einer menschliche Verursachung der wissenschaftlichen Aufmerksamkeit empfahl. Entgegen dem unveröffentlichten Papier von Barnett et al. mit der Aussage, dass wir noch nicht wüßten, was die natürliche Variabilität sei, sagte Australien in Madrid, dass überall da, wo natürliche Variabilität bekannt geworden wäre, die neuen Belege nicht zeigten, dass wir darüber hinaus wären.

Australien Unterstützung für die Wissenschaftlichkeit im IPCC-Zustandsbericht wurde in zweites Mal deutlich, nachdem Santer den neuen D&A-Entwurf präsentiert hatte, nach Al-Sabbens Widerspruch, und nachdem sich der Vorsitzende und die anderen anglophonen Delegationen hinter Santer gestellt hatten. Und so kann man fragen, warum Australien einen Protest in der Plenarsitzung einbrachte, wo man doch meinte, die Mitgliedern der Arbeitsgruppe stünden einstimmig hinter dem Entwurf.
Der Bericht der australischen Delegation erklärt, dass es am Ende der Schlusssitzung zu einer Übereinstimmung kam, dass Santer den neuen Entwurf wirklich schreiben sollte und darin die Zweifel an der Behauptung von der menschlichen Verursachung Eingang finden sollten.

Am folgenden Morgen aber, als Zillman den im Plenum herumgezeigten Entwurf las, waren die Zweifel derart in einer Ungewissheitsaussage verpackt, dass die Behauptung von der menschlichen Verursachung aufrechterhalten werden konnte.

Santer erklärte bei der Vorstellung des Textes im Plenum, dass er versucht hätte, auf Australiens Einwände einzugehen – aber das war kaum feststellbar. Zillman meinte, man hätte Australiens Bedenken “übergangen” (avoided), und er sagte das auch. In der folgenden Diskussion benutzte Santer selbst den Ausdruck „weggeschoben“ (sidestepped).
[siehe hierzu Nachtrag A am Schluss]

Dies, lieber Leser, beachten Sie bitte: dieses kleine “Wegschieben" der Null-Hypothese von der natürlichen Variabilität war die kleine Ursache mit großer Wirkung, es war wie ein Schneeball, der vom Fujiyama als Gipfel der höchsten wissenschaftlichen Glaubwürdigkeit geworfen, immer schneller und größer werdend als Lawine in Kyoto ankam.

Australische Opposition gegen die USA ist auf der Weltbühne unbekannt. Dennoch veranstaltete Zillman hier so etwas. Er würde das niemals so sehen, andere aber sehr wohl. Und in der Tat, während die Global Climate Coalition schwer arbeitete, um die Saudis zu unterstützen, fand auch Greenpeace Mittel zur Überzeugung. Als man sah, dass Zillman sich entgegen dem Bemühen der „guten“ nordamerikanischen Alliierten Australiens auf die Seite der Araber schlug, fragte einer der Greenpeace-Delegierten Zillman öffentlich:

Was meinen Sie, wird der australische Umwelminister denken, wenn er davon hört?

In Madrid, und noch mehr zwei Wochen später in Rom wurde die Lobby-Tätigkeit der NGO’en auf nie dagewesene und außergewöhnliche Art derart verstärkt, dass man eher an eine Straßen-Demonstration erinnert wurde als an eine Konferenz. Es gab Veröffentlichungen, Flugblätter, Plakate. Und da waren feine und weniger feine Techniken: so z. B. die Umzingelung eines abreisenden Delegierten unter dem Sprechchor: „Klimaverbrecher!“. Zillman sah schockiert und enttäuscht, wie diese Konferenz in ein chaotisches Spektakel degenerierte. Er schüttelt immer noch den Kopf darüber. Wenn man ihn aber mit den Worten konfrontiert: „So geht es doch in der Politik zu, oder?“, wird es interessant.

Man könnte erwarten, dass Zillman in seiner Rolle als Leiter der australischen Regierungsdelegation – nicht als Wissenschaftler, nicht als Leitautor, sondern als Regierungsvertreter – die Position der australischen Regierung hätte vertreten müssen. Vielleicht haben andere das so gesehen. Zillman aber hält daran fest, dass dies niemals seine Aufgabe gewesen wäre. Und er hätte das auch nie akzeptiert. Vielleicht wäre es die Aufgabe des australischen Treibhausgas-Büros gewesen, einer Dienststelle des Umweltministeriums, nach eigener Beschreibung ‘die führende australische Regierungsbehörde in Treibhausgasfragen’. Das Treibhausgas-Büro hielt sich überhaupt nicht zurück und wollte Zillman zu einem eifrigen Verfechter der Treibhausgas-Position machen. Zillman wehrte ab, weil er immer im Vertrauen auf seinen Minister glaubte, dass die Aufgabe der australischen Delegation darin bestanden hätte, sicherzustellen, dass die IPCC-Zustandsberichte sich auf wahre wissenschaftliche Erkenntnis stützten.

Er hielt seinem Minister die Stange, indem er ihn vollständig über den Stand der Wissenschaft und der Verhandlungen informierte – so setzte er sich erschöpft am Ende jener letzten Nacht im Hotel hin und verfasste einen vorläufigen Bericht, den er in den australischen Nachmittag faxte, bevor er sich schlafen legte. Nur um sicher zu gehen, dass der Minister eine genaue Darstellung des Dramas hätte, für den Fall, dass die Presse ihn hetzen würde etwas zu den skandalisierenden Gerüchten zu sagen, über die dann in den Abendnachrichten berichtet werden würde.

Lizenz der amerikanischen Regierung zum Ändern des Berichts

Dass Santer und Houghton ihre Rolle anders sahen als Zillman, wird am besten durch Bemerkungen illustriert, als der Skandal wegen der amerikanischen Regierungsforderung [zur nachträglichen Änderung des Berichts] ausbrach. Am 15. November hatte Houghton die zusammengestellten Kommentare zur “Summary for Policymakers – (SPM)“ vom US-Außenministerium von Tim Wirth erhalten. In den Kommentaren zum D&A-Abschnitt der ‚Executive Summary’ (darin auch die nur schwach belegten Behauptungen von Hinweisen auf einen erkennbaren menschlichen Einfluss) schreibt Robert Watson:

Dieser Text ist nicht völlig konsistent mit dem übrigen SPM und vielen Teilen des Kapitels 8; weil dies ein völlig neuer und wichtiger Aspekt des Berichts ist, halten wir besondere Sorgfalt für nötig. Wir meinen, dass der vorliegende Text mit einigen Klarstellungen das gegenwärtige Verständnis wiedergibt, wie es das Kapitel enthält, aber dass die „Executive Summary“ und die Schlussabschnitte des Kapitels revidiert werden sollten. [fett von B.L. zugefügt]

Die Forderung zur Überarbeitung des Kapitels wird im Anschreiben betont, das direkt an Houghton gerichtet war. Nach dem Hinweis auf viele Inkonsistenzen zwischen der “Summary” und den Inhalten der Kapitel ist zu lesen, dass ‘es wichtig ist, die Kapitel nicht vor dem Abschluss der Madrider Konferenz abzuschließen’. Das US-Außenministerium verlangt, “dass die Autoren der Kapitel zu überreden seien, ihre Texte entsprechend und im Einklang mit den Diskussionen in Madrid zu modifizieren.” Wenn auch nicht ausdrücklich gesagt, so ist das ein deutlicher Hinweis an Houghton, Santer anzuweisen, das Kapitel 8 zu revidieren, besonders die Schlusszusammenfassung. So jedenfalls scheint es Houghtons Verständnis gewesen zu sein.

Um einem Missverständnis vorzubeugen: es geht hier nicht um eine Regierung, die beim Mißbrauch eines diplomatischen Verfahrens erwischt wurde. Das haben wir alles schon gehabt und es ist weder überraschend noch etwas Besonderes. Was bezeichnend für Santer und Houghton ist, dass sie diese Forderung als Hauptfaktor anführen in ihrer Rechtfertigung für die nach Madrid durchgeführten Änderungen des Kapitel 8. [1] Auf dem Gipfel der Kontroverse, im August 1996, benutzte Houghton in einem Brief an Nature mit dem treffenden Titel ‘Rechtfertigung für Kapitel 8’ die ‘Überredung’ der Kapitel-Autoren, um seine Taten zu rechtfertigen.
Auch Santer wird erwähnt, der sich in einem früheren Artikel in Nature darauf berief. Die erste Erwähnung der Forderung findet sich bereits in einer weitverbreiteten Email, gerichtet an ‘alle Leitautoren des IPCC-Zustandsberichts und alle Mitarbeiter am Kapitel 8’. Diese Email war am gleichen Tag abgeschickt worden, an dem die Kontroverse durch einem Brief von Fred Seitz an das Wall Street Journal an die Öffentlichkeit gebracht worden war.

Santer zufolge bestand die Forderung darin:

‘dass die Kapitelautoren überredet werden sollten, ihre Texte zu modifizieren’,
und dass die “Forderung auf Änderung betont werden sollte.”
Er fuhr fort:
Die offizielle Sicht der Vereinigten Staaten war ganz klar, dass die Kapitel nicht vor Madrid abgeschlossen werden sollten. [email 12 June 1996]

Was fangen wir nun mit all dem an?

Warum machen wir Aufhebens wegen eines politischen Drucks zur Veränderung einer vorgeblich wissenschaftlichen Beurteilung? Und wenn wir uns gegen politische Einflußnahmen wehren, warum benutzen wir dabei eine politische Quelle?

Houghton wie Santer benutzte das Argument von der [politischen] Forderung in ihrer Verteidigung gegen die Behauptungen der Skeptiker:
Dass es in Madrid nicht um die Kapitel selbst gegangen wäre, sondern nur um deren wahrheitsgemäße und genaue Zusammenfassung.

Und weiter in ihrer Abwehr der Zweifler, gegen deren Forderungen,
dass Redaktionsschluss für Kommentare zu den Kapiteln ganz klar zu Anfang des Monats Juli gewesen wäre, d. h. vor der Schlusskonferenz der Leitautoren in Asheville,
und dass Politiker nicht Antreiber der Wissenschaft sein dürften.

Und wir sollten uns erinnern, dass diese Verteidigungsline nicht von irgendwelchen Delegierten sondern vom Koordinierenden Leitautor des Kapitels stammt, und weiter von dem Wissenschaftler, der die gesamte wissenschaftliche Beurteilung koordinierte.

Beim Versuch, zu verstehen, warum die offizielle Sicht der USA bei Santers Verteidigung Bedeutung hat, können einige politische Realitäten nicht vernachlässigt werden, wie z. B. die US-Beherrschung der globalen Politik, die Unterstützung der neuen Clinton-Regierung für einen Klimaschutzvertrag und die vitale Rolle, die die USA bei den Vertragsverhandlungen spielte. Kaum zu übersehen ist auch die Tatsache, dass Santer Angestellter der US-Regierung war, und dass viele andere Leitautoren und Beitragende Autoren von den reichlich fließenden Mitteln in die Klimaforschung abhängig waren, die aus den Budgets der USA und den mit ihnen verbundenen Ländern stammten (UK, Kanada), die auf eine positive und konstistente Bestätigung der [anthropogenen] Verursachung aus waren.

Ob eine solche Sicht von den USA im Auditorium in Madrid ausgesprochen wurde oder nicht (wir müssen erst noch eine schriftliche Bestätigung finden): nur unter Einbezug dieser Überlegungen können wir verstehen, warum das [Politische] in Santers Verteidigung eine Rolle spielte, besonders da Saudi Arabien und Australien deutlich andere Ansichten zu Gehör gebracht hatten.

Und wurde diese Rechtfertigung niedergeschrieen? Gab es auch nur einen Vorschlag, dass wir uns auf die Ebene des Feindes hinab begeben hätten? Nicht wahrscheinlich. Unwahrscheinlich auch, dass auch nur irgend einer den hohlen Klang in der spitzen ad hominem-Attacke bemerkt hätte, die darauf abzielte, jeglicher Berechtigung für Proteste den Boden zu entziehen. Keine Stimme im wissenschaftlichen Establishment erhob sich, nicht in der Global Climate Coalition, auch nicht im Buch: Merchants of Doubt, und nicht einmal vom Regierungsdelegierten Zillman.

Stattdessen erhoben sich Stimmen zur Unterstützung dieser Verteidigung, und daher wurden Santers und Houghtons Taten am letzten Tag von Madrid von der wissenschaftlichen Gemeinde gerechtfertigt als ausdrücklich veranlaßt von (guten) politischen Interessen.

Ein chaotischer Sieg des Guten

Noch war es nicht vorbei. Trotz des Protestes der Australier und der Saudis sollte der neue Entwurf des D&A-Abschnittes diskutiert werden, Zeile für Zeile, Wort für Wort, und diese Debatte erstreckte sich über den ganzen Nachmittag bis in den Abend hinein. Wieder war es der Beitrag aus den neuen Fingerabdruck-Studien zur Behauptung der Verursachung, gegen den am meisten opponiert wurde.

Der neu zu besprechende Entwurf des D&A-Abschnitts zählte drei Schlüsselgebiete auf, wo jüngste Forschungsergebnisse zur Verursachung beitrugen.

Das erste Schlüsselgebiet war, dass Stellvertreter-Daten nahe legten, dass das 20. Jh. das wärmste von den vergangenen sechs gewesen wäre.

Das zweite war der Nachweis über die statistische Signifikanz des Erwärmungstrends der globalen Durchschnittstemperatur, der darauf hinweist, dass er nur natürliche Ursachen hätte. Dieser Nachweis ist bekanntermaßen schwach und wird für ungeeignet gehalten, um die Behauptung eines positiven menschlichen Beitrags zu begründen. Und als ob dies noch betont werden müsste, wurde

das dritte und finale Gebiet, das Gebiet der CO2+ Sulfat Fingerabdruck–Studien eingeleitet mit den Worten von einem „stärker überzeugenden Nachweis“: Es liest sich so:
Ein stärker überzeugender Nachweis für die Zuschreibung eines menschlichen Effektes auf das Klima kommt von den pattern-basierten Studien…

Die Studien zeigten “eine Zunahme der Muster-Übereinstimmungen über der Zeit,” wie bei zunehmenden Emissionen zu erwarten ist, wobei die ‘Wahrscheinlichkeit sehr gering ist, dass diese Übereinstimmungen zufällig zustande kämen als Ergebnis einer natürlichen Variabilität.’

Wie schon dargelegt, läßt der Ausschluss des ‘Zufalls’ oder ‘gelegentlich vorkommender’ Variabilität implizit die Möglichkeit offen für die Jahrhunderte alten Standard-Kandidaten für einen natürlichen externen Antrieb.

Vielleicht ging es darum, Bedenken wegen des natürlichen Antriebs zu zerstreuen, wenn der folgende Satz einen merkwürdigen Bezug zu den ‘vertikalen’ Muster-Studien herstellt als ‘inkonsistent mit den möglichen Effekten bekannter solarer und vulkanischer Antriebe.’[2] Das ist merkwürdig, weil der Ausschluss derartiger natürlicher externer Antriebe keine besondere Behauptung in keiner dieser Studien war, noch wird eine solche Schlussfolgerung im Kapitel selbst gezogen. Stattdessen erwähnt das Kapitel nur, dass ’erste anfängliche’ Studien erschienen wären, die ‘verschiedene nicht-anthropoge Antriebsmechanismen auszuschließen versuchten. ’ (p416)

Wie dem auch sei, der Wahrheit halber muss gesagt werden, dass das Hauptproblem mit dem Kapitel ist, dass es diese Nachweise nicht als  ‘stärker  überzeugend’ sondern als ‘vorläufig’ benennt:

Obschon diese Studien große Vorbehalte enthalten, enthalten sie vorläufige Belege für das Bestehen eines anthropogenen Effektes auf das Klima’. [SAR Draft, 9Oct95, 8.4]

Schließlich, nach Madrid, um den Widerspruch zwischen dem Kapitelinhalt und der Zusammenfassung abzumildern, änderte Santer das Kapitel von ‘vorläufig’ auf ‘anfänglich’ (p416b). Aber es ist interessant, anzumerken, dass der Dritte Zustandsbericht (TAR) bei der Besprechung der Ergebnisse des Zweiten Auswertungsberichts (Second Assessment Report) feststellte, dass die “Muster-Studien (pattern studies) noch in frühem Zustand seien. (‘still in their infancy’ [TAR 701]) Das ist interessant im Zusammenhang mit dem Barnett et al.  Papier, mit der zusammenfassenden Beurteilung und mit den australischen Bedenken.

Unter Betrachtung all dessen ist es schwer, nicht davon überzeugt zu sein, dass auf die Position von Saudi Arabien und Kuwait hätte eingegangen werden müssen – besonders dass die ‚Summary‘ den Aussagen im Kapitel hätte folgen sollen mit der Aussage, dass die Anzeichen als „vorläufig“ zu betrachten seien. Natürlich wäre es schwieriger gewesen, die Behauptung von der [anthropogenen] Verursachung aufzustellen, wenn das Wörtchen “überzeugend” entfallen wäre. Deshalb geriet die Konferenz erneut in eine Blockade.

Houghton:

Eine anderthalbe Stunde lang debattierte die Versammlung über die Angemessenheit von “vorläufig” anstelle von “überzeugend”. Alle Delegierten, die sprachen, argumentierten, dass die Anzeichen im Kapitel 8 die Bezeichnung „vorläufig“ nicht rechtfertigten und schließlich wurde ein Satz formuliert, der so begann: “Überzeugendere jüngste Anzeichen …”

Tatsächlich wurde die Blockade aufgelöst mit der Vereinbarung einer außergewöhnlichen Maßnahme, die anzeigen sollte, dass es keinen Konsens gab, dies aber nicht ohne einen bitteren Nachgeschmack und einen „scharfen Wortwechsel“.
Man beschloss die Einfügung einer Fußnote, die die abweichende arabische Meinung erläutern sollte.[3]

Danach konnte die Diskussion fortgesetzt werden und man befasste sich mit der schlussendlichen Behauptung unter dem Strich von der Verursachung:

Trotzdem weist die Abwägung aller Anzeichen nun darauf hin, dass das Weltklimasystem durch menschliche Tätigkeiten beeinflusst wird. [4]

Dieselbe Behauptung wurde eingedampft im beabsichtigten Titel des D&A-Abschnitts:

Die Abwägung der Anzeichen deutet auf menschlichen Einfluss

Jetzt war der Abend des letzten Tages gekommen. So wie es mit dem Abstimmungsverfahren weiterging, verschob sich der geplante Schlusstermin der Versammlung schrecklicherweise immer weiter von 18 Uhr nach hinten. Vieles aus der ‚Executive Summary’ musste noch abgestimmt werden, bevor der Haupttext der ‚Summary for Policymakers’ diskutiert werden konnte. Darüber hinaus musste an diesem Abend auch noch der zugrundeliegende Bericht von der Konferenz abgesegnet werden.

Inzwischen verließen die ersten Delegierten die Konferenz, um ihre Heimflüge zu erreichen, während sich der Kampf über den D&A-Abschnitt immer mehr hinzog. Deswegen kamen Forderungen, die Konferenz zu schließen: Mehrmals gerieten die Saudis an einen Punkt, wo die Konferenz platzen konnte wegen dem Nichtzustandekommen einer Mehrheitsmeinung [ausDelpRpt11]. Da das gemeinsame Treffen mit dem IPCC in Rom nach nur zwei Wochen stattfinden sollte, gab es keine realistische Möglichkeit, eine Plenarsitzung der Working Group 1 erneut einzuberufen. Der Kampf um die anthropogene Verursachung brachte die Konferenz an den Rand des kompletten Scheiterns und damit wäre eine Zustimmung zur ‚Summary for Policymakers’ auf den Sankt Nimmerleinstag verschoben worden. Und immer noch kam das allein wichtige Gesamturteil von der Verursachung nicht über die Ziellinie. Der AustDelReport beschreibt, wie es zuging:

Die meisten Delegationen unterstützten die Annahme des vorgeschlagenen Textes mit dem Wunsch auf eine noch stärkere Aussage (insbesondere die USA, UK und Kanada. Dr. Watson [Leiter der US Delegation] wollte eine Aussage des Inhalts, dass das ‘Überwiegen’ oder ‘Gewicht’ (anstelle von ‚Abwägung’) der Beweise ‘anzeige’ (anstelle von ‘legt nahe’ oder ‘verweist auf’), dass es einen menschlichen Einfluss auf das Weltklima gäbe. Dr. Stone von Kanada meinte, dass die Beweise ‘überwältigend’ wären. Eine andere von Saudi Arabien angeführte Gruppe (mit informeller Unterstützung von amerikanischen Industrie-NGO’en) versuchte die Aussage abzuschwächen und die Ungewissheiten stärker zu betonen, die bei der Zuschreibung auf den Menschen bei den beobachteten Veränderungen obwalteten.

Schließlich wurde Übereinstimmung für folgenden Text erzielt:

 “(Nichtsdestoweniger) legt die Abwägung der Beweise (nun) nahe, dass ein wahrnehmbarer  
   menschlicher Einfluss auf das Klima existiert.”

Mit dieser schwachen Verursachungs-Behauptung in trockenen Tüchern konnte sich die Konferenz nun mit dem folgenden Abschnitt der ‚Executive Summary’ befassen. Die Lage blieb prekär, denn die Gefahr des Scheiterns bei der Abstimmung der vollständigen Überarbeitung und Annahme der ‚Summary’ bestand weiter. Jetzt war es 21 Uhr, die Anwesenheit dünnte aus, der Großteil der ‚Summary for Policymakers’ noch nicht durchgesprochen. Es entstand eine Pause mit einer Diskussion, wie es weitergehen sollte. Die Lage schien hoffnungslos, bis es einen Durchbruch gab:

Man beschloss, die ‚Executive Summary’ als ‚Summary for Policymakers’ umzudeklarieren und nannte die übrige Summary nun eine ‘Technical Summary’. Als ‘Technical Summary’ würde ihr Text nur noch der Annahme durch das Plenum bedürfen (wie bei den Kapiteln) und keiner Zeile-für-Zeile-Durchsprache. Dafür war keine Zeit mehr.

Dieses Vorgehen wurde akzeptiert und die Konferenz schritt voran mit der Annahme des übrigen Textes der ‚Executive Summary’. Das ging jetzt in einem Schritt und mit nur wenig oder gar keiner Diskussion. Die Frage der Verursachung hatte die gesamte Konferenz über die Maßen beherrscht, aber sie wollte und wollte nicht verschwinden. Es gab Geraune im Auditorium und eine neue Krise entstand. Es stellt sich heraus, dass die endgültige Behauptung von der [anthropogenen] Verursachung doch noch nicht in trockenen Tüchern war.

Beide Seiten der Debattierer waren unzufrieden. Der australische Bericht fährt fort:

Unglücklicherweise hat der Vorsitzende beim Herstellen des Konsenses die in Klammern gesetzten Worte nicht laut vorgelesen (was als gegeben aus dem früheren Text anzusehen war) und einige Delegationen machten bald klar, dass der vom Vorsitzenden für abgestimmt erklärte Text nicht der war, dem sie zugestimmt hätten. Die Unzufriedenheit verstärkte sich auch wegen des Begriffes ‘erkennbar’ (appreciable), der von einem der Leitautoren vorgeschlagen worden war (Trenberth) und von der US-Delegation stark unterstützt wurde.

Augenscheinlich waren die ‘Bullen’ mit der Einbringung der in Klammern gesetzten Worte unzufrieden, und den ‘Bären’ war ‘erkennbar’ zu stark. Bert Bolin [IPCC-Vorsitzender] ging auf der Suche nach einer Lösung im Saal herum und besprach sich mit verschiedenen Delegationen. Schließlich unterbrach er um 22:30 Uhr die Sitzung und ‘übernahm die Versammlungsleitung’ indem er erklärte …

… er hätte entschieden, den abgestimmten Text als außergewöhnliche Maßnahme zu überschreiben wegen der äußersten Wichtigkeit der Formulierung zum Zwecke der Interpretation der IPCC-Erkenntnisse. Er sagte, er wünsche ausdrücklich eine Diskussion darüber, aber er meine, die Versammlung würde folgende Aussage unter dem Strich zum Thema „Aufdeckung und Verursachung“ (D&A) akzeptieren:

‘Nichtsdestoweniger verweist die Abwägung der Beweise auf einen abgrenzbaren menschlichen Einfluss auf das globale Klima.’

[Anm. d. Ü: Im Originaltext SAR, Chapter 8, Summary for Policymakers, p. 5: Nevertheless, the balance of evidence suggests that there is a discernible human influence on global climate.

In der offiziellen deutschen Übersetzung: http://www.bmu.de/klimaschutz/internationale_klimapolitik/un-klimakonferenzen/doc/36721.php
"Die Abwägung der Erkenntnisse legt einen erkennbaren menschlichen Einfluss auf das globale Klima nahe".]

Dieser Sprachregelung widersprach niemand aus dem Plenum. Auf diese Weise ist diese bekannte Zeile entstanden. Für Zillman bedeutete es ein weiteres Zugeben des Scheiterns eines Konsenses. Er erinnert sich, dass er überrascht war und auch enttäuscht über die rüde Art, wie Bolin eine Angelegenheit von nicht unerheblicher Bedeutung für das gesamte Verfahren der Beurteilung handhabte.

Dann ging es rasch auf Mitternacht zu. Die Dolmetscher und das Konferenzzentrums-Management konnten die Konferenz nur noch bis zu diesem Zeitpunkt am Laufen halten. Das Gebäude musste kurz darauf verlassen werden. Jetzt war es nur noch wie bei einem Endspurt. Die ‘Executive Summary’-Zustimmung wurde eilig während der letzten Stunde draufgepackt, während die Delegationen schon einräumten und gingen. Es fehlte nur noch die Zustimmung zu den darunter liegenden Kapiteln. Das wäre nicht weiter schlimm gewesen, wenn es nicht die nun noch mehr hervorstechende Inkonsistenz zwischen dem Kapitel 8 und dem neuen D&A–Abschnitt der Summary gegeben hätte. Den verschiedenen Rechtfertigungen von Santer und Houghton zufolge akzeptierte die Konferenz nach ihrem Fast-Zusammenbruch tatsächlich, dass der Leitautor im Sinne der abgestimmten Position das Kapitel 8 revidieren sollte. Hier zum Beispiel ist, was Houghton in Nature im nachfolgenden August in einer ’Justification of Chapter 8’ sagte:

Das Plenum ‘akzeptierte’ schließlich die Entwürfe der Kapitel (einschließlich Kapitel 8), wie sie von den Leitautoren umzuschreiben wären, unter Berücksichtigung der von der Versammlung gegebenen Leitlinien und besonders hinsichtlich der Notwendigkeit einer Gesamtkonsistenz.

Wie explizit diese Akzeptanz, und wie speziell diese Leitlinien waren, kann kaum festgestellt werden. Dokumentation aus der Versammlung und alle Berichte von der Zeit vor dem Ausbruch der Kontroverse wären hilfreich, darauf warten wir noch. Jedenfalls war zu diesem Zeitpunkt die Versammlung allen Berichten zufolge zu einer Farce degeneriert, und vielleicht ist unerheblich, was gesagt oder verschwiegen wurde, was abgestimmt wurde und was nicht.

Der australische Delegationsbericht wurde vor der zwei Wochen später folgenden IPCC-Konferenz in Rom vervollständigt und stand zur Verfügung. (Zillman erinnert sich, dass er den Entwurf auf dem Rückflug anfertigte). Er gibt eine kurze Darstellung. Daraus ist zu entnehmen, dass trotz der nötigen Änderungen am Kapitel 8 sowohl die Ermächtigung dazu wie auch das Verfahren alles andere als klar waren:

In den Schlussminuten der Versammlung bat Sir John Houghton um eine formelle Akzeptanz des vollständigen Textes des zugrunde liegenden Berichts. Dem wurde zugestimmt, obgleich unklar war, welche [inhaltliche] Befugnis für die Revision der Kapitel den Leitautoren gegeben wurde.

In der Tat, wir haben früher gesehen, dass Santer und Houghton meinten, die Erlaubnis wäre bereits vom US-Außenministerium eingegangen gewesen. Änderungen waren gewünscht und wurden gemacht.

Im Jahre 2008, als die Kontroverse völlig verstummt war und zumeist vergessen, belebte Houghton das Thema Madrid 1995 wieder mit einer kurzen Erinnerungsnotiz in Nature. Bedauern ist nicht zu erkennen, stattdessen aber kein geringer Stolz über seine Rolle und seinen Erfolg auf einer Konferenz, die die Welt veränderte. Ohne diesen Erfolg hätte es kein Kyoto gegeben. Es wäre eine schwere Aufgabe gewesen, aber die Aufgabe wäre gut gelöst worden.

Vielleicht [zum Ende des langen Artikels] ein Epilog….

Über Santer, der schnurstracks ins Hauptquartier der Arbeitsgruppe I in England ging, um an den Änderungen zusammen mit Callendar zu arbeiten. Keine Mitarbeit von Houghton aber Billigung der Änderungen, bevor sie dem unsterstützenden Stab vorgelegt wurden. Rasches Herumschicken des neuen Entwurfs der ‚Summary’ an die Delegierten in Rom, damit sie an den Zusammenfassungen der Arbeitsgruppen 1,2,3 arbeiten könnten.
In Rom aber nur der alte Entwurf des Kapitels. Daher Überraschung im Mai, als die Vorab-Version erschien. 

Nachtrag:

(A) Hinsichtlich Zillmans Streitpunkt ist interessant, dass der Arbeitsgruppen-Entwurf während der Debatte im Plenum in diesem Punkt geändert wurde. Die Qualifizierung der Globaltemperatur im 20. Jh. als ‘höher als in jedem anderen Jahrhundert nach 1400’ wurde geändert in ‘mindestens so warm wie.’ Und nach Madrid änderte Santer tatsächlich die darauf bezogene Aussage in der Einführung des Kapitels. Doch das war eher ein Ausweichmanöver als eine Änderung.

Von:

‘Im Ganzen gesehen, zeigen diese Ergebnisse, dass die beobachtete globale Erwärmung während der vergangenen 100 Jahre höher ist als unsere derzeit besten Abschätzungen der natürlichen Klimavariabilität über die vergangenen 600 Jahre.’ [SAR 9Oct95 8.1]

In:

Im Ganzen gesehen, zeigen diese Ergebnisse, dass der beobachtete Trend in der globalen Durchschnittstemperatur während der vergangenen 100 Jahre unwahrscheinlicherweise nur natürlichen Ursprungs ist. [SAR p412b]

————————————

Fußnoten:

1. Santer: Zit. in ‘Sparks Fly Over Climate Report’ von Ehsan Masood, Nature, June 20, 1996; 381, 6584. Man beachte, dass die Formulierung ‘prevailed upon’ [überzeugen zu] weggelassen ist. Vgl. eine früher zirkulierte Email June 12 1996 und Real Climate. Houghton: ‘Justification of Kapitel 8’. Houghton correspondence to Nature Vol 382, 22 August 1996.

2. Man beachte, dass im Plenum einvernehmlich beschlossen worden war, das Attribut ‘possible’ [mögliche] aus der Formulierung possible effects [mögliche Effekte] zu entfernen.

3. Als diese Sache später in Rom zur Sprache gebracht wurde, forderten sie [Santer und Houghton ?], diese Fußnote wegzulassen.

4. Im Entwurf vom 9. Oktober stand: “Taken together, these results point towards a detectable human influence on global climate” [Zusammengenommen deuten diese Ergebnisse auf einen erkennbaren menschlichen Einfluss auf das globale Klima hin]. In den Kommentaren der US-Regierung (15 Nov, von Robert Watson) wird vorgeschlagen, diesen Satz zu ändern in: “Taken together these results indicate a detectable….” [Zusammengenommen zeigen diese Ergebnisse einen erkennbaren….]

——————————–

Die vier Aufsätze von Bernie Lewin werden hier zum Herunterladen angeboten. Zur Reihe gehören alle Titel, die mit Madrid 1995 … beginnen.

———————————

Übersetzung: Chris Frey und Helmut Jäger




Der anthropogene Treibhauseffekt – eine spektroskopische Geringfügigkeit

Update 25.9.12

Aufgrund der überaus aktiven Diskussion hat Dr. Hug seinen Artikel nochmals überarbeitet, evt. schlecht verständliches verständlicher dargestellt und evtl. fehlendes ergänzt. Sie finden den vollständigen aktualisierten Beitrag als pdf im Anhang

Zusammenfassung: Ganz offensichtlich wird die Wirkung des anthropogenen Treibhauseffekts weit überschätzt, denn insbesondere der CO2-Treibhauseffekt war bis auf unbedeutende, spektroskopisch begründbare Restbeträge („Peakflanken“) bereits zu Zeiten Goethes ausgereizt. Wegen des weitgehenden „Sättigungseffekts“  ist der anthropogene Anteil der Treibhausgase für die gegenwärtige Klimaänderung von untergeordneter Bedeutung. Vielmehr geht die Varianz der Erdoberflächentemperatur mit der Wolkenbedeckung einher, die wiederum von der Fluktuation des solaren Magnetfelds abhängt. Dabei hat eine größere Wolkenbedeckung des Globus in etwa die gleiche Auswirkung wie Vulkanasche nach einem Ausbruch. Der Einfluss der Wolkenbedeckung lässt sich mit den Klimamodellen des IPCC nur äußerst unzulänglich abbilden. Klimamodelle sind auch deshalb ein spektroskopisches Artefakt, weil sie mit gewillkürten Flusskorrekturen arbeiten müssen, deren Beträge den des anthropogenen Treibhauseffekts um ein Vielfaches übersteigen.

1. Was ist unter dem Begriff „Sättigung“ des Treibhauseffekts zu verstehen?

Klimaforschung ist eine in Politik gegossene Naturwissenschaft. Da beide Handlungsfelder nicht von einander zu trennen sind, gab es im Vorfeld von Rio92 in den unter Einfluss der Politik agierenden Medien ein flächendeckendes Meinungsbombardement über die kommende Klimakatastrophe.

Unter dem Eindruck der Medienhype versuchte man als Naturwissenschaftler in den neunziger Jahren etwas über die spektroskopischen Grundlagen des propagierten Klima-Harmagedons  in den allgemein gelesenen Periodika zu erfahren – und biss auf Granit. Weder in „Nature“ noch in „Science“ oder in „Scientific American“ (deutsch „Spektrum der Wissenschaft“) erschien ein informativer Artikel über den grundlegenden spektroskopischen Mechanismus des „Treibhauseffekts“ und dessen Grenzen (Emissionsspektren des Erdkörpers, Strahlungstransport, Anwendung des Planckschen-Strahlungsgesetzes auf die Besetzung von Schwingungsrotationsbanden bei CO2, Integration über dem Halbraum zur Berechnung des „Treibhauseffekts“ einer Stoffmengenportion von CO2, Festlegung und Definition der als normal geltenden Mitteltemperatur (288 K) im Rahmen einer Konferenz usw.). Auch Roger Revelle, der den späteren US-Vizepräsident Al Gore am College mit der Treibhausgastheorie bekannt machte, publizierte hierzu keine brauchbare Information [2].  Es war fast so, als hätte man Angst, die Karten aufzudecken.

Da man von den allgemein gelesenen Wissenschaftsjournalen im Stich gelassen wurde und die Propagandawalze in dem Medien unaufhörlich trommelte, möchte man als Chemiker erfahren, ab welchen CO2-Gehalt der Treibhauseffekt aus spektroskopischen Gründen unter realistischen Annahmen ausgereizt ist. Dies insbesondere, wenn man beruflich mit der Quantifizierung von Analyten mittels spektroskopischer Methoden befasst ist und weiß, dass es immer einen Konzentrationsbereich gibt, ab dem die Messstrahlung nahezu komplett absorbiert wird. Es verhält sich ähnlich wie beim Eintropfen von schwarzer Tinte in ein Wasserglas. Je mehr man zufügt, desto mehr des einfallenden Lichts wird absorbiert bis die Absorption schließlich vollständig ist (Transmission t = 0).

Ganz irreführend war ein Aufsatz von 1984 in der Mitgliederzeitschrift der Gesellschaft deutscher Chemiker, den so genannten „Blauen Blättern“ [5]. In dieser Veröffentlichung, auf die ich weiter unten zurückkomme, wird die „Rolle der treibhauswirksamen Spurengase“ mit Hilfe von Transmissionsspektren erläutert. Ein deutlicher Hinweis, dass es beim Treibeffekt um die atmosphärische spektrale Strahldichte (vereinfacht Emission) durch atmosphärische Spurengase  geht, wird nur unterschwellig beschrieben. Angeregt durch die Literaturstelle [5], unternahm ich Messungen zur Transmission (bzw. Absorption oder Extinktion) in einer Gasküvette, um festzustellen, inwieweit der Treibhauseffekt des CO2 „ausgereizt“ ist.

Wird durch Treibhausgase beispielsweise 35 % der vom Erdboden ausgehend Strahlung bei einer bestimmten Wellenlänge in einer bestimmten Höhe absorbiert, dann ist die Absorption (früher Aa = 0,35 (bzw. a = 35 %) Die Transmission (früher T) beträgt t  = 0,65  bzw. t  = 65 %.

Da die Absorption von IR-Strahlung („Wärmestrahlung“) quantitativ dem Bouguer-Lambert-Beer-Gesetz (eine e-Funktion) folgt, sollte es eine „fließende Grenze“ geben, ab der bei zunehmender Konzentration des Absorbers keine wesentliche Steigerung der Absorption a erfolgt bzw. die Transmission t gegen Null geht (Bild 1).

Bild 1: Transmission und Konzentration

Die Betrachtung der Transmission t zur Abschätzung des anthropogenen Treibhauseffekts ist nicht vollkommen falsch, weil nämlich die „Emissionsfähigkeit“ der Treibhausgasmoleküle mit der Absorptionsfähigkeit gemäß dem Kirchhoffschen Strahlungsgesetz korreliert. Deshalb sollte es einen („fließenden“) Konzentrationsbereich geben, ab dem der atmosphärische Treibhauseffekt CO2 nicht mehr nennenswert ansteigt. Ich bezeichne dies als „Sättigung“, die es, wenn man in immer kleineren Kleinigkeiten kramt, tatsächlich nicht gibt. Nicht ganz korrekt aber anschaulich verhält es sich mit der „Sättigung“ ähnlich wie mit dem Grenzwert einer geometrischen Reihe. Beispiel:

Für eine solche geometrische Reihe gilt:

Dabei ist a1 das Anfangsglied und q der Quotient zweier aufeinander folgender Glieder (q¹1). In der obigen geometrischen Reihe ist a1 = 1 und q = 0,5 (z. B. ¼ : ½ = 0,5). Setzt man jetzt beispielsweise n = 11 resultiert

und für n = 12 erhält man:

Der Zuwachs zwischen S11 auf S12 beträgt: DS = 1,9995117 – 1,9990234 = 2,777 . 10-4 entsprechend 0,014 %. Bezeichnet man den Grenzwert dieser arithmetischen Reihe als „vollständige Sättigung“ (S¥ = 2), dann ist der Betrag von S12 nur noch um

von dieser vollständigen „Sättigung“ entfernt.

Natürlich beruht der Treibhauseffekt auf der Emission von IR-Strahlung durch atmosphärische Spurengase und nicht auf der Absorption bzw. der Transmission von IR-Strahlung durch dieselben. Weil aber

–       erstens IR-aktive Spurengase gemäß dem Kirchhoffsche Strahlungsgesetz genau so emittieren wie sie absorbieren,

–       kann zweitens der „Sättigungscharakter“ des Treibhauseffekts in einfacher Näherung mit Hilfe des Bouguer-Lambert-Beer-Gesetzes abgeschätzt werden.

Nun basiert dieses Gesetz nicht wie oben auf einer geometrischen Reihe sondern auf einer e-Funktion, die als Potenzreihe gegen Null konvergiert (vgl. a. Bild 1).

Angenommen für eine Absorptionsbande des CO2 wird für eine bestimmte CO2-Konzentration in einer bestimmten Höhe willkürlich der Zahlenwert x = 8 eingesetzt, dann resultiert

Werden die Bedingungen gleich gehalten und lediglich die CO2-Konzentration verzehnfacht, erhält man

Man kann das Spiel beliebig weiter machen und gelangt schnell an die Grenzen eines Taschenrechners und später auch an die eines Supercomputers ( . Anschaulich gesprochen heißt das, die tatsächliche „Sättigung“ wird erst in einer reinen CO2-Atmosphäre mit unendlicher Schichtdicke erreicht. Erst dann ist die Transmission formal t = 0 und die Absorption a = ¥. Das ist natürlich Unsinn, aber orthodoxe Anhänger der Treibhausgastheorie können immer argumentieren, es gibt auch bei stetig steigenden CO2-Gehalt keine Sättigung des Treibhauseffekts und damit ein endloses Diskussions-perpetuum-mobile in Gang halten.

Nebenbei bemerkt hatte 1995 der englische Chemiker Jack Barrett  in der Spectro Chimica Acta auf die bereits längst gegebene „Sättigung“ der Treibhauseffekts hingewiesen und damit eine heftige Kontroverse ausgelöst [3, 8, 9, 10, 11]. Der damalige Chairman und spätere Co-Chairman des IPCC, Sir John Houghton, rief Barrett nach Erscheinen der Publikation an und verlangte, er solle seine Veröffentlichung zurückziehen. Außerdem verständigte Sir Houghton die Leitung des Imperial Colleges, an dem Barrett damals arbeitete. Diese untersagte ihm umgehend unter Androhung von Konsequenzen weitere kritische Veröffentlichungen zum Treibhauseffekt [35].

2. Der Treibhauseffekt

Fälschlicherweise wird oftmals angenommen, der Treibhauseffekt sei mit der Absorption von Infrarotstrahlung (IR-Strahlung) durch atmosphärische Spurengase (CO2, CH4, Wasserdampf u. a.) identisch. Durch strahlungslose Deaktivierung der angeregten Moleküle („Thermalisierung“) würde sich die Luft erwärmen und ihre Wärmeenergie auf die Erdoberfläche übertragen. Ähnlich wie eine heiße Flüssigkeit die Wandung eines Behälters durch Wärmeübertragung erhitzt.  Der Treibhaushypothese nach verhält es sich genau umgekehrt:  Die Erdoberfläche wird fast ausschließlich durch Bestrahlung erwärmt und die Atmosphäre nimmt ihre Wärmeenergie durch direkten Kontakt mit dem Erdboden auf.

Die Bestrahlung der Erdoberfläche setzt sich aber aus zwei Teilen zusammen:

1.      Die direkte Solareinstrahlung (abhängig von der Wolkenbedeckung)

2.      Strahlung durch den atmosphärische Treibhauseffekt (im wesentlichem ausgereizt)

Die Existenz einer atmosphärischen Gegenstrahlung, die den Treibhauseffekt charakterisiert, lässt sich zwar leicht nachweisen, aber bereits die Größenordnung des natürlichen Treibhauseffekts kann nur berechnet werden und die ihm zugeschriebene Auswirkung auf das Klima entzieht sich vollkommen der Verifikation [20]. Im gleichen Maß entziehen sich Klimacomputermodelle vollkommen der Falsifikation. Man kann mit ihnen jegliche Entwicklung prophezeien, ohne je befürchten zu müssen, gegenwärtig widerlegt zu werden.

Zum Verständnis des CO2-Treibhauseffekts ist zunächst einmal die „ganz normale“ Infrarot-Absorption atmosphärischer Spurengases zu betrachten [2].  Da IR-aktive Verbindungen mit mehr als zwei Atomen meist verschiedene Absorptionsbanden bzw. Emissionsbanden besitzen, muss  geklärt werden, welche der Absorptions-/Emissionsbande des CO2 von Bedeutung ist. Hierüber geben Satellitenspektren Auskunft [4].

Bild 2: Satellitenspektren, oben über der Sahara, unten über der Arktis

Die gestrichelten Linien im Bild 2 sind die idealen Planck-Strahlungskurven der Erdoberfläche berechnet bei unterschiedlichen Temperaturen in K. Die „gezackte Linien“ repräsentieren neben der ungehinderten Emission der Erdoberfläche die Emissionsgraphen der atmosphärischen Treibhausgase. Die stets offenen Strahlungsfenster liegen bei 800 – 1000 cm-1 und 1050 – 1300 cm-1. Die roten Pfeile im Bild 1 kennzeichnen die ν2-Bande um 15 μm (667 cm-1). Deshalb ist nur diese relativ schwache Bande von Bedeutung und nicht die wesentlich stärkere n3-Bande um 4,2 μm (2349 cm-1). Außerdem erkennt man, die Atmosphäre emittiert tatsächlich IR-Strahlung („Treibhauseffekt“). Dies sieht man ganz deutlich im Satellitenspektrum über der Arktis (unteres Spektrum im Bild 2). Die Bodentemperatur beträgt dort nämlich ca. 200 K (-73 °C), während die Atmosphäre in etwa 10 km Höhe eine höhere Temperatur von ca. 210 K (-63 °C) aufweist. Dies ist ein erster Hinweis darauf, dass der den IPCC-Computermodellen zugrunde liegende Strahlungstransport die Verhältnisse nicht korrekt beschreibt. Es handelt sich vielmehr um einen Energietransport infolge der natürlichen Konvektion. Dabei steigt wärmere Luft unter Abkühlung auf und gibt ihre Energie oberhalb einer Höhe von 10 km als „ungestörte Emission“ ins Weltall ab.

Die im Bild 2 deutlich erkennbaren Strahlungsfenster, die bei wolkenfreien Himmel stets offen sind, veranlassen einige Skeptiker zu argumentieren, selbst wenn es einen Treibhauseffekt gäbe, könne dieser nicht die behauptete Erwärmung der Erdoberfläche verursachen, weil die Auskühlung durch die Strahlungsfenster mindest so groß wie die Wirkung des Treibhauseffekts.

Andere Skeptiker sagen, weil „klimawirksame“ Spurengase wie CO2 usw. IR-Strahlung nicht nur absorbieren sondern im gleichem Maße auch emittieren (Kirchhoffsches Strahlungsgesetz), besitzen „Treibhausgase“ eine kühlende und keine erwärmende Wirkung. Dies beweisen u. a. die im Bild 2 mit rotem Pfeil markierten Maxima des Emissionsspektrums von CO2, der die Abgabe von Strahlungswärme ins Weltall präsentiert. Die gleichen Skeptiker sagen, gäbe es wirklich einen Treibhauseffekt, müsste die Oberfläche der Arktis (200 K) auf die Temperatur erwärmt werden, die in ca. 10 km Höhe herrscht (210 K). Außerdem verstoße der Treibhausgaseffekt gegen den 2. Hauptsatz der Thermodynamik, weil kältere, höher gelegene Luftschichten nicht dem wärmeren Erdboden durch „Rückstrahlung“ erwärmen können (vgl. Temperaturgradient im Bild 10).

3. Eigene Messungen

Weil, wie eingangs erläutert, in den allgemein gelesenen wissenschaftlichen Journalen keine auch nur annähernd brauchbare Information zur Spektroskopie des Treibhauseffekts veröffentlicht wurde, habe ich die Absorption des Kohlendioxids einmal in einem Industrielabor und einem Hochschullabor gemessen und die Transmission einzelner Banden, so weit sie erfassbar waren, auf die Atmosphäre hochgerechnet.

Ein Teil der Messungen (vgl. Bild 4) wurden mittels einer 10-cm-Küvette mit IR-durchlässigem Fenster durchgeführt, die mit synthetischer CO2-freier und wasserfreier Luft gefüllt war. Danach wurde mit einer Mikroliterspritze CO2 zugegeben, so dass 357 ppm CO2 zugegen waren (CO2-Konzentration von 1993). Weiter wurden soviel Wasser zugefügt, bis 2,6 % Wasserdampf vorlagen. Als IR-Strahlungsquelle diente ein Globar, ein elektrisch auf 1000-1200 ºC geheizter Siliziumkarbid-Stab mit nachgeschaltetem variablen Interferenzfilter. Nach der Aufnahme dieses Spektrums wurde mit CO2 aufgestockt, so dass 714 ppm enthalten waren. Die Messung erfolgte zum einem FT-IR-Spektrometer „Bruker IFS 48“.

Um den Einfluss von Fremdgasen zu überprüfen wurde reines CO2 und CO2 in Gegenwart von He sowie N2 bei 1020 mbar mit einem Perkin Elmer System 2000 FT-IR-Spektrometer gemessen. Bild 3 zeigt das Ergebnis. Im Strahlengang des Spektrometers befand sich jedes Mal die gleiche Anzahl an CO2-Molekülen. Reines CO2, das die niedrigste Absorption hat, wurde bei einer Schichtdicken von 0,35 mm gemessen. Die anderen in einer 10-cm-Küvette in Gegenwart von He (mittlere Absorption) und Stickstoff (größte Absorption).

Bild 3: Spektrum von CO2 (rein) und in Gegenwart von He sowie N2

Deutlich erkennbar ist, dass in bodennahen Schichten angeregte CO2-Moleküle durch strahlungslose Deaktivierung (Thermalisierung“) in den Grundzustand zurückkehren. Ähnlich wie es Jack Barrett in seiner Spectro Chimica Acta-Publikation 1995 feststellte.

Der Bereich, der nach IPCC-Angaben den zusätzlichen – anthropogenen – Treibhauseffekt präsentiert, ist durch Pfeile im Bild 3 kenntlich gemacht. Nun kann man argumentieren, wählt man eine Küvette mit einer Länge von 1 000 m findet man an den Rändern mehr „klimawirksame“ Absorptions-/Emissionsbanden. Dies insbesondere, wenn man eine Wegstrecke vom Erdboden bis zur Tropopause (ca. 10 000 m) wählt. Wie gesagt, das Diskussions-perpetuum-mobile lässt sich endlos in Gang halten.

3.1 Auswertung der eigenen Messungen

Bild 4 zeigt das unbearbeitete Spektrum der 15 µm-Bande für 357 ppm CO2 und 2.6% H2O.

(Bild 4: Unbearbeitetes Spektrum der 15 µm-Bande (ν2-Bande)

Deutlich sind wie im Bild 3 der R– (ΔJ = + 1) und der P– (ΔJ = – 1) sowie der Q-Zweig (ΔJ = 0) der n2-Bande zu erkennen. Der Extinktionskoeffizient im MaximumJ = 0) ergab sich zu:

e = 20,2 m2 mol-1 (ν2 bei 667 cm-1)

Um die Absorption zu berechnen, wurde der durchschnittliche CO2-Gehalt der Atmosphäre mit c = 1,03.10-3 mol/m3 angenommen. Setzt man die oben gemessenen molaren Extinktionen nebst der Konzentration und der Schichtdicke der Troposphäre (h = 10 km = 104 m) in das Lambert-Beer’sche-Gesetz ein, so erhält man eine Extinktion (Formelzeichen nach DIN: A) von

A(n2) = 20,2 m2 mol-1 × 1,03.10-3 mol/m3 × 104 m = 208

Dies bedeutet, dass die Transmissionen in der Mitte der Absorptionsbande bei den um 1997 gegebenen 357 ppm CO2 bei T(n2) = 10-208 liegt (Bild 5).

Bild 5: Spektrales Auswertungsschema

Dies ist ein extrem geringer Transmissionswert, der eine Steigerung des Treibhauseffektes bei Verdopplung des klimawirksamen Spurengases in diesem Bereich vollkommen ausschließt.

Setzt man den molaren Extinktionskoeffizient e für die n2-Bande sowie die Volumenkonzentration in mol/m3 (357 ppm CO2) in das Lambert-Beersche-Gesetz ein und nimmt eine Schichtdicke von 10 m an, resultiert eine Extinktion von

A = 20,2 m2 mol-1 × 0,0159 mol/m3× 10 m = 3,21

Dies entspricht einer Transmission von T = 10-3.21 = 0,6 Promille. Mit anderen Worten: Bereits nach 10 m absorbiert die Q-Bande 1 – T = 99,94% der IR-Strahlung.

Bei der Absorption an den Peakflanken ist die Extinktion naturgemäß kleiner. Deshalb stellt das IPCC 1990 fest, die Schwingungsrotationsbanden im mittlerem Bereich der 15 mm-Bande seien so gut wie gesättigt („saturated“), weshalb sie zum  „Treibhauseffekt“ bei weiter erhöhter Konzentration kaum beitragen. Aber:  „The effect of added carbon dioxide molecules is, however, significant at the edges of the 15 µm band, and in particular around 13,7 and 16,3 µm [14]“. D. h. Der vom IPCC als gefährlich eingestufte anthropogene Treibhauseffekt soll vor allem auf IR-Banden des Kohlendioxids unterhalb von 625 cm-1 bzw. auf oberhalb von 729 cm-1 beruhen [vgl. a. 36]. Was diese Aussage bedeutet, erkennt man am Besten, wenn man sich das Bild 3 noch einmal anschaut.  Abgesehen davon stützen sich  IPCC-Forscher auf eine vollkommen unbedeutende Oberschwingung des CO2 bei 9,6 mm, die, wie bei Oberschwingungen üblich, 15 bis 30mal schwächer ist als die zugehörige Grundschwingung. Hinzu kommen noch andere „Treibhausgase“ wie N2O, CH4 usw., auf die ich hier nicht eingehen kann. Selbst das Schwefelhexafluorid (SF6), das u. a. zur Füllung von Autoreifen verwendet wurde, damit die Fahrzeuge leiser dahinrollen, musste vor Jahren der befürchteten Klimakatastrophe weichen.

Natürlich existieren diese o. g. „edges“ um 15 mm, denn die Rotationsquantenzahl J geht von J = + 1 bis J = + ¥ und von J = – 1 bis J = – ¥. Bedauerlicherweise werden aber die „ungesättigten Bereiche“ des 15 mm-CO2-Spektrums an den Rändern immer schwächer.

Da die Besetzung (NJ/NJ=0) der Rotationsschwingungsniveaus der Boltzmann-Verteilung (Gleichung 4)

(B = Rotationskonstante, J = Rotationsquantenzahl, h = Planck-Konstante, c = Lichtgeschwindigkeit, k = Boltzmann-Konstante, T = thermodynamische Temperatur)

gehorchen, sind bei hohen Rotationsquantenzahlen (J) zu einem gegebenen, fixen Zeitpunkt („Momentaufnahme“)  nur sehr wenige CO2-Moleküle vorhanden, die in diesem Bereich absorbieren und entsprechend dem Kirchhoffschen Strahlungsgesetz emittieren („Treibhauseffekt“).  Wie schwach die Banden besetzt sind, kann man anhand folgender HITRAN-Daten überprüfen [6]:

Wellenlänge  Absorptionskoeffizient pro Molekül in10-22­ cm-1/(molec . cm2)
13,5 mm (= 741,7 cm-1) 76
15,0 mm (= 666,7 cm-1) 79 452 (Bandenmitte)
12,5 mm (= 797,3 cm-1) 46

Um die Absorption an den Peakflanken abzuschätzen, wurde bei den eigenen Messungen als Arbeitshypothese angenommen, die Extinktion soll sich bei Verdopplung des CO2-Gehalts um die Größenordnung A = 3 (t = 10-3) erhöhen. Hierzu wurde das Gesamtintegral der Banden bis zu den auslaufenden Enden des R- und P-Zweiges bei A = 0 ermittelt (s. Bild. 5). Anschließend wurden die digital abgespeicherten Spektren ab einer Extinktion, die dem Wert  A = 3 (Gesamtweg Erdboden-Troposphäre) entsprachen bis zu den auslaufenden Enden (A = 0) des R- und P-Zweiges integriert.

Da die Messwerte nur schwer reproduzierbar waren, wurden sämtliche Messungen 30mal wiederholt, so dass die „edgesannähernd erfasst werden konnten. Diese „edges„ begannen beim P-Zweig bei 14,00 µm und beim R-Zweig bei 15,80 µm und liefen jeweils bis zur Grundlinie A = 0. IPCC lässt die Banden an den Rändern bei 13,7 und 16 µm beginnen und an der „HITRAN-Erfassungsgrenze“ enden [14]. Den eigenen Messungen nach ergaben sich für die n2-Bande:

15 µm-Bande 357 ppm 714 ppm
Gesamtintegral 624,04 cm -1 von 703,84 cm -1 0,5171/cm 1,4678/cm
Summe der Flanken-Integrale 1,11.10-4/cm 9,79.10-4/cm

Tabelle: 15 µm-Bande (Gesamtintegral und Flankenintegrale A = 0 bis A = 3)

Natürlich lassen sich Extinktionen nicht mit dem Planckschen-Strahlungsgesetz kombinieren. Das ist auch gar nicht die Absicht. Aber der aus daraus abschätzbare relative Zuwachs bei Verdopplung des CO2-Gehalts ist entscheidend. Er entspricht der Differenz der Flankenintegrale bei 714 ppm und 357 ppm im Verhältnis zum Gesamtintegral bei 357 ppm.

(9,79.10-4/cm 1.11.10-4/cm) / 0,5171/cm = 0,17 %

Wie bereits erwähnt, es handelt sich nur um eine Abschätzung und nicht um einen exakten Messwert. Dennoch macht er deutlich, auf welch geringfügigen Größen sich die seinerzeit im Spiegel (33/1986) prophezeite „Klimakatastrophe“ stützt.

3.2. Kritik der eigenen Messungen

Obwohl die oben angegebenen Messwerte relativ ungenau sind, hatte ich sie seinerzeit veröffentlicht, weil

–       erstens jeder Chemiker und nicht direkt mit der Klimaforschung befasste Physiker, wohl wissend um die Eigenschaften IR-aktiver Spurengase, unter Eindruck der Medienhype davon ausgehen musste, dass eine Verdopplung des atmosphärischen CO2 zu einer erheblichen Steigerung (eventuell sogar Verdopplung) des Treibhauseffekts führen sollte. Ich jedenfalls und ca. 30 Chemiker aus Industrie und Hochschule hatten nach meiner eigenen ca. 20 Jahre zurückliegenden Rundfrage in etwa mit einer Verdopplung des Treibhauseffekts bei 100 % mehr CO2 gerechnet.

–       Zweitens die Geringfügigkeit des anthropogenen Treibhauseffekt bei der Information der Medien durch die direkt damit befassten „Klimamodellierer“ vornehm verschwiegen wurde. So etwas aber „gehört Sonntags auf den Tisch.“

Interessanterweise werden meine Messergebnisse auch durch die Aussage des Nobelpreisträges Paul Crutzen gestützt. Dieser schrieb1993 in einem Lehrbuch [21]: „Es gibt bereits so viel CO2 in der Atmosphäre, dass in vielen Spektralbereichen die Aufnahme durch CO2 fast vollständig ist, und zusätzliches CO2 spielt keine große Rolle mehr.“ Demnach ist der Treibhauseffekt auch nach Aussage dieses Nobelpreisträgers nahezu „gesättigt“. Man kann es auch so ausdrücken: Ein Treibhaus heizt sich bestenfalls geringfügig (Spureneffekt!) stärker auf, wenn man das normale Fensterglas gegen ein zehn Zentimeter dickes Panzerglas austauscht!

Die zur Messung verwendeten FT-IR-Spektrometer werden im Chemie- und Pharmabereich sowohl in der Industrie als auch an den Hochschulen mit großem Erfolg eingesetzt (vgl. Bild 3 und 4). Sie besitzen aber nur einen Spiegelweg von 5…15 cm. Dies ergibt eine Auflösung der IR-Banden von 0,2…. 0,07 cm-1.  Da die „ungesättigten“ Spektralbereiche ungewöhnlich schwache IR-Banden betrifft, benötigt man Spektrometer, die eine Auflösung von 0,0004 cm-1 erbringen [6]. Hierzu muss man ein FT-IR-Spektrometer bauen, das theoretisch über einen Spiegelweg von 2.500 cm (25 m!) verfügt. Nur dann lassen sich die äußerst schwachen IR-Banden messen, auf die sich die Klimamodellierer des IPCC stützen. Es sind Banden, mit einer „Absorptionsstärke“ von nur 0,05 % der 15 mm CO2-Hauptbande!

Die üblicherweise in der Industrie und Hochschulforschung verwendeten FT-IR-Spektrometer mit geringerer Auflösung kosten je nach Ausstattung zwischen 4 000 bis 10 000 Euro. Ein FT-IR-Spektrometer, wie das Bruker IFS 125 HR, mit denen man die Akkuratesse der HITRAN-Datenbank erreichen kann, kostet mindest 125 000 Euro. Ein Industriechemiker, der eigenmächtig ein solches Gerät beispielsweise zur Strukturaufklärung organischer Moleküle anschaffen würde, müsste mit seiner sofortigen Kündigung rechnen. Und das zu recht! Geräte dieser Art sind nur dann sinnvoll, wenn man Spureneffekte messen möchte. Deshalb findet man die Geräte vor allem in Instituten, die sich im Auftrag der Politik mit atmosphärischen Ultraspuren beschäftigen. Das Geld hierfür stammt vom Steuerzahler.

4. Vergleich mit den offiziellen Daten des IPCC

Nimmt man die offiziellen Zahlen (IPCC), dann beträgt der „natürliche“ Treibhauseffekt“ 324 W/m2 [22, 23]. Bei Verdopplung des CO2 (100 % Steigerung!) wird nach Übereinkunft („best guess“) angenommen, dass sich der Strahlungsantrieb um 3,7 W/m2 erhöht [23, 24]. Im Bild 6 sind die Verhältnisse dargestellt.

Bild 6: Prozentuale Erhöhung des Treibhauseffekts bei Verdopplung des atmosphärischen CO2-Gehalts gemäß der offiziellen Angaben des IPCC

Auch das Bild 6 belegt die oben beschriebene weitestgehende Sättigung, denn die Steigerung des Treibhauseffekts bei CO2-Verdopplung beträgt nur geringfügige 1,2 %. Dies ist in der Klimaforschung bekannt. Deshalb wird versucht, den „Sättigungscharakter mit dem Argument zu entkräften, das Klima sei ein so empfindliches System, dass es bereits von kleinsten Änderungen des Strahlungsantriebs aus dem Gleichgewicht gebracht werden kann. So wird behauptet, die Abkühlung zwischen 1930 und 1970 sei durch die Staubbelastung der Industriegesellschaft verursacht. Dies ist falsch. Die Abkühlung war durch das geänderte Magnetfeld der Sonne verursacht, wie aus dem Bild 15 (rot eingekreist) hervorgeht.

Neben der HITRAN-Datenbank kann zur Berechnung des allgemeinen und anthropogenen Treibhauseffekt das von der US-Airforce und der Fa. Spectral Sciences Incorporated  entwickelte MODTRAN-Programm genutzt werden, dem sich auch die Forscher des IPCC bedienen. David Archibald hat mit Hilfe des MODTRAN-Programms der Universität Chikago [37] die Abhängigkeit der Erdoberflächentemperatur vom atmosphärischen CO2-Gehalt berechnet. Das verblüffende Ergebnis zeigt das Bild 7.

Bild 7: Wirkung des CO2 und Anstieg der mittleren Erdtemperatur

Der höchste Anstieg der mittleren Erdoberflächentemperatur wird von 20 ppm CO2 bewirkt. Danach fällt der Einfluss des CO2 rapide ab. Dies verwundert nicht, denn der Einfluss der „edges“ wird bei höherem CO2-Gehalt immer geringer. Nicht zuletzt deshalb war der CO2-Treibhauseffekt bereits zu Goethes Zeiten weitgehend ausgereizt.

5. Erdoberflächentemperatur, Treibhauseffekt und CO2-Konzentration

Zur Berechnung der irdischen Oberflächentemperatur ohne Treibhausgasatmosphäre  wird allgemein und nicht nur von den IPCC-Forschern eine einfache Gleichung benutzt, die auf dem Stefan-Boltzmann Gesetz beruht.

                                                                                                 

A ist dabei die Albedo – das durchschnittliche „Rückstrahlvermögen“ der Erde (nicht mit der Extinktion A verwechseln!). Sie wird mit A= 0,3 angenommen. Tatsächlich existierten in der Vergangenheit auch andere Angaben. Die Solarkonstante, die in Wirklichkeit gar nicht so konstant ist, hat den Wert Fs = 1368 W/m2. Weiterhin enthält die Gleichung die Stefan-Boltzmann-Konstante s = 5,67 . 10-8 W.m-2.K-4.

Rechnet man mit diesen Angaben, so resultiert für die Oberflächentemperatur der Erde:

Das Ergebnis ist fragwürdig. Die Erde ist nämlich kein wasserloser Gesteinshaufen im Weltall. Sehr wahrscheinlich liegt die irdische Mitteltemperatur ohne Treibhausgase um einiges höher! Aber bleibt man zunächst einmal dabei, dann beträgt die spezifische Ausstrahlung der Erdoberfläche bei dieser Temperatur (Formelzeichen M nach DIN 5031, Teil 1):

M1 = (1-0,7) . 0,25 . 1368 W/m2 = 239 W/m2

Für die Klimanormalperiode bezeichnet, hat man sich vor Jahren unter Konsensbildung auf eine Mitteltemperatur von  + 15 °C (T = 288 K) geeinigt. Benutzt man jetzt das „unveränderte“ Stefan-Boltzmann-Gesetz

und berechnet damit die spezifische Ausstrahlung der Eroberfläche erneut, resultiert:

Folglich erhöht der „natürliche“ Treibhauseffekt, mit einer hypothetische Erwärmung von DT = 288 K – 225 K = 33 K (33 °C), die spezifische Ausstrahlung der Erdoberfläche um

DM = M2  – M1 = 390,0 W/m2 – 239,0 W/m2 = 151 W/m2

Wie bereits oben erläutert, wird bei Verdopplung des CO2 (100 %ige Steigerung) ein zusätzlicher Strahlungsantrieb von 3,7 W.m-2 angenommen (anfänglich gab IPCC 4,2 W.m-2 an, die Größenordnung entzieht sich der Falsifikation und beruht auf Konsens – „best guess“!).

Nimmt man  die besagten 3,7 W.m-2, dann steigt die spezifische Ausstrahlung der Eroberfläche von 390,0 W.m-2 auf 393,7 W.m-2. Setzt man diesen Wert in die Stefan-Boltzmann-Gleichung (Gleichung 6) ein, resultiert als Erdoberflächentemperatur:

Demnach erhöht sich die Temperatur bei CO2-Verdopplung (100 % mehr CO2!) von 288,0 K auf 288,7 K. Das entspricht gerade einmal DT = 288,7 K – 288,0 K = 0,7 K (0,7 °C) und nicht mehr. Die Klimamodellierung hätte keinerlei politische Beachtung gefunden, wenn man nicht die Hypothese der Wasserdampfverstärkung in die Diskussion eingebracht hätte. Diese lässt sich jedoch glücklicherweise falsifizieren, wie im nächsten Absatz dargelegt wird.

6. Die Wasserdampfverstärkung

Da eine Erwärmung von lediglich 0,7 °C bei 100 % mehr CO2 zu wenig erscheint, hat man sich vor Jahren darauf geeinigt, dass diese geringfügige Temperaturerhöhung gemäß der altbekannten Clausius-Clapeyronschen-Gleichung deutlich mehr Wasser aus den Ozeanen verdunsten lasse. Weil Wasserdampf ein Treibhausgas ist, fällt deshalb Temperaturerhöhung durch CO2 wesentlich höher aus. Originalton IPCC [25]: „Der ‚Wasserdampf-Feedback’ ist nach wie vor der durchweg wichtigste Rückkopplungseffekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdopplung vorhergesagte globale Erwärmung verursacht.“ Wenn dies richtig ist, muss besonders in einer kälteren Periode, während der die direkte Solarstrahlung nicht so viel Wasser verdunsten lässt, dennoch der Wasserdampfgehalt (Balken in Bild 8) über den Ozeanen parallel mit dem atmosphärischen CO2-Gehalt ansteigen (rote Strich-Punkt-Linie in Bild 8). Dies ist eindeutig nicht der Fall ist, wie das Bild 8 belegt [32]. Deshalb können sich die Klimamodellierer auf keinen Fall auf den durchaus einleuchtenden, hypothetischen Wasserdampfverstärkungsmechanismus berufen, der eine viel zu große Temperatursteigerung prophezeit.

Bild 8: Prozentuale Abweichung des Wasserdampfgehalts über dem Atlantik [s. a. 34]

Um Missverständnissen vorzubeugen: Mit der  Prozentangabe im Bild 8 ist natürlich nicht die relative Luftfeuchte gemeint, die niemals höher als 100 % sein kann, sondern vielmehr die Abweichung des Wasserdampfgehalts nach oben und nach unten um den Messwert von 1950. So liegt der absolute Wasserdampfgehalt 1956 um 25 % höher als 1950. 1968 liegt der Wasserdampfgehalt um ca. 45 % niedriger, obwohl der CO2-Gehalt weiter angestiegen ist! Auch wenn der Zeitraum relativ kurz gewählt ist, so belegt er eindeutig, dass die Wasserverdunstung über den Ozeanen nicht mit dem steigenden CO2-Gehalt korreliert. Die Wasserdampfverstärkung, auf denen sämtliche Vorhersagen der Klimamodelle beruhen, existiert nicht.

7. Die Strahlungstransportgleichung

Bei der Berechnung des Treibhauseffekts wird ein „Schicht- oder Kaskadenmodell“ zugrunde gelegt nach dem innerhalb der Atmosphäre eine ständige Absorption (I) und Emission (L) stattfindet. Diesem fiktiven Strahlungstransport liegt die Schwarzschild-Gleichung zugrunde, die ursprünglich entwickelt wurde, um das Verhalten von Atomen in einer Sternenatmosphäre zu beschreiben [12]. Bei einem infinitesimalen Weg dz, dem Absorptionskoeffizienten sa und der Teilchenzahl n gilt hierfür im lokalen thermodynamischen Strahlungsgleichgewicht (LTE):

Die Größe L ist hierbei die Strahldichte (vgl. DIN 5031, Teil 1), welche die Emission gemäß der temperaturabhängigen Planck-Strahlungsgleichung angibt.

Dass innerhalb der Atmosphäre ein Strahlungstransport stattfindet, meint man belegen zu können, indem man die gemessenen Satellitenspektren mit den berechneten vergleicht. Das Ergebnis ist verblüffend, wie das Bild 9 belegt.

Bild 9: Links das gemessene Emissionsspektrum der Erde (Satellitenspektrum); rechts das  mit Hilfe der Strahlungstransportgleichung berechnete Emissionsspektrum

Das lokale thermodynamische Strahlungsgleichgewicht (LTE) begründet man mit dem Kirchhoff’schen Gesetz der Wärmestrahlung. Danach ist das Emissionsvermögen eines Körpers genau so groß wie sein Absorptionsvermögen. Das Ganze hat nur einen Haken. Es existiert kein „Strahlungsenergieerhaltungssatz“, wie er bei diesem Mechanismus stillschweigend vorausgesetzt wird. Tatsächlich setzt man bei der „nachvollziehenden“ Berechnung der Satellitenspektren das gemessene atmosphärische Temperaturprofil in die Plank-Strahlungsgleichung ein, wie im Bild 10 gezeigt.

Bild 10: Strahlungstransport, Planck-Gleichung und gemessener Temperaturgradient

Zur Erinnerung: Beim Treibhauseffekt geht es auch um den Temperaturgradienten (Temperaturprofil“), den die Atmosphäre im Kontakt mit dem Erdboden unter adiabatischer Expansion annimmt. Lässt man sich dies durch den Kopf gehen, dann wird das Ergebnis – die Temperatur bzw. der Temperaturgradient – in die Planck-Gleichung eingesetzt (vgl. Bild 10), um dann daraus das temperaturabhängige Emissionsspektrum der Atmosphäre und des Erdkörpers zu erhalten (vgl. auch Bild 2).  Deshalb ist die Übereinstimmung der im Bild 10 gezeigten Spektren kein Beweis für den Strahlungstransport innerhalb der Atmosphäre. Es ist vielmehr ein Beweis, dass man im Kreis herumrechnet und sich dann über den mathematisch „bewiesenen“ Treibhauseffekt im Sinne eines Strahlungsenergieerhaltungssatzes freut. Natürlich kann man auch die gemessene Emission innerhalb einer Schicht (Strahldichte L) in die Planck-Gleichung einsetzen, um dann die Temperatur zu erhalten. Auch dann wird im Kreis herum gerechnet.

Experimentelle Untersuchungen und die allgemein akzeptierte Theorie belegen eindeutig, dass die Molekülfluoreszenz anders funktioniert wie die Atomfluoreszenz, bei der die absorbierte Strahlung zu 100 % wieder emittiert wird. Dies geschieht in einem Atomabsorptionsspektrometer (AAS-Gerät), mit dem man in der Instrumentellen Analytik Metalle in Proben quantifiziert (z. B. Cd in einer Bodenprobe).

Das LTE setzt eine „100%ige Molekülfluoreszenz“ voraus, die nicht existiert – auch nicht im IR-Bereich (vgl. a. Bild 3) [26, 27]. Während angeregte Atome nur unter Emission von Strahlung in den Grundzustand zurückkehren können, erfolgt die Relaxation bei Molekülen wegen der Rotations- und Schwingungsfreiheitsgrade meist strahlungslos gemäß den Prinzipien des Jablonski-Diagramms [28].  Deshalb reichte es eigentlich vollkommen aus, wenn man den „theoretischen“ Treibhauseffekt ohne jegliche Absorption nur mit der – temperaturabhängigen – Planck-Gleichung beschreibt, die man mit den jeweiligen Bandenstärken „klimawirksamer“ Spurengase und der „Anzahl IR-aktiver Moleküle in einem Luftvolumen“ multipliziert. Berücksichtigung man den Raumwinkel, erhält man die thermische Emission der Atmosphäre innerhalb eines Halbraums.

Fazit:

Dass eine atmosphärische Wärmestrahlung gemäß dem Planck-Gesetz gegeben ist, ist eine Selbstverständlichkeit. Solange aber ein atmosphärisches Temperaturprofil (oben kälter – unten wärmer) existiert, und die Konvektion erheblich zum Energietransport beiträgt, solange ist die Hypothese, im offenen System der Atmosphäre wird die Energie einer erdbodennah absorbierten IR-Strahlung mittels Strahlungstransport von unten nach oben weitergereicht, falsch. Es gibt nämlich keinen „Strahlungsenergieerhaltungssatz“. Vielmehr übertragen angeregte „erdbodennahe Treibhausgasmoleküle“ ihre Energie im Wesentlichen auf die nicht IR-aktiven Hauptbestandteile des Atmosphäre (N2 und O2).

Interessanterweise wird die Strahlungstransportgleichung angewandt, wenn man das Abkühlungsverhalten großer Glaskörper mittels Modellierung kontrollieren will, etwa bei der Herstellung von Spiegelteleskopen. Dies funktioniert sehr gut. Weil es nämlich in einer erstarrten Glasschmelze bei 600 K keine Konvektion gibt!

8. Was Klimamodelle nicht können

Klimamodelle sind Computeralgorithmen (sprich: „Rechenvorschriften“, welche die meinungsabhängigen Vorgaben der Programmierung widerspiegeln) und nicht die Realität. Weil die Komplexität des Klimageschehens gegenwärtig und auch in absehbarer Zukunft mit keinem Computer realitätsorientiert erfassbar sein dürfte, handelt es sich mehr um politische Instrumentarien, denn um exakte Naturwissenschaft.

8. 1 Die Flusskorrekturen

Der Hypothese nach soll der „natürliche“ Treibhauseffekt den Globus um 33 °C aufheizen. Irrigerweise wird dabei angenommen, die Erde, die zu 70 % mit Wasser bedeckt ist, würde sich ähnlich verhalten wie der vollkommen wasserlose Mond. Nimmt man an, nur die ersten 10 m Wassertiefe der Ozeane würden die mittlere Erdtemperatur thermostatisch regeln, ergibt die Rechnung, dass die Ozeane im Temperaturbereich von  –18 °C bis +15 °C eine Energiemenge von 1,57.1018 MJ speichern. Hierzu die Gegenrechnung: In 24 Stunden werden durch den irdischen Treibhauseffekt 1,43.1016 MJ umgeschlagen [23]. Der gesamte natürliche Treibhauseffekt macht somit nur 0,9 % der Energie aus, die in den Ozeanen bei einer Wassertiefe bis zu 10 m gespeichert ist. Die Folge sind erhebliche Schwierigkeiten bei der Kopplung atmosphärischer Zirkulationsmodelle („General Circulation Atmospheric Models“) mit ozeanischen Zirkulationsmodellen („General Circulation Oceanic Models“). Diese Probleme lassen sich nur mit Hilfe so genannter „Flusskorrekturen“ überwinden, deren Beträge, wie das Bild 11 belegt, um ein Vielfaches größer sind als der anthropogene Treibhauseffekt. Die rechte Säule in Bild 11 stellt den Strahlungsantrieb des CO2 bei Verdopplung dar. Danach ist allein schon die 100 W/m2-Flusskorrektur zur Kopplung Ozeanoberfläche-Atmosphäre rund 27-mal (!) größer als der anthropogene Treibhauseffekt bei CO2-Verdopplung (3,7 W/m2).

Bild 11: Anthropogener Treibhauseffekt (rechte kleine Säule) im Verhältnis zu den bei der Klimamodellierung angewandten Flusskorrekturen

Es soll nicht unerwähnt bleiben, dass von einschlägigen Instituten in neuerer Zeit verlautbart wird, man benötige keine Flusskorrekturen mehr. Tatsächlich kommen Klimamodelle nach wie vor nicht ohne sie aus.

8. 2 Die Wolkendichte

Bei der Abschätzung des Strahlungsantriebs der Wolken kommen Klimamodelle zu äußerst unterschiedlichen Ergebnissen. So findet das „Bureau of Meteorology Research Center“ (BMRC) von Australien, dass die Wolken eine Abkühlung von ca. 1 W/m2 erbringen, während das Labaratoire de Météologie Dynamic (LMD) aus Frankreich meint, Wolken würden eine Erwärmung von ca. 1,7 W/m2 bewirken (Bild 12). Auch das ist beachtenswert!

Bild 12: Strahlungsantrieb der Wolken mit unterschiedlichen Klimamodellen gerechnet

8. 3 Modellabhängige Parameter

In der bereits mehrfach zitierten Veröffentlichung von Hermann Flohn [5] stellt dieser in einer Graphik den globalen Temperaturanstieg gemäß einschlägiger Computermodellierungen vor (Bild 13). Flohn referiert in dem Aufsatz den Stand der Klimamodellierung von 1984, auf der wenig später in geringfügig verbesserter Form der Erdumweltgipfel Rio92 basierte.

Bild 13: Mittlere Erdbodentemperatur und modellabhängiger Parameter

Interessant ist bei dem einfachen Modell, das Flohn referiert, der modellabhängige Parameter „D“, der die Steigung der jeweiligen Geraden angibt.

Je größer D ist, desto stärker fällt der Temperaturanstieg aus. Die Größe n ist das Verhältnis der mit Unsicherheit belasteten Strahlungsbilanz aller Spurengase zur Strahlungsbilanz von CO2:

B und C bezeichnet Flohn vornehm als „Sensitivitätsparameter“, die u. a. natürlich die Wasserdampfverstärkung berücksichtigen (B= 1,8 W . m . K-1, C = 6,5 W . m . K-1). Flohn gibt für die Parameter einen Unsicherheitsfaktor von ca. 20 % an. D. h. je nach dem, wie n, B und C gewählt werden, resultieren im Computer (!) dramatischere oder weniger dramatischere Klimaänderungen. Dass es heute ausgefeiltere Modelle gibt, daran zweifle ich nicht, aber so lange der Wasserdampfverstärkungsmechanismus in ihnen enthalten ist, so lange sind höchste Zweifel angebracht.

8. 4 Die Vergangenheit

Weiterhin versagen Klimamodelle bei der Reproduktion der Vergangenheit. So können sie bis heute nicht die im Bild 14 gezeigte Abkühlung zwischen 1930 und 1975 ohne Zuhilfenahme von Kunstgriffen (atmosphärischer Staubeintrag durch die Industriegesellschaft!) nachvollziehen. (Die tatsächliche Ursache des ungewöhnlichen Verlaufs zeigt Bild 15.)

Bild 14: CO2-Gehalt und Temperaturverlauf

Im Sachstandsbericht des IPCC von 2001 tauchte noch eine Kurve auf, die das römische und das mittelalterliche Klimaoptimum zeigte, Zeiten, die mindestens so warm waren wie heute. So wurde Grönland 875 vom Wikinger Erik „der Rote“ Thorvaldsson besiedelt, der Bischof von Trondheim konnte damals seinen eigen Wein ernten und es existierten hochgelegene Gebirgsdörfer, die während der kleinen Eiszeit aufgegeben wurden und heute infolge des Gletscherrückgangs wieder auftauchen. Das stört. Deshalb kursierte in IPCC-Kreisen die Formulierung „We have to get rid of the Medieval Warm Period“. Dem wurde nachgekommen. 1999 veröffentlichte Michael E. Mann et al. Die berühmte Hockeystick-Kurve [1], in der sämtliche vorindustriellen Erwärmungsperioden „weggebügelt“ waren und die Gegenwart als wärmste Periode seit dargestellt wurde. Stephen McIntyre und Ross McKittrick haben die Studie inzwischen gründlich widerlegt [38]. U. a. konnten fast beliebige Zahlen in den Mann benutzte Programm eingesetzt werden, immer resultierte ein „Hockeystick“.

9. Die Alternative

Da treibhausgasfixierte Computer-Klimamodelle nicht nur im Zeitraum zwischen 1930 bis 1970 versagen sondern auch die kleine Eiszeit (14. bis 18. Jh.) und das mittelalterliche Klimaoptimum (11. – 13. Jh.)  nicht nachbilden können, muss es einen anderen entscheidenden Mechanismus geben.

Sehr viel spricht dafür, dass dies die Wolkendichte ist, die von der kosmischen Strahlung beeinflusst wird, wie der Direktor des Centre for Sun-Climate Research des Danish National Space Center, Henrik Svensmark, seit Jahren betont [39]. Die kosmische Strahlung besteht überwiegend aus Protonen, die als Echo des Urknalls in unser Sonnesystem eindringen. Gelangen diese positiv geladenen Kernbausteine in die Atmosphäre, so führen sie über einen noch nicht restlos geklärten Mechanismus zur Kondensation von Wasserdampf  –  Wolken entstehen.  Erhöht sich bei höherer Solaraktivität das Magnetfeld der Sonne, dann werden die Protonen stärker abgeschirmt. In der Folge entstehen weniger Wolken und die einfallende Sonnenstrahlung kann die Erdoberfläche (Ozeanoberflächen!) stärker erwärmen. Deshalb folgt der globale Temperaturverlauf der Schwankung des solaren Magnetfelds (Bild 15).

Bild 15: Solares Magnetfeld und Globaltemperatur [29, abgewandelt]

Wie Messungen zeigen, war im übrigen die Solaraktivität seit dem Jahr 850 noch nie so hoch wie nach 1940 [30]. Auch im Wärmehaushalt der Weltmeere macht sich die wolkenbedeckungsabhängige Schwankung der solaren Einstrahlung stärker bemerkbar.  Somit dürfte der anthropogene Treibhauseffekt eine kleine, aufgesetzte Größe auf einer natürlichen Klimaschwankung sein.

Abgesehen davon erscheint die unter Punkt 5 (Gleichung 5) vorgerechnete Temperatur von – 18 °C, welche die Erde ohne Treibhausgase angeblich hätte, viel zu niedrig angesetzt sein. Sie entspricht aber der offiziellen Doktrin, die – und das muss betont werden – eine Hypothese ist. Weil, wie bereits hervorgehoben, die Erde kein wasserloser Gesteinshaufen im Weltall ist, sondern zu 70 % mit Wasser bedeckt ist, muss die direkte Absorption im nahen Infrarotgebiet (NIR) und die sehr verzögerte Strahlungsemission von Ozeanwasser stärker berücksichtigt werden.

((Bild 16: Wolkenbedeckung (Wolkendichte) und globale Temperatur))

Aus dem Bild 16 geht hervor, dass sich die globale Wolkenbedeckung zwischen 1986 und 2000 von 69 % auf 65 % reduzierte (linke Ordinate, „fallend“ aufgetragen). Parallel hierzu stieg die globale Mitteltemperatur (rechte Ordinate, „steigend“ aufgetragen).

Während die Temperaturschwankungen in der Sahara im Tagesverlauf ohne weiteres bis zu Dd = 50 °C betragen können, verhalten sich Meere wesentlich träger. Der Gesamtwärmeumsatz (Wärmeenergie nicht Wärmeleistung!) eines Meeres ist die Summe vieler Größen:

Qges = (QS – QA) – QK – QV – QT + QC + QE + QF + QR

QS = im Meer absorbierte Sonnen- und Himmelsstrahlung (= „Treibhauseffekt“)

QA = effektive Ausstrahlung

QK  = „fühlbarer“ Wärmeübergang Luft-Wasser

QV  = latenter Wärmeübergang Luft-Wasser (Verdunstung, Kondensation)

QT  = Wärmetransport durch Strömung

QC  = chemisch-biologische Prozesse

QE  = Wärmezufuhr aus dem Erdinnern

QF  = Reibungswärme

QR  = radioaktiver Zerfall

Da die Speicherfähigkeit des Wassers erheblich über der von Gesteinen liegt, ist es ausgeschlossen, dass sich die Erde bei einer Trägheit des Systems Wasser-Luft nachts schlagartig um 50 °C herunterkühlen. Denn insbesondere die Abstrahlungsleistung dQA/dt unterscheidet sich wegen der wesentlich höheren Wärmespeicherungsfähigkeit von Meerwasser deutlich von jener der Sahara. Gemäß der Stefan-Boltzmann-Gleichung (Gleichung 6) hängt nämlich die spezifische Ausstrahlung der Erdoberfläche mit der Temperatur unmittelbar zusammen. Je höher die letztere ist, desto größer ist auch die Abstrahlung.

Aus der obigen Aufzählung geht aber hervor, dass der Energiegehalt des Meerwassers auch auf der Wärmezufuhr aus dem Erdinnern, auf chemisch-biologischen Prozessen, auf radioaktiven Zerfall und auf Reibungswärme beruht. Die Größe QF  (Reibungswärme) in der obigen Aufzählung hängt von der Windgeschwindigkeit ab.  Wie H. Volz auf einer Tagung der Bayerischen Akademie der Wissenschaften berichtete, differiert die  spezifischen Ausstrahlung bei den Windstärken 0 und 7 in einer Größenordnung von  DM = 11,1 W/m2 [31]. Die Ein- und Ausstrahlungsbilanz geht aber von einer ruhenden See aus. Addiert man diese Größe zur spezifischen Ausstrahlung bei 15 °C, so erhält man:

M = 239,0 W/m2 + 11,1 W/m2 = 250,1 W/m2

Eingesetzt in die Gleichung 2 resultiert für die Temperatur T  = 257,7 K (- 15,3 °C). Diese Temperatur liegt um 2,7 °C höher, als die besagten – 18 °C. Die Treibhausgase erhöhen dann die Mitteltemperatur nicht um 33 °C sondern „nur“ um 30,3 °C, insofern die These richtig ist, wonach die „normale“ Mitteltemperatur der Erde + 15 °C beträgt. Wie hoch war diese eigentlich während des mittelalterlichen Klimaoptimums (11. – 13. Jh. ) und während der „kleinen Eiszeit“ (14. bis 18. Jh)?

Ein weiteres kommt hinzu. Etwa 50 % der Sonneneinstrahlung, die den Erdboden erreicht, ist Wärmestrahlung (nahes und mittleres IR). Diese wird vom Meerwasser absorbiert. Die strahlungsfixierte Treibhausgastheorie saldiert nur die Einstrahlung und Ausstrahlung im Tagesverlauf als könnten sich die Weltmeere auf der Nachtsseite schlagartig auf – 18 °C abkühlen. Die Trägheit der Ozeane ist aber mit einer Relaxationszeit bis zu 200 Jahren sehr hoch. Folglich dürfte die mittlere globale Gleichgewichtstemperatur der Ozeane ohne atmosphärische Treibhausgase eher um + 4 °C (Wasser höchster Dichte am Grunde eines zugefrorenen Gewässers) denn bei – 18 °C liegen.

Als ich vor einiger Zeit einmal mit einem ehemaligen Leiter eines Klimarechenzentrums korrespondierte und ihn fragte, wie hoch die irdische Mitteltemperatur ohne Ozeane anzusetzen sei aber mit dem gegenwärtigen atmosphärischen Treibhausgasgehalt, erhielt ich zur Antwort, dies sei eine interessante Frage, die man aber bislang nicht durchgerechnet habe.

Zusammenfassung

·        Der anthropogene Treibhauseffekt ist im wesentlichem ausgereizt, wie die Messung der Transmission von IR-Strahlung belegt. Eine globale Klimakatastrophe ist daher selbst bei einer CO2-Verdoppelung nicht zu erwarten.

·        Die Steigerung des Treibhauseffekt von 324 W . m-2 auf um 327,7 W . m-2 bei 100 % mehr CO2 ist eine 1,2 %ige Geringfügigkeit (s. Bild 6), die man nur mit Hilfe des hypothetischen Wasserdampfverstärkungsmechanismus künstlich vergrößern kann.

·        Zweifellos enthält die Atmosphäre gemäß der Clausius-Clapeyronschen-Gleichung mehr Wasserdampf, wenn es wärmer wird. Jedoch lässt sich der hypothetische  Wasserdampfverstärkungsmechanismus, ohne den die Klimamodelle nicht auf die politisch erwünschten Temperatursteigerungen kommen, in der Realität nicht nachzuweisen. Weil sich somit der atmosphärische Wasserdampfgehalt nicht an der Konzentration der Treibhausgase orientiert, erhöht sich die globale Mitteltemperatur bei 100 % mehr CO2 bestenfalls um 0,7 K (0,7 °C). Natürlich lassen sich genügend „Computermodellierungen“ anstellen, die eindeutig beweisen, dass die Wasserdampfverstärkung als positive Rückkopplung den CO2-Treibhauseffekt verstärkt.

·        Computerklimamodelle kommen u. a. deshalb zu falschen Ergebnissen, weil der hypothetische Wasserdampfverstärkungsmechanismus vollkommen überwertet wird.

·        Der atmosphärische Temperaturgradient beruht auf einem Energietransport und nicht auf einem Strahlungstransportmechanismus mit dem fiktiven LTE. Deshalb wird der atmosphärischen Rückstrahlung – dem Treibhauseffekt – eine zu große Bedeutung zugemessen.

·        Klimamodelle müssen mit – gewillkürten – Flusskorrekturen arbeiten, deren Größenordnung den des anthropogenen Treibhauseffekts um ein Vielfaches übertreffen. Im anderen Fall „hat (man) als Modellierer … die Wahl, entweder ohne Flusskorrektur mit einem unrealistischen Klimazustand zu operieren, oder die Flusskorrektur mit ihren Schwächen zu akzeptieren, dafür aber ein realistisches Klima zu erhalten.“ [33]

· Die Abbildung des Klimas in der Vergangenheit mit Computeralgorithmen gelingt nicht ohne massive Korrekturgrößen.

·        Die globale Mitteltemperatur ohne Treibhauseffekt dürfte um einiges höher als bei 255 K (-18 °C) liegen.

·        Das Klima hängt stärker von der Variation der Wolkenbedeckung ab als vom Gehalt atmosphärischer Treibhausgase.

·        Das IPCC ist eine politische Organisation, die sich eines Wissenschaftlergremiums bedient, um volkspädagogische Lernziele durchzusetzen.

Abschließend möchte ich die Leser darauf aufmerksam machen, dass dem gegenwärtigen CO2-Gehalt je nach Literaturstelle ein unterschiedlicher Temperatureffekt zugeordnet wird. In dem von von J.T. Houghton herausgegebenen Buch „The Global Climate“ geben Kondratjew und Moskalenko 7,2 K an [15]. Die Autoren zitieren sich dabei selbst [16]. Besorgt man sich das in Kyrillisch geschriebene Buch und schaut auf der angegebenen Seite nach, so findet man keinerlei Information darüber, wie Kondratjew und Moskalenko auf die o. g. 7,2 K kommen. Andererseits scheint man sich doch recht sicher zu sein, denn die Angaben der Autoren werden gerne zitiert [17]. Allerdings gibt es Widersprüche, denn K.P. Shine [18] gibt einen anderen Wert an, nämlich 12 K und R. Lindzen [19] geht davon aus, dass dem CO2 nur etwa 5% des natürlichen Treibhauseffekts zuzuordnen sind. Das wären 1,65 K und damit weniger als ein Viertel des bei IPCC benutzten Werts von 7,2 K.

Literatur

[1] Michael E. Mann, Raymond S. Bradley und Malcolm K. Hughes (1999): Northern Hemisphere Temperatures During the Past Millennium: Inferences, Uncertainties, and Limitations, in: Geophysical Research Letters, Vol. 26, No. 6, S. 759–762

[2] R. Revelle, Scientific American, 247, No.2, Aug. 1982, 33-41
[3] J. Barrett, Spectrochim. Acta Part A, 51, 415 (1995)
[4] R.A. Hanel et al. Journal of Geophysical Research, 77, 2629-2641 (1972)
[5] H. Flohn, Nachr. Chem.Tech.Lab, 32, 305-309 (1984)
[6] L.S.Rothman et al., Appl.Opt. 26, 4058 (1987)
[7] H. Hug, Chemische Rundschau, 20. Febr., S. 9 (1998)
[8] P. S. Braterman, Spectrochim. Acta Part A, 52, 1565 (1996)
[9] K. Shine, Spectrochim. Acta Part A, 51, 1393 (1995)
[10] J. Houghton, Spectrochim. Acta Part A, 51, 1391 (1995)
[11] R. S. Courtney, Spectrochim. Acta Part A, 53, 1601 (1997)
[12] R. P. Wayne, Chemistry of Atmospheres, Oxford University Press,
2nd. Edition, 44-49 (1991),
[13] Murry L. Salby, Fundamentals of Atmospheric Physics, Academic Press, 198-257 (1996)
[14] Climate Change 1990. The IPCC Scientific Assessment, p. 49
[15] K.Ya. Kondratyev, N.I. Moskalenko in J.T.Houghton, The Global Climate, Cambridge
Universitiy Press, 225-233 (1984)
[16] K.Ya. Kondratyev,N.I. Moskalenko, Thermal Emission of Planets, Gidrometeoizdat,
263 pp (1977) (Russisch)
[17] C.D. Schönwiese, Klimaänderungen, Springer-Verlag Berlin Heidelberg, p. 135 (1995)
[18] K. P. Shine, A. Sinha, Nature 354, 382 (1991)
[19] R. S. Lindzen, Proc. Nat. Acad. of Sciences, 94, 8335 (1997)

[20] R. Raschke, R. Hollman, Strahlungsübertragung in der Atmosphäre, Modellierung und Messung, Preprint zum CO2-Kolloquium der DECHEMA in Frankfurt/Main am 11.10.2001

[21] T. E. Graedel, Paul J. Crutzen, Chemie der Atmosphäre, Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1993, S. 414

[22] IPCC, Climate Change 2001, Chap.  1.2.1 Natural Forcing of the Climate System

[23] J. T. Kiehl, K. E. Trenberth, Bull. Amer. Meteor. Soc., 78 (1997) 197

[24] IPCC, Climate Change 1994, Radiative Forcing of Climate Change and Evaluation of the IPCC IS92 Emission Scenarios, Cambridge University Press, S. 174

[25] IPCC, Climate Change 2001, Working Group I: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panal on Climate Change, Chap. 7.2.1.1

[26] H. Hug, Energy & Environment, 11, 631, (2000)

[27] N. D. Coggeshall and E. L. Saier, J. Chem. Phys., 15, 65, (1947), Fig. 1

[28] Matthias Otto, Analytische Chemie, Wiley-VCH Verlag, Weinheim (2000), S. 280 ff

[29] S. Solanki, M Schüssler, M Fligge, Nature, 408 (2000) 445

[30] I. G. Usoskin, S. K. Solanki, M. Schüssler, K. Mursula, K. Alanako, Phys. Rev. Let., 91 (2003) 211101-1

[31] Rundgespräche der Kommission für Ökologie, Klimawandel im 20. und 21. Jahrhundert: „Welche Rolle spielen Kohlendioxid, Wasser und Treibhausgase wirklich?“ Bayerische Akademie der Wissenschaften, Verlag Dr. Friedrich Pfeil, Müchen, April 2005, S. 93

[32] Wasserdampfgraphik nach H. Flohn, BdW 12/1978, S. 132

[33] U. Cubasch, Phys. Bl. 51 (1995) 269

[34] H. Hug, Die Angsttrompeter, Signum Verlag, München, 2006, S. 227

[35] Privatmitteilung Jack Barrett, 2001 und 2012

[36] E. Raschke et al., Chemische Rundschau, 23. Okt., S. 9 (1998)

[37] http://www.davidarchibald.info/papers/Failure%20To%20Warm.pdf

[38] Stephen McIntyre, Ross McKitrick, Geophysical Research Letters, Vol. 32, L03710, 5PP., 2005

[39] Henrik Svensmark, A&G, February 2007, Vol. 48, p 1.18

Heinz Hug, für EIKE; Wiesbaden August 2012

Related Files




PIK Potsdam-Institut et al. fluten mal wieder die Welt!

Besonders „bedroht“ sind, so der Tenor, angeblich die Küsten des „Klima-Sünders“ USA, wobei vielleicht der Wunsch denen „mal Beine“ zu machen, die Feder geführt haben mag.

SPON schreibt: Neue Prognose Meeresspiegel legt trotz Klimaschutz stark zu

Selbst wenn sich die Welt sofort auf ernsthafte Klimaschutzziele verständigen würde, stiege der Meeresspiegel noch jahrzehntelang weiter. Das zeigt eine neue Langzeitprognose. Eine weitere Studie sieht US-Metropolen wie New York und Boston überdurchschnittlich stark von Hochwasserlagen betroffen. mehr… [ Video |Forum ]

…seltsam ist nur ;

gerade an den US-Küsten stagnieren die Pegel seit Jahren:

Details zum Bild hier

Allerdings  –  auch BILD macht sich aktuelle Sorgen um die Zukunft:

Von uns und unseren Nachbarn:

 

Aber Spaß beseite, dass an diesem wissenschaftlich verbrämtem Hokuspokus nichts dran ist haben wir und andere Blog schon mehrfach belegt, z.B. hier oder hier oder hier

Und nochmals wegen des Ernstes der Sache.

Diese „wissenschaftliche“ Studie und deren Kolportierung in den Medien- wenn auch unter ferner liefen-  ist eine alte Masche, die aber immer wieder zu funktionieren scheint. Sie zeigt das verbissene Bestreben der Verantwortlichen das Angstpotential der Öffentlichkeit am Köcheln zu halten und sei es auch unter Inkaufnahme des völligen Vertrauensverlustes in die Wissenschaft. Wie weit dieser schon voran geschritten ist, zeigen z.B. diese Beiträge hier und hier und hier.

Gerade wird aus Großbritannien gemeldet dass dort der Glaube an einen menschengemachten Klimawandel rapide im Schwinden begriffen ist, in Deutschland dürfte es nicht anders sein

Es wird daher höchste Zeit die Frage zu stellen und zu beantworten, ob mit Steuergeldern bezahlte Forscher, wie die des PIK, nicht minimalen wissenschaftlichen Qualitätskriterien und Mindest-Standards genügen müssen, wollen sie ihren Anspruch auf öffentliche Finanzierung behalten. Wahrsagerei gehört mit Sicherheit nicht dazu, auch dann nicht, wenn sich das Ziel der gezielten Angstmache mit dem der Verteiler dieser Steuermittel deckt. Die grundgesetzlich garantierte Freiheit der Wissenschaft darf nicht länger für pseudowissenschaftliche Wahrsagerei missbraucht werden.

K-E. Puls, M. Limburg EIKE




Gibt Klimalarmist Hansen von der NASA auf? Antwort von Bob Tisdale auf Hansen Artikel: Das Spiel ist aus!

Datum: 11. Mai 2012

Betreff: New York Times Op-Ed* mit dem Titel “Game Over for the Climate” [etwa: Das Klima hat verloren!”]

[*Besonders in den USA gibt es seit Ende der 30er Jahre des 20. Jahrhunderts die gepflegte Institution des Opposite Editorial (kurz: Op-Ed). Dieses beinhaltet Kommentare von Kolumnisten, die oft bewusst von der Redaktionslinie abweichen. Ursprünglich kommt der Ausdruck daher, dass im Zeitungsdruck diese Meinungsartikel den Herausgeber-Editorials gegenübergestellt waren. Quelle: Wikipedia. A. d. Übers.]

Von: Bob Tisdale

An: James Hansen – NASA GISS

Hallo James:

Ich bin gerade mit der Lektüre deines Meinungsartikels fertig, die in der gestrigen Ausgabe der New York Times erschienen war. Der Titel „Game Over for the Climate“ hat mir so gut gefallen, dass ich mir überlege, den Titel meines Buches in ähnlicher Weise zu ändern, etwa so: „Game Over for the Manmade Global Warming Scare.” [Etwa: „Das Spiel mit der Angst vor der menschengemachten globalen Erwärmung ist aus“]. Ja. Das klingt richtig gut. Danke für die Idee. Ich muss noch herausfinden, wie schwierig es ist, den Titel der Kindle-Edition zu ändern. Während ich mich an dem Titel erfreute, zeigt der Inhalt Ihrer Meinung, dass Sie immer noch die Hoffnung hegen, jene zu erreichen, die naiv genug sind, Ihrer Behauptung Glauben zu schenken, dass CO2 für den jüngsten Schub der globalen Erwärmung verantwortlich ist. Ich hoffe, Sie verstehen, dass viele, viele Menschen von Ihrer Meinung abgefallen sind und sie mangelhaft finden.

Das Internet wurde zum primären Medium bei Diskussionen der anthropogenen globalen Erwärmung, was Sie sicher auch mitbekommen haben. Sie haben Ihren eigenen Blog. Ihr Mitarbeiter am Goddard Institute for Space Studies Gavin Schmidt ist einer der Gründer des einst formidablen Blogs RealClimate. Was Sie möglicherweise nicht mitbekommen haben – einer der anderen Beitragsschreiber bei RealClimate, Rasmus Benestad, hat vor Kurzem in einem Beitrag seinem Gefühl Ausdruck verliehen, dass alle Arbeit dort umsonst gewesen sein könnte:

„Wenn die Auffassung jedoch korrekt ist, dass Informationen wenig Einfluss haben, kann man sich nach dem Sinn fragen, den eine Debatte über Klimaänderung haben soll, und warum bestimmte Organisationen so große Mühen gegen die Leugnung aufwenden, wie es in Büchern wie Heat is on, Climate Cover-up, Republican war on science, Merchants of doubt, und The Hockeystick and Climate Wars beschrieben worden ist. Warum würde es dann solche Dinge wie ‚das Heartland Institute’, ;NIPCC’, climateaudit, WUWT, climatedepot und FoS geben, wenn diese keinen Einfluss hätten? Und auch die Berichte des IPCC und der National Academy of Sciences? Man könnte sich sogar fragen, ob die Mühe, die wir uns bei RealClimate gegeben haben, vergeblich war.“

Ich kann die Zweifel von Rasmus Benestad verstehen, wenn bei einer Website, die der anthropogenen globalen Erwärmung skeptisch gegenübersteht, nämlich WattsUpWithThat, seit 2008 immer mehr Leser vorbeischauen, während RealClimate ins Schwimmen kommt. Das Web-Informationsunternehmen Alexa zeigt, dass die Anzahl der täglichen Zugriffe auf WattsUpWithThat seit Mai 2008 diejenigen bei RealClimate übertroffen hat. Und während der letzten 6 Monate konnte Alexa die Site RealClimate nicht mehr listen, weil der Prozentanteil einfach zu tief gefallen ist. Andererseits haben die täglichen Aufrufe von WattsUpWithThat erheblich zugenommen, und inzwischen ist diese Site zur meistgelesenen Website hinsichtlich globaler Erwärmung und Klimaänderung geworden.

James, während der letzten 30 Jahre oder noch länger haben Sie eine globale Temperaturaufzeichnung erzeugt mit der Bezeichnung GISS Land-Ocean Temperature Index. Er zeigt eine Erwärmung der Oberflächentemperatur seit 1880. Obwohl es einige Probleme mit diesem Datensatz gibt, über die wir reden müssen, ist das etwas, worauf Sie stolz sein können. Aber während dieser 3 Jahrzehnte haben Sie auch Klimamodelle entwickelt und programmiert mit der Festlegung, dass allein anthropogene Treibhausgase für diese Erwärmung verantwortlich waren. Diese Modelle sind mit Dutzenden anderer in den Archiven des IPCC für deren Berichte enthalten. Unglücklicherweise hatten Ihre Bemühungen mit Klimamodellen sowie die Bemühungen anderer Modellierungsgruppen keinen Erfolg. Bei weitem nicht. Und da Ihre Ansichten auf den Ergebnissen Ihrer Klimamodelle basieren, muss man daraus schließen, dass Ihre Ansichten genauso falsch sind wie die Modelle.

Ich bin einer der unabhängigen Forscher, die die auf Messungen basierenden Temperaturaufzeichnungen studieren und dann mit den Ergebnissen der vom IPCC benutzten Klimamodelle vergleichen, die diese Temperaturen simulieren sollen. Andere Forscher und ich selbst verstehen zwei einfache und grundlegende Tatsachen, die unzählige Male auf Blogs wie WattsUpWithThat präsentiert worden sind. Vergessen Sie nicht, dass WattsUpWithThat täglich eine breite Öffentlichkeit erreicht, so dass jeder, der an globaler Erwärmung und Klimaänderung interessiert ist und sich die Zeit nimmt, die Beiträge zu lesen, diese beiden einfachen Tatsachen ebenfalls versteht.

Tatsache eins: Die instrumentenbasierte Aufzeichnung der globalen Temperatur seit 1901 und deren IPCC-Modellsimulationen bestätigen die Hypothese der anthropogenen globalen Erwärmung nicht; sie widersprechen ihr.

Die im 4. Zustandsbericht des IPCC verwendeten Klimamodelle zeigen, dass sich die Temperaturen während der letzten Erwärmungsperiode von 1976 bis 2000 2.9 mal schneller erwärmt haben sollten als während der früheren Erwärmungsperiode von 1917 bis 1944. Die Simulationen der Klimamodelle werden durch Klimaantriebe bestimmt, einschließlich des anthropogenen CO2, die logischerweise während der späteren Erwärmungsphase eine höhere Rate zeigen. Die beobachteten, instrumentenbasierten Erwärmungsraten der beiden Erwärmungsphasen zeigen dagegen etwa die gleiche Rate.

James, falls die Annahme, mit der Sie hausieren gehen, auf festen Füßen stehen würde, hätten das menschliche CO2 und andere anthropogene Treibhausgase die Oberfläche unseres Planeten in den letzten Jahrzehnten viel stärker erwärmen müssen, aber das haben sie nicht. Mit anderen Worten, es gibt kaum Beweise, dass das von Ihnen in Ihrem Op-Ed dämonisierte CO2 überhaupt irgendeine Auswirkung darauf gehabt hätte, wie stark die globale Temperatur gestiegen ist. Wir unabhängigen Klimaforscher haben das schon seit Jahren gewusst. Es taucht immer wieder auf, so oft, dass man in der gesamten Blogosphäre schon Witze darüber reißt.

Einige unabhängige Forscher haben sich Zeit genommen zu zeigen, wie wenig Klimamodelle die Erwärmungs- und Abkühlungsraten seit Beginn des 20. Jahrhunderts simulieren können. Wir tun das, damit Menschen ohne fachliches Hintergrundwissen besser verstehen können, wie sehr das Fundament der Hypothese von der anthropogenen globalen Erwärmung falsch ist. Ich habe das erneut in einem zweiteiligen Beitrag im Dezember 2011 wieder aufleben lassen (hier und hier), die beide auf WattsUpWithThat gepostet worden waren. Ich habe zahlreiche Beiträge darüber seit Dezember mit unterschiedlichen Datensätzen veröffentlicht: Wassertemperatur, Temperatur auf dem Festland und die Kombination beider Datensätze. Ich habe so viele Beiträge veröffentlicht, die zeigen, wie wenig die IPCC-Klimamodelle die Temperaturen der Vergangenheit abbilden, dass ich sie hier nicht alle verlinken kann. In den Beiträgen ging es auch um neue und verbesserte Klimamodelle, die für den bevor stehenden 5. IPCC-Zustandsbericht vorbereitet worden sind. Tut mir leid, aber sie zeigen keine Verbesserung.

Tatsache zwei: Natürliche Prozesse sind für den größten Teil, wenn nicht für die gesamte Erwärmung während der letzten 30 Jahre verantwortlich, einer Erwärmung, die Sie immer noch als Beweis für die Auswirkungen von Treibhausgasen anführen.

In Ihrem Meinungsartikel erwähnten Sie die Vorhersagen, die Sie in Science bereits im Jahre 1981 gemacht hatten. Zufälligerweise haben in jenem Jahr Satellitenmessungen der Wassertemperatur der globalen Ozeane begonnen. Diese Satelliten decken die Messung der globalen Wassertemperatur viel besser ab, von Pol zu Pol. Sie verwenden einen auf Satelliten basierenden Datensatz als einen der Quellen zur Ermittlung der Wassertemperatur für den GISS Land-Ocean Temperature Index (LOTI). Dieser NOAA-Datensatz der Wassertemperatur ist bekannt unter der Bezeichnung Reynolds OI.v2. Es ist der gleiche Datensatz, den ich benutzt habe, um zu illustrieren, dass es natürliche Prozesse und nicht Treibhausgase sind, die für die Erwärmung der globalen Ozeane seit 1981 verantwortlich sind. Da Landmessungen einfach verfügbar sind und Änderungen der Wassertemperatur nachahmen und viel deutlicher sichtbar machen, hat die von Ihnen propagierte Hypothese ein ernstes Problem. Die beobachtungsbasierten Daten widersprechen einmal mehr den Klimamodellen.

Ich bin einer der sehr wenigen Forscher zur globalen Erwärmung, der die Daten der Wassertemperatur und die Prozesse in Verbindung mit der natürlichen Klimaviariabilität studiert, genannt El Niño-Southern Oscillation oder ENSO. ENSO ist ein Prozess, der von vielen Klimawissenschaftlern unterschlagen wird, wenn sie lineare Regressionsanalysen verwenden, um ein ENSO-Signal aus den Aufzeichnungen der globalen Temperatur zu entfernen. Diese Unterschlagungen garantieren irreführende Resultate in einigen klimawissenschaftlichen Studien.

ENSO ist ein natürlicher Prozess, den Sie und Ihre Mitarbeiter beim GISS in vielen, auf Klimamodellen basierenden Studien, die Sie veröffentlichen, außen vor lassen – weil, wie Sie anmerken, Ihr „grob auflösendes Ozeanmodell nicht in der Lage ist, Klimavariationen in Zusammenhang mit ENSO-Prozessen zu simulieren“ (hier). Tatsächlich gibt es beim IPCC kein einziges Modell, das die Häufigkeit, Magnitude und Dauer von El Niño- und La Niña-Ereignissen abbilden kann. Und ich kenne keine wissenschaftliche Studie, die zeigt, dass auch nur ein einziges Klimamodell in der Lage ist, alle fundamentalen gekoppelten Ozean-Atmosphäre-Prozesse in Zusammenhang mit ENSO zu simulieren.

Wenn Klimamodelle nicht in der Lage sind, ENSO zu simulieren, dann enthalten sie nicht einen sehr grundlegenden Prozess von Mutter Natur, dazu gedacht, die Verteilung von Wärme aus den Tropen zu den Polen zu beschleunigen oder verlangsamen. Als Folge davon schließen die Modelle die Variationen aus, mit denen der tropische Pazifik natürlich erzeugte Wärme an die Atmosphäre abgibt und diese innerhalb der Ozeane verteilt, und diese Klimamodelle schließen auch die variierende Rate aus, mit der ENSO für Fernwirkungen bzgl. der Erwärmung in Gebieten sorgt, die weiter entfernt vom tropischen Pazifik liegen.

Klimawissenschaftler müssen damit aufhören, ENSO als Rauschen anzusehen, James! Der ENSO-Prozess fungiert als eine Quelle natürlich erzeugter und gespeicherter thermischer Energie, die abgeleitet, umverteilt und wieder neu angesammelt wird. Weil diese drei Funktionen (Ableitung, Umverteilung und Neuansammlung) alle variieren (siehe Note 1), variieren die Einflüsse von ENSO auf das globale Klima auf jährlicher, vieljähriger und multidekadischer Basis, wenn Frequenz, Magnitude und Dauer von El Niño-Ereignissen diejenigen von La Niña überkompensieren, was zu einer größeren Wärmeabgabe als normal aus dem tropischen Pazifik in die Atmosphäre führt, die dann innerhalb der Ozeane umverteilt wird. Und das Gegenteil geschieht, d. h. die Erde kühlt sich ab, wenn La Niña-Ereignisse über einen multidekadischen Zeitraum El Niño dominieren. Es ist kein Zufall, dass genau dies seit 1917 so abgelaufen ist.

Note 1: El Niño-Ereignissen (dem Abstrahlungsmodus) folgen nicht immer La Niña-Ereignisse (der Ansammlungsmodus). Sowohl El Niño als auch La Niña-Ereignisse können in einer Folge gleichphasiger Ereignisse auftreten, wie es bei den El Niño-Ereignissen 2002/2003, 2004/2005 und 2006/2007 der Fall war. El Niño und La Niña-Ereignisse können auch länger als ein Jahr dauern und mehrere ENSO-Zeiten überdecken, wie z. B. der El Niño von 1986/1987/1988 und das La Niña von 1998/1999/2000. Wenn auf ein starkes El Niño-Ereignis ein La Niña folgt, wie es nach dem Ereignis von 1986/1987/1988 der Fall war, ist sehr offensichtlich, dass zwei Teilphänomene von ENSO zusammen agieren und das warme Wasser umverteilen, das von einem El Niño übrig geblieben ist. Die Folgen dieser kombinierten Auswirkungen sind tatsächlich bei den Aufzeichnungen der Wassertemperatur nur schwer zu übersehen.

Die Temperaturdaten der Satellitenära zeigen, dass ENSO und nicht Kohlendioxid für die Erwärmung der globalen Ozeane in den oberen Schichten während der letzten 30 Jahre verantwortlich ist, wie früher schon angemerkt. Es zeigt, dass die Auswirkungen eines La Niña nicht einfach das Gegenteil von denen eines El Niño sind. Wenn auf starke El Niño-Ereignisse La Niña folgen, deuten die satellitengestützten Daten der Wassertemperatur in der Tat darauf hin, dass beide zusammen agieren und einen Anstieg der Anomalien der Wassertemperatur im Atlantischen sowie dem Indischen und dem westlichen Pazifischen Ozean verursachen können. Und da sich der östliche Pazifische Ozean seit 30 Jahren nicht erwärmt hat, sind diese ENSO-induzierten Anstiege bei den Daten aus dem Atlantik, dem Indik und dem Westpazifik für nahezu die gesamte Erwärmung der Wassertemperatur während der letzten 3 Jahrzehnte verantwortlich.

Ich habe diese ENSO-verursachten Anstiege seit mehr als drei Jahren präsentiert und illustriert. Ich habe die Daten geplottet, habe den ENSO-Prozess diskutiert und animiert, und zwar mit Hilfe zahlreicher Datensätze: Wassertemperatur, Meeresspiegel, Meeresströmungen, ozeanischer Wärmegehalt, tiefengemittelte Temperatur, Warmwasservolumen, Luftdruck auf Meereshöhe, Wolkenmenge, Niederschlag, Stärke und Richtung der Passatwinde usw. Und da die Wolkenmenge im tropischen Pazifik die einfallende kurzwellige Strahlung (sichtbares Licht) beeinflusst, habe ich auch diese Beziehung präsentiert und diskutiert. Die mit diesen Variablen zusammenhängenden Daten bestätigen für meine Leser allesamt, wie die ENSO-Prozesse funktionieren. Sie zeigen und behandeln auch, wie diese Anstiege durch ENSO-Prozesse verursacht werden. Ich habe zu ENSO so viele Beiträge geschrieben, dass ich sie hier nicht alle verlinken kann. Eine sehr gute Übersicht gibt es hier, oder man zieht es vor, die zusätzlichen Kommentare zu lesen auf diesem Beitrag bei WattsUpWithThat.

James, Sie sind sehr herzlich eingeladen, die Suchfunktion auf meiner Website zu nutzen, um die Prozesse von ENSO zu studieren. In aller Bescheidenheit muss ich sagen, dass es dort eine Fülle von Informationen gibt. Ich habe die gleichen Informationen in meinem Buch If the IPCC was Selling Manmade Global Warming as a Product, Would the FTC Stop their deceptive Ads? zusammengestellt. Vielleicht bevorzugen Sie das Buch, dann haben Sie eine kompakte Quelle detaillierter Besprechungen, die in diesem Memo angesprochen werden. Darin wird auch illustriert und diskutiert, wie die vom IPCC im 4. Zustandsbericht verwendeten Klimamodelle den globalen Temperaturverlauf seit 1901 nicht reproduzieren können. Verwendet man diese IPCC-Klimamodelle in einer anderen Gruppe von Vergleichen zeigen sich keine irgendwie gearteten Ähnlichkeiten zwischen der Erwärmung der Wassertemperatur in individuellen Ozeanbecken während der letzten 30 Jahre und wie sich die Wassertemperatur erwärmt haben sollte, falls man das CO2 als alleinige Ursache heranzieht. Eine Übersicht von meinem Buch findet sich im oben verlinkten Beitrag. Bei Amazon gibt es auch eine Kindle-Vorschau, die von der Einführung bis zu einem großen Teil von Abschnitt 2 reicht. Das sind die ersten 15% meines Buches. Beziehen Sie sich auch auf die Einführung, das Inhaltsverzeichnis und den Schluss als .pdf hier. Mein Buch richtet sich an alle mit wenig Hintergrundwissen, so dass jemand wie Sie mit viel Hintergrundwissen bzgl. der Klimawissenschaft leicht in der Lage sein dürfte, das Gesagte zu verstehen.

Abschließend möchte ich noch sagen, dass ich in gewisser Weise überrascht war, Ihren Artikel in der New York Times vom 10. Mai 2012 zu lesen. Ich hatte im zweiten Teil meines Memo vom 21. August 2011 an Sie und Makiko Sato dargelegt, dass ENSO und nicht Kohlendioxid für den jüngsten 30-jährigen Anstieg der globalen Wassertemperatur verantwortlich ist. Dieses Memo können Sie nicht gelesen haben. Hoffentlich lesen Sie dieses hier.

Mit freundlichen Grüßen

Bob Tisdale

Link: http://wattsupwiththat.com/2012/05/12/tisdale-an-unsent-memo-to-james-hansen/

Übersetzt von Chris Frey EIKE




Stellvertreter(Proxy-) Methodik führt zu Pseudowissenschaft

Doch es gibt auch andere Wissenschaftler, die sowohl Baumringe, Sedimentschichtarten und -dicken oder das Mischungsverhältnis von verschiedenen atmosphärischen Isotopen zur Proxy-Temperaturbestimmung verwendet haben. Sie wollten weder betrügen, noch haben sie das getan. Ihre Veröffentlichungen sind zahlreich und werden tlw. im folgenden Beitrag von Pat Frank aufgelistet und bewertet. Und zwar nach der entscheidenden Frage bewertet:

Wie gut, bzw.wie genau lässt sich ein Temperaturverlauf aus Poxydaten rekonstruieren?

Wie kann man die Rohdaten kalibrieren? Was hängt wovon ab? Wie hoch ist die nicht zu unterschreitende Fehlermarge?

Um es kurz zu machen: Sein Urteil ist bis auf eine Ausnahme sehr negativ. Lesen Sie warum:

Proxy-Wissenschaft und Proxy-Pseudo-Wissenschaft    

Es ist bekannt, dass die weithin veröffentlichte Proxythermometrie seit 1998 [1] unwissenschaftlichist, und dies ganz besonders, seit Steve McIntyre und Ross McKitrick aufdeckten, dass sie auf absichtsvoller reiner statistischer Numerologie beruht. Vor einiger Zeit diskutierte ich hier auf WUWT mit Michael Tobis über die Unwissenschaftlichkeit der Proxy-Paläothermometrie. Es begann mit Michaels Kommentar hier und meiner Antwort dort. Michael berief sich bald auf seine Autoritäten auf Planet3.org. Wir hatten einen netten Gedankenaustausch, der damit endete, dass der Moderator und Mitstreiter Arthur Smith fälschlicherweise Zensur ausübte, weil er glaubte, eine Beleidigung zu erkennen. (Für starke Nerven: hier ist der Kommentar in voller Länge zu finden)

Immerhin, zwei hiesige Experten in Proxythermometrie kamen Michael zu Hilfe: Kaustubh Thimuralai, graduiert im Fach Proxy-Klimatologie an der Universität von Austin, Texas, und Kevin Anchukaitis, Dendroklimatologe an der Columbia Universität. Kaustubh hat seine Verteidigung auf seinem eigenen Blog veröffentlicht.

Ihre Argumentation hatte eines gemeinsam: eine ausschließliche Berufung auf stabile Isotopen-Temperatur-Proxys – sie sagten kein Wort zur Verteidigung der Baumring-Thermometrie, welche die große Menge der Paläo-Temperatur-Rekonstruktionen darstellt.

Die Unwissenschaftlichkeit der veröffentlichten Paläothermometrie wurde durch die Tatsache belegt, dass sie auf deren Kernbereich mit den Baumringen überhaupt nicht verteidigten; anders gesagt: "Verurteilung durch Verschweigen".

Auch fanden sie kein Wort der Verteidigung dafür, dass die Physik durch Statistik ersetzt wird, was nahezu durchgängig in der Paläothermometrie geschieht.

Aber ihre Berufung auf die Thermometrie mit stabilen Isotopen-Proxys gibt Anlass zu einer Überprüfung. Das möchte ich hier nun tun: eine Analyse der Temperatur-Rekonstruktion aus stabilen Isotopen-Proxys durchführen, anschließend einen kurzen Abriss der Dendrothermometrie geben. 

Soweit die einleitenden Worte von Dr. Pat Frank. Unseren Lesern schon bekannt durch seine Fehlerbetrachtungen der Zeitreihe der globalen Mitteltemperatur (hier) und (hier)

Im (sehr ausführlichen) Aufsatz (hier im Original) erläutert Frank nun im 1. Teil sehr ausführlich die Möglichkeiten und Grenzen der Temperaturbestimmung aus Isotopenverhältnissen mittels bekannter Analysemethoden. Nach gründlicher Prüfung aller anderen Methoden, erkennt Frank dieses Verfahren als einziges an, welches -einigermaßen- eine verlässliche Temperaturbestimmung erlaubt. Allerdings hat auch diese Verfahren seine Grenzen, die sich in breiten Fehlermargen äußern. Es sind eben trotzdem keine Präzisionsthermometer sondern Stellvertreter.

Wer will kann das im anhängenden pdf Beitrag nachlesen. Wir bringen in dieser News nur sein Resumée. Darin wendet Frank die zuvor erarbeiteten Erkenntnisse auf veröffentlichte Berichte und Proxymethoden an. 

Teil II: Pseudo-Wissenschaft: Statistische Thermometrie

Nun zu den veröffentlichten typischen Proxy-Paläotemperatur-Rekonstruktionen. Ich habe mich mit einem repräsentativen Satz von acht hochrenommierten Studien beschäftigt und wissenschaftliche Belege gesucht. Mit Belegen meine ich, ob die Studien sich auf die Theoretische Physik berufen.

Kurzfassung: keine davon kann im Sinne der Theoretischen Physik Gültigkeit beanspruchen. Keine davon zeigt eine Temperatur.

Bevor ich weitermache, ist ein Wort zu „Korrelation und Verursachung“ fällig. Michael Tobis hat darüber geschrieben, “Wenn zwei Signale korreliert sind, dann enthält jedes Signal Information über das andere. Mehr zu behaupten ist einfach nur dumm.”

Davon gibt es eine Menge in der Proxythermometrie. Eine Klarstellung ist Pflicht. John Aldrich beschrieb in einem schönen Papier [16] die Schlacht zwischen Karl Pearson und G. Udny Yule wegen: „Korrelation deutet auf Verursachung hin“. Pearson glaubte das, Yule nicht.

Auf Seite 373 macht Aldrich eine sehr bedeutende Unterscheidung: “Statistische Folgerungen sind Folgerungen aus Stichproben auf die Gesamtbevölkerung. Wissenschaftliche Folgerungen zielen auf Erkenntnisse über die Bevölkerung im Sinne einer theoretischen Struktur.”

Im Klartext: Statistik beschäftigt sich mit Beziehungen zwischen Zahlen. Wissenschaft beschäftigt sich mit Schlussfolgerungen aus falsifizierbaren Theorien.

Wir werden sehen, dass die unten erwähnten Proxy-Studien unzulässigerweise beide Kategorien vermischen. Sie konvertieren richtige Statistik in falsche Wissenschaft.

Um diesen Punkt noch zuzuspitzen, verweise ich auf einige schöne Beispiele von falschen Korrelationen. Und hier sind die Gewinner des Wettbewerbs von 1998 an der Purdue University wegen falscher Korrelationen: Dabei waren [so abwegige] Korrelationen wie die zwischen dem Absatz von Speiseeis und Ertrunkenen, zwischen Ministergehältern und dem Wodkapreis. Pace Michael Tobis sagte dazu, dass jede der Korrelationen “Signale” korrelierte, die offensichtlich Informationen über den dazu in Beziehung gesetzten Sachverhalt enthielten. Mit meiner Ironie hoffe ich, das Thema abschließend behandelt zu haben.

Diaz und Osuna [17] weisen auf den Unterschied “zwischen Alchemie und Wissenschaft hin … , der darin besteht, dass (1) streng getestete Modelle spezifiziert sind, die (2) hinreichend die verfügbaren Daten beschreiben, (3) überlieferte Erkenntnisse berücksichtigen und (4) von wohlbegründeten Theorien abgeleitet sind.“ (Hervorhebung durch den Autor)

Eine verursachende Bedeutung in einer Korrelation kann nur im deduktiven Kontext einer falsifizierbaren Theorie erkannt werden, die die Korrelation erwartet. Statistik (induktives Schlussfolgern) kann niemals alleine eine Verursachung offen legen.

Für die Klimawandel-Paläo-Proxythermometrie wird gezeigt werden, dass die Diaz und Osuna Elemente 1, 3, 4 für wahre Wissenschaft fehlen. Das macht sie zur Alchemie, auch als Pseudo-Wissenschaft bekannt.

Also zunächst zur Klimawandel Paläo-Proxythermometrie:

1. Thomas J. Crowley und Thomas S. Lowery (2000) “How Warm Was the Medieval Warm Period?.” [18]

Fünfzehn Zeitreihen werden benutzt: drei dO-18 (Keigwins Sargasso-See Proxy, GISP 2, und die Dunde Eiskappen-Zeitreihe), acht Baumring-Zeitreihen, die Zeitreihe der Temperatur von Mittelengland (CET), eine Temperatur-Zeitreihe von Island (IT) und zwei Proxies mit Pflanzenwachstum (China Phänologie und Michigan Pollen).

Alle fünfzehn Reihen sind zwischen 0 und 1 skaliert und dann gemittelt. Es besteht eine völlige Vernachlässigung der Bedeutung der fünf physikalisch gültigen Reihen. (3 x dO18, IT und CET). Alle sind auf die gleiche physikalisch bedeutungslose Begrenzung einer Einheit skaliert.

Man bedenke, was das heißt: Crowley und Lowry haben fünf physikalisch bedeutungsvolle Reihen ausgewählt und dann die Physik nicht betrachtet. Nur dadurch konnten die Reihen für die Verwendung in der Klimawandel- Proxythermometrie geeignet gemacht werden.

Es gibt keine physikalische Theorie, um Baumringmessungen in Temperaturen umzusetzen. Angesicht der Nicht-Existenz einer derartigen Theorie bleiben jegliche exakten Beziehungen völlig im Dunkeln.

Wie aber haben Crowley und Lowery ihre auf Einheiten skalierten Proxy-Mittelwerte in Temperaturen konvertiert? Nun denn: “Die beiden Gesamtheiten wurden so skaliert, damit sie mit den Temperaturmessdaten der Nordhalbkugel von Jones et al. übereinstimmten …“. So einfach ist das.

Kurz gesagt, die fünfzehn Reihen wurden numerisch auf eine gemeinsame Skala adjustiert, gemittelt und größenmäßig an die gemessenen Temperaturen angepasst. Schließlich geben Crowley und Lowry noch eine Auflösung von (+/-)0.05 C für ihre Temperaturen an. Messunsicherheiten bei den physikalisch wahren Zeitreihen wurden im Schlussergebnis ignoriert. So sieht Wissenschaftlichkeit in der Klimawandel-Proxythermometrie aus.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Erklärung: Keine.

Physikalische Gültigkeit: Keine.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

2. Timothy J. Osborn und Keith R. Briffa (2006) The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years.” [19]

Vierzehn Proxies – elf davon Baumringe, einer dO-18-Eisbohrkern (West-Grönland) – geteilt durch ihre jeweilige Standardabweichung, um eine einheitliche Größenordnung zu erzeugen. Dann werden sie auf die Instrumentenmessdaten skaliert. Die physikalische Bedeutung des dO-18 – Eisbohrkerns ist nicht betrachtet und dessen experimentelle Unsicherheit wird nicht beachtet.

Interessanterweise zeigte der zusammengesetzte Proxy zwischen 1975 und 2000 gegenüber den Instrumentenmessdaten eine Abnahme. Osborn und Briffa verheimlichten den Niedergang nicht, das muss ihnen hoch angerechnet werden. Sie schrieben aber, dass diese Nicht-Bestätigung eine, “Folge des zu erwartenden Rauschens in den Proxy-Aufzeichnungen wäre.”

Ich habe das “Rauschen” abgeschätzt, indem ich die Verfälschung in Bezug auf die Temperaturaufzeichnung verglich, sie beträgt etwa 0.5 C. Es ist auf der grafischen Darstellung von Osborn und Briffa nicht als Unsicherheit dargestellt. Tatsächlich haben beide künstlich die Mittelwerte der Proxy-Reihen von 1856-1995 mit den Oberflächen-Temperatur-Messdaten vermischt, um den Proxy wie eine Temperatur aussehen zu lassen. Die 0,5 C „Rausch“-Abweichung ist unterdrückt und sieht sehr viel kleiner aus, als sie tatsächlich ist. Wären die tatsächlichen 0.5 C “Rausch-” Fehlerbalken auf die Temperaturkurve ihrer abschließenden Grafik skaliert worden, wäre der ganze Versuch auf theatralische Weise geplatzt, abgesehen davon, dass das nichts mit Wissenschaft zu tun hat.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Unsicherheit in T: keine.

Physikalischer Wert: keiner.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

3. Michael E. Mann, Zhihua Zhang, Malcolm K. Hughes, Raymond S. Bradley, Sonya K. Miller, Scott Rutherford, und Fenbiao Ni (2008) “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia.” [20]

Eine große Anzahl von Proxies vielfacher unterschiedlicher Längen und Herkunft. Darin: Eisbohrkerne, Speleothem, dO-18 von Korallen. Die Daten sind aber von den Baumringzeitreihen beherrscht.  Mann & Co. korrelieren die Reihen statistisch mit lokaler Temperatur während einer “Kalibrationsperiode”, passen sie auf eine gleiche Standardabweichung an, skalieren sie auf die Messdaten und veröffentlichen das Zusammengemischte mit einer Auflösung von 0.1 C (Figur 3). Auch ihre Methode betrachtet nicht die physikalische Bedeutung der dO-18-Proxys verwirft sie.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja!

Physikalische Unsicherheit bei der Temperatur dargestellt: keine.

Physikalischer Wert: keiner.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

4. Rosanne D’Arrigo, Rob Wilson, Gordon Jacoby (2006) “On the long-term context for late twentieth century warming.” [21]

Drei Baumring-Zeitreihen von 66 Standorten, die Varianz adjustiert, auf die Instrumenten-Messdaten skaliert und mit einer Auflösung von 0.2 C veröffentlicht (Figur 5 C).

Abstützung auf ein physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalisch gültige Temperatur-Unsicherheiten: keine

Physikalische Erklärung der Unterteilungen in 0.2 C: keine.

Physikalische Erklärung der Baumringtemperaturen: keine zu sehen.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

5. Anders Moberg, Dmitry M. Sonechkin, Karin Holmgren, Nina M. Datsenko und Wibjörn Karlén (2005) “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data.” [22]

Achtzehn Proxies: Zwei d-O18-Meeresoberflächen-Temperaturen (Sargasso und Karibik-Foraminifera-d-O18, ein Stalagmiten-d-O18 (Soylegrotta, Norway), sieben Baumring-Zeitreihen. Dazu weitere Zusammenmischungen.

Die Proxy sind mit einer aufregend neuen Wellen-Transformations-Methode behandelt (noch verbesserungsbedürftig), kombiniert, Varianz-adjustiert, stark auf die Messdaten während der Kalibrierungsperiode skaliert, mit einer Auflösung von 0.2 C veröffentlicht (Figur 2 D). Die Autoren folgten der Standardpraxis des Entfernens und Verwerfens der physikalischen Bedeutung der dO-18-Proxies.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Unsicherheiten aus den dO18 Proxies in die Schlusszusammenstellung übernommen? Nein.

Physikalische Erklärung der Unterteilungen in 0.2 C: Keine.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

6. B.H. Luckman, K.R. Briffa, P.D. Jones und F.H. Schweingruber (1997) “Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983.” [23]

Dreiundsechzig regionale Baumring-Zeitreihen, dazu 38 Reihen von fossilem Holz; Einsatz der standardmäßigen statistischen (nicht physikalischen) Kalibrations-Verifikationsfunktion für die Konversion von Baumringen in Temperatur, Überlagerung der Zusammenstellung mit den 1961-1990er Mittelwerten der Messdatenreihe, Veröffentlichung des Ergebnisses mit 0.5 C Auflösung (Figur 8). Im Text werden Anomalien angesprochen bis zu einer (+/-)0.01 C Auflösung (z. B. Tables 3 & 4), die mittleren Anomalien mit (+/-)0.001 C. Diese letztere behauptete Genauigkeit ist 10x höher als die typische Einstufung eines zwei-Punkte kalibrierten Platin-Widerstands-Thermometers unter dem Schutz angestrebter moderner kontrollierter Laborbedingungen.

Physikalische Theorie bei der Erklärung herangezogen?: Nein

Rein statistische Ableitung?: Ja

Physikalische Erklärung der Proxies: Keine.

Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

7. Michael E. Mann, Scott Rutherford, Eugene Wahl, and Caspar Ammann (2005) “Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate.” [24]

Diese Studie ist teilweise ein methodischer Überblick über die Wege zur Erzeugung einer Proxy-Paläo-Temperatur, wie sie von den das Fachgebiet beherrschenden Forschern empfohlen werden:

Methode 1: “Die composite-plus-scale (CPS) Methode. Sie besteht aus “einem Dutzend Proxy-Reihen, wobei von jeder angenommen wird, dass sie eine lineare Kombination von lokalen Temperaturänderungen und zusätzlichem Rauschen darstellt, die zusammengefasst (typischerweise mit dekadischer Auflösung;…) und skaliert werden gegen hemisphärische gemittelte Temperatur-Messdaten-Reihen während eines darüber gelegten „Kalibrierungs-“ Intervalls, um eine hemisphärische Rekonstruktion zu bilden. (Hervorhebung von mir)

Methode 2, Climate Field Reconstruction (CFR): “Unsere Umsetzung des CFR Ansatzes benutzt die „regularized expectation maximization (RegEM)“-Methode (Regulierte Erwartungsmaximierung) von Schneider (2001), die für CFR in vielen jüngeren Studien angewandt wird. Die Methode gleicht den auf der „principal component analysis (PCA)“ beruhenden Ansätzen, sie setzt aber eine iterative Schätzung der Daten-Co-Varianzen ein, um die verfügbare Information besser ausnutzen zu können. Wie schon bei Rutherford et al. (2005) haben wir getestet: (i) die direkte Anwendung der RegEM, (ii) einen Ansatz der “hybrid frequency-domain calibration”, der unterschiedliche Kalibrierungen von Komponenten mit Perioden von hoher Zeitfrequenz (Periode kürzer als 20 Jahre) und solchen mit niedriger Zeitfrequenz (Periode länger als 20 Jahre) der jährlichen Mittelwerte, die anschließend zusammengesetzt werden, um eine einzige Rekonstruktion zu bilden, (iii) eine “schrittweise” Version der RegEM, wobei die Rekonstruktion selbst stärker benutzt wird, um die älteren Segmente nacheinander zu kalibrieren.” (Hervorhebung von mir)

Zur Wiederholung des Offensichtlichen:

CPS: wird als repräsentativ für die Temperatur angenommen; statistische Skalierung auf die Messdatenreihe; Methodische Korrelation = Verursachung. Physikalischer Wert: keiner. Wissenschaftlicher Gehalt: keiner.

CFR: Principal component analysis (PCA): eine numerische Methode unter Vernachlässigung intrinsischer physikalischer Deutungen. Die Hauptkomponenten sind numerisch, nicht physikalisch, orthogonal. Numerische „Principal Components“ sind typischerweise Zusammenstellungen multipler aufgelöster (d.h., partieller) physikalischer Signale von unbekannter Größenordnung. Sie haben keine besondere physikalische Bedeutung. Eine quantitative physikalische Bedeutung kann den Principal Components nicht dadurch beigemessen werden, dass auf subjektive Urteile einer ‘Temperatur-Abhängigkeit’ verwiesen wird.

Was bedeutet die Skalierung der Principal Components in die Temperatur-Zeitreihen? Korrelation = Verursachung!

‘Korrelation = Verursachung’ ist möglicherweise der häufigste naive Fehler in der Wissenschaft. Mann et al. zeigen offen, ohne dabei rot zu werden, dass dieser Fehler der Stützpfeiler des gesamten Bereichs der Baumring-Proxy-Thermometrie ist.

Wissenschaftlicher Gehalt der Mann-Rutherford-Wahl-Ammann Proxy-Methode: null.

Zum Schluss noch etwas Beachtliches:

8. Rob Wilson, Alexander Tudhope, Philip Brohan, Keith Briffa, Timothy Osborn, und Simon Tet (2006), “Two-hundred-fifty years of reconstructed and modeled tropical temperatures.”[25]

Wilson et al. rekonstruierten 250 Jahre Meeresoberflächen-Temperaturen, indem sie nur Reihen von Korallen benutzten, auch dO-18, Strontium/Kalzium-, Uran/Kalzium-,  und Barium/Kalzium-Verhältnisse . Die letzteren drei habe ich nicht eingehend überprüft, aber die Betrachtung ihrer Punktstreuungen allein deutet schon darauf hin, dass keines davon genauere Temperaturen hergibt als dO-18. Dennoch, alle Temperatur-Proxies bei Wilson et al. haben echte physikalische Bedeutung. Was wäre das für eine großartige Gelegenheit gewesen, die Methode zu überprüfen, die Auswirkungen des Salzgehalts und biologischer Ungleichgewichte zu diskutieren, und wie das zu berücksichtigen ist. Zusätzlich könnten andere zentrale Elemente stabiler Meeres-Isotopen-Temperaturen erforscht werden.

Was aber machten diese Forscher? Sie fingen mit etwa 60 Proxy-Reihen an, warfen dann alle hinaus, die nicht mit den lokalen Gitternetz-Temperaturen korrelierten. Sechzehn Proxies verblieben, 15 davon waren dO-18. Warum korrelierten die anderen Proxies nicht mit der Temperatur? Rob Wilson & Co. schwiegen sich aus. Nachdem sie zwei weitere Proxies verworfen hatten, um das Problem des Ausfilterns hoher Frequenzen zu vermeiden, blieben ihnen noch 14 Korallen- Meeresoberflächen-Temperatur-Proxies.

Danach setzten sie standardmäßige statistische Berechnungen an: teile durch die Standardabweichung, mittele die Proxies alle zusammen (Einsatz der “nesting procedure” zum Angleichen unterschiedlicher Proxy-Längen), und skaliere dann auf die Messdatenreihe hoch.

Das Lobenswerte bei der Erwähnung dieser Forscher beruht auf der Tatsache, dass sie nur und allein physikalisch echte Proxies benutzten, leider dann aber die physikalische Bedeutung von allen verwarfen.

Damit sind sie besser als die anderen sieben Beispiel-Vertreter, die Proxies ohne jegliche physikalische Bedeutung einbezogen.

Trotzdem:

Physikalische Theorie bei der Erklärung herangezogen?: Nein

Rein statistische Ableitung?: Ja

Einsatz einer physikalisch gültigen Methode: Nein.

Physikalische Bedeutung der Proxies: existierte, wurde berücksichtigt, dann aber verworfen.

Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

Schlussurteil: Die weithin praktizierte Klimawandel-Paläo-Proxythermometrie besteht aus Zusammenstellungen, die allein auf rein statistischen Ableitungen beruhen und auf numerischen Skalierungen. Sie haben nicht nur keinen wissenschaftlichen Wert, schon die Methodik spricht deutlich gegen den wissenschaftlichen Gehalt.

Statistische Methoden: 100%.

 

 

Physikalische Methoden: nahezu keine (ausgenommen stabile Isotopen, aber deren physikalische Bedeutung wird permanent bei den zusammengesetzten Paläoproxies nicht zur Kenntnis genommen).

Bedeutung der numerisch skalierten Zusammenstellungen für die Temperatur: null.

Die sieben Studien sind typische Vertreter und sie sind repräsentativ für das gesamte Feld der Klimawandel-Paläo-Proxythermometrie. Was da wissenschaftlich praktiziert wird, ist wissenschaftlicher Betrug. Es ist Pseudo-Wissenschaft durch und durch.

Studien über stabile Isotopen sind aber echte Wissenschaft. Dieses Feld köchelt so dahin und die darin tätigen Wissenschaftler konzentrieren sich richtig auf das Detail. Ich nehme sie ausdrücklich von meiner generellen Verurteilung der Klimawandel-Paläo-Proxythermometrie aus.

In den nachfolgend genannten Arbeiten habe ich bereits die Glaubwürdigkeit der drei Richtungen der Klimawandel-Wissenschaft überprüft: Klima-Modelle (GCMs) hier (Berechnungen hier), den Datenbestand der Oberflächen-Lufttemperaturdaten hier (alles als pdf-downloads), und mit diesem Beitrag nun die Proxy-Paläo-Temperatur-Rekonstruktionen.

In allen Forschungsrichtungen werden die systematischen Fehler außer acht gelassen. Diese Vernachlässigung der systematischen Fehler zeigt, dass keine der Methoden – wirklich keine einzige – in der Lage ist, die Temperaturveränderungen der letzten 150 Jahre zu behandeln oder gar zu erklären.

Immerhin, die pandemische Ausbreitung dieser Vernachlässigung ist der zentrale Mechanismus für das Überleben des Klimawandel-Alarmismus. Das geht nun schon seit mindestens 15 Jahren so, bei den Klimamodellen seit 24 Jahren. Unterstellt man Integrität, dann muss man aber erkennen, dass die Wissenschaftler, ihre Fachgutachter und ihre Redakteure alle zusammen inkompetent sind.

Schlussfolgerung: Bei Behauptungen über Etwas-Noch-Nie-Dagewesenes bei den jüngeren globalen Lufttemperaturen weiß niemand, wovon überhaupt gesprochen wird.

Ich bin sicher, dass es Menschen gibt, die meine Schlussfolgerung angreifen werden. Sie werden gebeten, hier her zu kommen und ihre Einwände vorzutragen.

 Pat Frank PhD

Die Übersetzung besorgte in dankenswerter Weise Helmut Jäger EIKE

Über den Autor Pat Frank

Patrick Frank ist promovierter Chemiker und hat über 50 fachbegutachtete Artikel veröffentlicht. Er hat in folgenden Magazinen geschrieben: in „Skeptic“ über den Mythos vom „Edlen Wilden“ geschrieben, in „Theology and Science“ über den Mythos vom „Schöpferuniversum“ sowie in Energy & Environment über Fehler in Globaltemperaturbestimmungen sowie in „Free Inquiry“ zusammen mit Thomas H. Ray über den Mythos „Wissenschaft ist Philosophie“.

Referenzen:

1. Mann, M.E., R.S. Bradley, and M.S. Hughes, Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 1998. 392(p. 779-787.

2. Dansgaard, W., Stable isotopes in precipitation. Tellus, 1964. 16(4): p. 436-468.

3. McCrea, J.M., On the Isotopic Chemistry of Carbonates and a Paleotemperature Scale. J. Chem. Phys., 1950. 18(6): p. 849-857.

4. Urey, H.C., The thermodynamic properties of isotopic substances. J. Chem. Soc., 1947: p. 562-581.

5. Brand, W.A., High precision Isotope Ratio Monitoring Techniques in Mass Spectrometry. J. Mass. Spectrosc., 1996. 31(3): p. 225-235.

6. Kim, S.-T., et al., Oxygen isotope fractionation between synthetic aragonite and water: Influence of temperature and Mg2+ concentration. Geochimica et Cosmochimica Acta, 2007. 71(19): p. 4704-4715.

7. O’Neil, J.R., R.N. Clayton, and T.K. Mayeda, Oxygen Isotope Fractionation in Divalent Metal Carbonates. J. Chem. Phys., 1969. 51(12): p. 5547-5558.

8. Epstein, S., et al., Revised Carbonate-Water Isotopic Temperature Scale. Geol. Soc. Amer. Bull., 1953. 64(11): p. 1315-1326.

9. Bemis, B.E., et al., Reevaluation of the oxygen isotopic composition of planktonic foraminifera: Experimental results and revised paleotemperature equations. Paleoceanography, 1998. 13(2): p. 150Ð160.

10. Li, X. and W. Liu, Oxygen isotope fractionation in the ostracod Eucypris mareotica: results from a culture experiment and implications for paleoclimate reconstruction. Journal of Paleolimnology, 2010. 43(1): p. 111-120.

11. Friedman, G.M., Temperature and salinity effects on 18O fractionation for rapidly precipitated carbonates: Laboratory experiments with alkaline lake water ÑPerspective. Episodes, 1998. 21(p. 97Ð98

12. Keigwin, L.D., The Little Ice Age and Medieval Warm Period in the Sargasso Sea. Science, 1996. 274(5292): p. 1503-1508; data site: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/keigwin1996/.

13. Shackleton, N.J., Attainment of isotopic equilibrium between ocean water and the benthonic foraminifera genus Uvigerina: Isotopic changes in the ocean during the last glacial. Colloq. Int. C.N.R.S., 1974. 219(p. 203-209.

14. Shackleton, N.J., The high-precision isotopic analysis of oxygen and carbon in carbon dioxide. J. Sci. Instrum., 1965. 42(9): p. 689-692.

15. Barrera, E., M.J.S. Tevesz, and J.G. Carter, Variations in Oxygen and Carbon Isotopic Compositions and Microstructure of the Shell of Adamussium colbecki (Bivalvia). PALAIOS, 1990. 5(2): p. 149-159.

16. Aldrich, J., Correlations Genuine and Spurious in Pearson and Yule. Statistical Science, 1995. 10(4): p. 364-376.

17. D’az, E. and R. Osuna, Understanding spurious correlation: a rejoinder to Kliman. Journal of Post Keynesian Economics, 2008. 31(2): p. 357-362.

18. Crowley, T.J. and T.S. Lowery, How Warm Was the Medieval Warm Period? AMBIO, 2000. 29(1): p. 51-54.

19. Osborn, T.J. and K.R. Briffa, The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years. Science, 2006. 311(5762): p. 841-844.

20. Mann, M.E., et al., Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. Proc. Natl. Acad. Sci., 2008. 105(36): p. 13252-13257.

21. D’Arrigo, R., R. Wilson, and G. Jacoby, On the long-term context for late twentieth century warming. J. Geophys. Res., 2006. 111(D3): p. D03103.

22. Moberg, A., et al., Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data. Nature, 2005. 433(7026): p. 613-617.

23. Luckman, B.H., et al., Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983. The Holocene, 1997. 7(4): p. 375-389.

24. Mann, M.E., et al., Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate. J. Climate, 2005. 18(20): p. 4097-4107.

25. Wilson, R., et al., Two-hundred-fifty years of reconstructed and modeled tropical temperatures. J. Geophys. Res., 2006. 111(C10): p. C10007.

Related Files