1

Verlegung der Torpfosten: Klamm­heimlich definiert das IPCC um, was ,Klima‘ ist

Für seine jüngste Angabe von 1,5 Grad hat das IPCC die Definition von ,Klima‘ verändert zu etwas, das man lose als „das Klima, in dem wir uns befinden“ bezeichnen könnte. Es zieht immer noch den 30-Jahre-Zeitraum für seine Abschätzung der globalen Erwärmung heran und nennt das folgerichtig Klima – aber jetzt sind es die 30 Jahre um den heutigen Tag.

Es gibt einige offensichtliche Probleme mit dieser heimlichen Verschiebung der Torpfosten. Wir haben gemessene Temperaturdaten aus den letzten 15 Jahren, aber natürlich keine einzige Messung aus den kommenden 15 Jahren. Allerdings kann man nun wirklich nicht sagen, dass fehlende Daten irgendein Problem für erfinderische Klimawissenschaftler sind.

Globale Erwärmung wird vom IPCC jetzt als eine spekulative globale Mitteltemperatur über 30 Jahre gehandelt, welche einerseits auf gemessenen globalen Temperaturdaten aus den letzten 15 Jahren beruht, und andererseits auf den vermuteten globalen Temperaturen der nächsten 15 Jahre. Dieser Vorschlag wurde vor dem jüngsten IPCC-Treffen in Incheon, Korea, auf den Tisch gelegt. Er wurde zustimmend als eine vernünftige Sache angesehen, um Klimatrends besser zu kommunizieren. Erstaunlicherweise vermengt diese neue IPCC-Definition reale und empirische Daten mit nicht existenten und spekulativen Daten – und geht dann einfach davon aus, dass sich ein kurzfristiger 15-Jahre-Trend auch während der kommenden 15 Jahre fortsetzen wird.

Allerdings ist diese neue Definition von Klima und globaler Erwärmung nicht nur philosophisch bedenklich, sondern sie ist auch offen für Spekulation und Manipulation. Es ist eine Sache zu spekulieren, wie das zukünftige Klima aussehen könnte; aber es ist eine ganz andere Sache, wenn das IPCC das Klima aufgrund von Daten definiert, die noch gar nicht existieren und nur Erwartungen darüber zur Grundlage hat, dass das Zukünftige einfach nur mit Gefahren befrachtet ist.

Diese Strategie betont die Temperatur der letzten 15 Jahre gleich doppelt, welche keine Extrapolation der Daten aus den 15 Jahren zuvor ist, und deren Verlauf war auch anders als prophezeit. Seit dem Jahr 2000 nämlich hat die Natur uns eine Lektion erteilt, welche das IPCC immer noch nicht gelernt hat.

Mit dieser neuen Definition von Klima sind sämtliche Daten aus der Zeit vor den letzten 15 Jahren irrelevant, sind sie doch Teil des Klimas zuvor. Schauen wir mal auf die vergangenen 15 Jahre nach HadCRUT4. Die erste Abbildung zeigt den Zeitraum 2003 bis 2017:

Es ist eine allgemein bekannte Graphik, die keinen Erwärmungstrend zeigt – außer man fügt am Ende den El Nino hinzu, welcher aber natürlich ein Wetterereignis ist und nichts mit Klima zu tun hat. Die Auswirkung des El Nino auf den Trend ist signifikant. Mit Hinzufügung desselben nämlich beträgt der Trend der letzten 15 Jahre etwa 0,15°C pro Jahrzehnt, das liegt nahe dem derzeit mit 0,2°C pro Jahrzehnt angegebenen dekadischen Trend. Vor dem El Nino-Ereignis hatte der Erwärmungstrend jedoch lediglich 0,02°C pro Jahrzehnt betragen, was statistisch völlig insignifikant ist.

Diese zweite Graphik zeigt den Verlauf über die 15 Jahre vor dem jüngsten El Nino, also von 2000 bis 2014. Der Trend über diesen Zeitraum wird beeinflusst durch den Startzeitpunkt, bei welchem es sich um ein starkes La Nina-Jahr handelt. Ohne diesen beträgt der Trend 0,03°C pro Jahrzehnt – statistisch ebenfalls völlig insignifikant. Man beachte, dass es schwächere El Ninos und La Ninas im Verlauf dieses Zeitraumes gegeben hat, aber insgesamt zeigt sich dabei nur ein geringer Gesamteffekt.

Was also soll man heranziehen? Die El Nino-Version, welcher eine Erwärmung von 0,6°C über die letzten 30 Jahre bis heute zeigt, oder die Nicht-El Nino-Version, die keine signifikante Erwärmung zeigt? Nun, die Letztere natürlich! Trends sollten frei sein von einer Kontamination durch kurrzzeitige Wetterereignisse – ebenso wie sie frei sein sollten von Abnahmen aufgrund von Aerosolen durch Vulkanausbrüche, welche durch Abschirmung des Sonnenlichts eine gewisse Zeit Abkühlung bewirken.

Das gleiche Problem erkennt man in dem 1,5°C-Report des IPCC, wenn dieses das Jahrzehnt 2006 bis 2015 analysiert, was es extensiv tut. In diesem spezifischen Jahrzehnt ist es signifikant wärmer als in den anderen Jahren, und zwar um etwa 0,2°C. Die NOAA sagt dazu: „Die globalen Temperaturen des Jahres 2015 waren stark beeinflusst durch starke El Nino-Bedingungen während jenes Jahres“. Der Temperaturtrend einschließlich des El Nino 2015 beträgt 0,2°C, wieder jene Zukunft. Ohne den El Nino ist der Trend statistisch nicht signifikant.

Um die zukünftige Temperatur und das Klima zu sehen, welche das IPCC in seinem Report ins Auge fasst, betrachte man die Abbildung 1 in ihrer Summary for Policymakers:

Der Versuch des IPCC, die Torpfosten zu verschieben, ist höchst fragwürdig. Nicht existierende Daten, extrapoliert über vermutete Temperaturtrends während der nächsten 15 Jahre sollten nicht formaler Bestandteil dessen sein, was Klima konstituiert.

——————————

Aktualisierung: Im befindet sich auf Seite 4 eine Fußnote, welche den falschen Denkansatz des IPCC darstellt:

Link: https://wattsupwiththat.com/2018/10/29/moving-the-goalposts-ipcc-secretly-redefines-what-climate-means/

Übersetzt von Chris Frey EIKE




Dr. Hansens Statistiken

Er sagte vor den US – Kongress-Persönlichkeiten [Congresspersonages], oder wie man diese Klasse von Politicritters sonst nennen mag, Folgendes:

Die beobachtete Erwärmung während der letzten 30 Jahre, das heißt seit wir genaue Messungen der atmosphärischen Zusammensetzung haben, wird durch die dicke schwarze Linie in dieser Graphik dargestellt. Die Erwärmung beträgt fast 0,4°C bis 1987 relativ zur Klimatologie. Das ist der definierte Zeitraum von 30 Jahren, 1950 bis 1980, und die Erwärmung beträgt tatsächlich im Jahre 1988 über 0,4°C. Die Wahrscheinlichkeit einer zufälligen Erwärmung dieser Größenordnung liegt bei etwa 1%. Mit 99% Vertrauen können wir also feststellen, dass die Erwärmung während dieses Zeitraumes ein realer Erwärmungstrend ist.

Quelle

Hier ist nun diese erwähnte Graphik:

Nun ist es entweder mein Fluch oder mein Segen, mit etwas gesegnet zu sein, was ich „einen Riecher für faule Zahlen“ nenne. Dieses ulkige Talent hat vermutlich seine Ursache im Gebrauch eines Rechenschiebers während meiner Schulzeit. Ein Rechenschieber hat keine Dezimalstellen. Falls sich also darauf das Ergebnis 3141 zeig, muss man sich überlegen, ob es 314,1 oder 3,141 oder 0,003141 oder 31410 ist. Nachdem ich dies Jahre lang gemacht hatte, entwickelte sich bei mir ein immanenter Sinn zu erkennen, ob ein Ergebnis vernünftig ist oder nicht.

Als mir also Hansens obiges Zitat vor Augen kam, dachte ich gleich „Unsinn! Faule Zahlen!“ Ich schaute genauer hin und fand … die Zahlen waren noch fauler.

Als erstes versuchte ich, Hansens Zahlen zu reproduzieren. Unglücklicherweise hatte er die alte GISS-Temperaturaufzeichnung herangezogen, erstellt bevor sie so adjustiert worden sind, wie sie sich heute darstellen. Sein Statement lautete auf „fast 0,4°C Erwärmung bis 1987“. Aber in den aktuellen GISS-Daten fand ich noch etwas mehr Erwärmung, nämlich 0,5°C

Nun gut. Dann machte ich daran, obigen Datensatz zu digitalisieren, um mit den Daten von Dr. Hansen arbeiten zu können. Dabei stellte sich heraus dass diese fast 0,4°C Erwärmung bis 1987 tatsächlich 0,32°C betrug. Man kann dies obiger Graphik entnehmen. Hmm … Dr. Hansens Alarmismus ist unstillbar. Man beachte auch, dass Dr. Hansen die Graphik zusammengestückelt hat und das „Jahres“-Mittel des Jahres 1988 diskutierte, obwohl er zu jenem Zeitpunkt erst wenige Monate mit Daten von 1988 hatte … schlechter Wissenschaftler, keine Cookies. Vergleiche sollten zwischen Äpfeln und Äpfeln erfolgen.

Als Nächstes ist da seine Behauptung, dass die Wahrscheinlichkeit dafür, dass die Erwärmung ein Zufallsereignis ist, 1 zu 100 beträgt. Das bedeutet, dass seine Temperatur 1987 um 2,6 Standardabweichungen wärmer sein sollte als das Mittel 1951 bis 1980. Aber noch einmal, Dr. Hansen übertreibt – es sind lediglich 2,5 Standardabweichungen vom Mittel, nicht 2,6.

Allerdings ist das nicht das eigentliche Problem. Gemeinsam mit den meisten Temperatur-Datensätzen bzgl. Klima hat Hansen den GISS-Datensatz als einen hohen „Hurst-Exponenten“ verwendet. Dies bedeutet, dass der GISS-Datensatz etwas aufweist, was „natürlich trendig“ [naturally trendy] genannt wird. In derartigen Datensätzen treten große Schwingungen viel häufiger auf als in rein zufälligen Datensätzen.

Wie viel häufiger? Nun, das können wir tatsächlich überprüfen. Er verglich den 30-jährigen „Klimatologie“-Zeitraum 1951 bis 1980 mit dem Jahr 1987. Ich machte also genau das Gleiche, aber mit anderen Jahren, d. h. ich verglich den 30-jährigen Zeitraum 1901 bis 1930 mit dem Jahr 1937, um zu sehen, wie ungewöhnlich jenes Ergebnis ist, und so weiter.

Macht man das für alle möglichen Jahre im GISS-Datensatz 1988, ergibt sich, dass der Abstand von 2,5 Standardabweichungen vom klimatologischen Mittel keineswegs ungewöhnlich ist. Es kommt in einem von 14 Jahren vor.

Und führt man die gleiche Analyse des gesamten GISS-Datensatzes bis heute durch, ist dies sogar noch normaler. In der historischen Aufzeichnung war es in einem von 7 Jahren aufgetreten. Fazit: Hansens „1 Prozent Wahrscheinlichkeit“, dass die Temperatur 1988 ungewöhnlich war, betrug in Wirklichkeit 14 Prozent Wahrscheinlichkeit … eine weitere alarmistische Fehlinterpretation – keine Überraschung angesichts der Quelle.

Schlussfolgerungen des ersten Teiles:

Betrachtet man die Wärme des Jahres 1987, welche um 2,5 Standardabweichungen wärmer ausgefallen war als das 30-jährige klimatologische Mittel, behauptete Hansen, dass die Wahrscheinlichkeit einer zufälligen Erwärmung in dieser Größenordnung etwa 1 Prozent beträgt.

In Wirklichkeit tritt eine derartige Erwärmung in der von im herangezogenen Aufzeichnung etwa alle 14 Jahre auf … und in der GISS-Aufzeichnung bis heute sogar alle 7 Jahre. Die Wahrscheinlichkeit einer zufälligen Erwärmung dieser Größenordnung in der GISS-Temperaturaufzeichnung beträgt also nicht 1 Prozent, sondern liegt zwischen 7 und 14 Prozent … was bedeutet, dass dies in keiner Weise ungewöhnlich ist.

Zweiter Teil

Im Verlauf der Recherchen zum ersten Teil dieses Beitrags erkannte ich, warum so viel darüber diskutiert wird, ob Hansens Prophezeiungen richtig oder falsch waren.Das Problem ist, dass wir in einem Zeitalter leben, dass der erfinderischste und talentierteste Cartoonist Josh das „Adjustocene“ nennt…

Das weitere Problem ist, dass Dr. James Hansens nicht nur der Knabe ist, der 1988 die alarmistischen Prophezeiungen abgab. Er ist auch derjenige, der verantwortlich war für die GISS-Temperaturaufzeichnung, von der er lange gehofft hatte, dass sie seine Prophezeiungen wahr werden lässt.

Hier sind also die Änderungen zwischen der Version der GISS-Temperaturaufzeichnungen, die Hansen 1988 herangezogen hatte, und die Version derselben aus dem Jahr 2018:

(GISS 2018, Daten hier)

Meine Güte, das sind ein paar signifikante Änderungen. In der alten GISS-Aufzeichnung (rot) waren die Jahre 1920 bis 1950 viel wärmer als in der neuen Aufzeichnung. Folge: der alten Aufzeichnung zufolge kühlte es sich ziemlich radikal ab von etwa 1940 bis 1970 … aber in der neuen Aufzeichnung ist davon nichts mehr zu sehen.

Und es wird nicht besser, wenn wir eine andere aktuelle Aufzeichnung dem Mix hinzufügen. Hier ist der HadCRUT-Datensatz der globalen mittleren Temperatur des Hadley Centers:

Man beachte, dass HadCRUT (blau) den gleichen Temperaturrückgang von 1940 bis 1970 zeigt, der auch in der Version 1988 der GISS-Temperaturaufzeichnung auftaucht (rot). Auf den Punkt gebracht: Die Divergenz nach 1988 zwischen den Aufzeichnungen des HadCRUT und vom GISS sind groß genug, um es unmöglich zu machen zu bestimmen, ob Hansen recht oder unrecht hatte. Der Gesamttrend in den Daten GISS 2018 ist um etwa 40% größer als in den HadCRUT-Daten. Jeder bekommt also die Antwort die er haben will – er muss nur den richtigen Datensatz wählen.

Schlussfolgerungen des zweiten Teiles:

Abhängig vom gewählten Datensatz kann jeder zweigen, dass Dr. Hansens Prophezeiungen richtig oder falsch waren … die perfekten Prophezeiungen nach Art von Schrödingers Katze*.

[*Wer wissen will, was sich dahinter verbirgt, schaue hier. Anm. d. Übers.]

Und zum Schluss, ein Nebenaspekt: Was macht ein „Institute of Space Studies“, wenn es das Klima untersucht? Ich habe vorher schon von „mission creep“ (?) gehört, aber das hier ist mehr als mission creep, das ist eine außerirdische Bewegung. Ich weiß nicht, ob die Goddard-Leute es gemerkt haben, aber im Weltraum gibt es kein Klima … wie wäre es, wenn sie zurückkehren zu der Erforschung der Myriaden interessanter Dinge, welche sich im Weltraum ereignen, und die Klimaforschung weniger alarmistischen Personen überlassen?

Link: https://wattsupwiththat.com/2018/06/30/dr-hansens-statistics/

Übersetzt von Chris Frey EIKE