1

Politisierung der Klimawissenschaft ist kein neues Phänomen

Im Jahre 1988 riefen die Vereinten Nationen, eine politische Institution, die globale Erwärmungsberichte schreibende Unternehmung Intergovernmental Panel on Climate Change (IPCC) ins Leben. Das IPCC wurde gegründet mit der Aufgabe, politische Agenden zu stützen. Und im Jahre 1995 korrumpierte die Politik die Klimawissenschaft, als Politiker die Sprache des Zweiten IPCC-Zustandsberichtes änderten dergestalt, dass sie die von den Wissenschaftlern beschriebenen Unsicherheiten herausgestrichen haben. Bis auf den heutigen Tag kann die klimawissenschaftliche Gemeinschaft nicht wirklich unterscheiden zwischen der natürlichen und der anthropogenen globalen Erwärmung. Warum? Die in herangezogenen Studien verwendeten Klimamodelle können immer noch nicht Zustände der natürlichen Variabilität simulieren, die im multidekadischen Zeitmaßstab globale Erwärmung verursachen können.

Einführung

Der Skeptizismus von Donald Trump hinsichtlich einer vom Menschen verursachten globalen Erwärmung/Klimawandels war ein Konzentrationspunkt der Mainstream-Medien während der Wahlen in den USA. Das ist er immer noch in den Köpfen vieler Umweltaktivisten und ihren Verbündeten in den Medien. Eine Unmenge von Artikeln und Diskussionen wurde geschrieben bzw. gesendet, was die politische Natur der Klimawissenschaft für jedermann erneut sichtbar werden ließ.

Aber vor wie langer Zeit wurde die Klimawissenschaft politisiert?

Ich wurde an die Antwort auf diese Frage erinnert bei der Lektüre des jüngsten Blogbeitrags von Dr. Roy Spencer Global Warming: Policy Hoax versus Dodgy Science. Er beginnt diesen Beitrag so:

Anfang der neunziger Jahre besuchte ich den Wissenschaftsberater des Weißen Hauses Sir Prof. Dr. Robert Watson, der sich hochtrabend beweihräucherte, wie man doch erfolgreich den Gebrauch von Freon reguliert habe, um das Problem des Ozon-Abbaus zu lösen. Jetzt sei es das nächste Ziel, auch Kohlendioxid zu regulieren, von dem man zu jener Zeit glaubte, dass es die einzige Ursache für globale Erwärmung sei.

Ich war ein wenig begeistert ob dieses Verfahrens, den Karren vor das Pferd zu spannen. Es kam mir wirklich so vor, dass das politische Ziel in Stein gemeißelt werden sollte, und dass das neu gegründete IPCC jetzt die ziemlich dubiose Aufgabe hatte, die Wissenschaft zur Unterstützung dieser Politik zu erzeugen.

Die dubiose Aufgabe, die Wissenschaft zur Unterstützung von Politik zu erzeugen

Um Dr. Spencers Statement bzgl. des Karrens vor dem Pferd zu bekräftigen, werde ich einen Auszug aus der Einführung zu meinem über 700 Seiten starken Nachschlagewerk (ein Gratis-E-Buch) mit dem Titel On Global Warming and the Illusion of Control – Part 1 wiederholen. Dieser Auszug enthält Zitate der UN und des IPCC zusammen mit den Links zu den zitierten Websites. Unter der Überschrift [übersetzt] „Es ist ein Irrtum zu glauben, dass das IPCC eine wissenschaftliche Institution ist“ schrieb ich:

Das IPCC ist eine politische Einrichtung und nicht eine wissenschaftliche. Das IPCC leitet seine Eingangs-Paragraphen seiner History-Website mit den Worten ein (Hervorhebung von mir [Tisdale]):

Das IPCC wurde im Jahre 1988 ins Leben gerufen. Es wurde gebildet durch die Weltwetterorganisation WMO und durch das United Nations Environment Program (UNEP) aufgebaut, um auf der Grundlage aller verfügbaren wissenschaftlichen Informationen Zustandsberichte über alle Aspekte des Klimawandels und deren Auswirkungen zu erstellen mit Blick auf zu entwickelnde realistische Strategien, dem zu begegnen. Die ursprüngliche Aufgabe des IPCC, wie sie in der Resolution 43/53 des UN-Generalsekretariats vom 6. Dezember 1988 umrissen worden ist, war die Vorbereitung einer umfassenden Übersicht und Empfehlungen zu geben hinsichtlich des Status‘ des Wissens um die Wissenschaft vom Klimawandel; die sozialen und wirtschaftlichen Auswirkungen des Klimawandels sowie mögliche Strategien, dem zu begegnen, und Konzepte für die Inklusion in mögliche zukünftige internationale Konventionen bzgl. Klima.

Folglich ist das IPCC gegründet worden, damit es Berichte schreibt. Zugegeben, es sind sehr detaillierte Berichte; so sehr, dass kaum jemand diese Berichte zur Gänze liest. Von den wenigen Menschen, die das doch tun, lesen die meisten nur die ,Summary for Policymakers‘. Aber ist man sich der Tatsache bewusst, dass Politiker in wochenlangen Diskussionen jedem einzelnen Wort in dieser Summary zustimmen müssen? Die Wissenschaftler schreiben eine Vorlage für die Politiker, aber die Politiker debattieren über die Formulierung jedes einzelnen Satzes und ob dieser überhaupt in der Summary auftauchen sollte. Und jene wochenlangen politischen Debatten über die Summary for Policymakers finden unter Ausschluss der Öffentlichkeit statt.

Ebenso geht aus obigem Zitat hervor, dass der Inhalt der IPCC-Berichte dazu gedacht war, ein internationales Klimawandel-Abkommen zu unterstützen. Jener Vertrag aus dem Jahr 1992 ist bekannt unter der Bezeichnung United Nations Framework Convention on Climate Change (UNFCCC). Eine Ausgabe des UNFCCC gibt es hier. Unter der Überschrift von Artikel 2 – Objective – definiert das UNFCCC sein Ziel als die Begrenzung der Emission von Treibhausgasen (Hervorhebung von mir):

Die ultimative Objektive dieser Convention und jedweder damit in Beziehung stehender rechtlicher Instrumente, die zu übernehmen der Conference of Parties empfohlen wird, ist es, in Übereinstimmung mit den relevanten Vorschriften der Convention die Stabilisierung von Treibhausgas-Konzentrationen in der Atmosphäre zu erreichen auf einem Niveau, welches eine gefährliche anthropogene Interferenz mit dem Klimasystem verhindern soll.

Weil es die Objektive des UNFCCC-Vertrages ist, die Emissionen anthropogener Treibhausgase zu limitieren, und weil es das Ziel des IPCC ist, Berichte zu erstellen, die den Vertrag stützen, kann man mit einiger Sicherheit sagen, dass es die einzige Rolle des IPCC ist, wissenschaftliche Berichte zu erstellen, die die vermeintliche Notwendigkeit zur Begrenzung von Treibhausgas-Emissionen stützen. Hmmm. Könnte diese Vorgabe wissenschaftliche Untersuchungen und das Verständnis begrenzen?

Weiter unten im Einführungsabschnitt der History-Website des IPCC heißt es (Hervorhebungen von mir):

Heute ist es die Aufgabe des IPCC, definiert in den Principles Governing IPCC Work „… auf einer umfassenden, objektiven, offenen und transparenten Grundlage die wissenschaftlichen, technischen und sozio-ökonomischen Informationen abzuschätzen, die relevant sind hinsichtlich des Verständnisses der wissenschaftlichen Grundlage des Risikos eines VOM MENSCHEN INDUZIERTEN Klimawandels, dessen potentielle Auswirkungen und Optionen zur Anpassung und Abschwächung.

Die Tatsache, dass das IPCC all seinen Bemühungen auf das „Verständnis der wissenschaftlichen Basis der Risiken des vom Menschen verursachten Klimawandels“ konzentriert hat, ist sehr bedeutsam. Das IPCC hat niemals ernsthaft versucht zu bestimmen, ob nicht natürliche Faktoren für den größten Teil der Erwärmung verantwortlich sind, zu der es auf der Erde im vorigen Jahrhundert gekommen war. Jahrzehnte lang hat man dort Scheuklappen aufgesetzt, welche ihre Übersicht zu allem und jedem blockiert haben – außer zu den hypothetischen Auswirkungen von Kohlendioxid. Die Rolle des IPCC war es immer gewesen, Berichte zu erstellen, die die Reduktion von Treibhausgasen stützen, die bei der Verbrennung fossiler Treibstoffe entstehen. Die Folge hiervon ist, dass alle Forschungsgelder ausschließlich in diesen Bereich fließen. Die Entscheidung, nur die vom Menschen verursachte globale Erwärmung zu untersuchen, ist eine politische Entscheidung, keine wissenschaftliche Entscheidung. Und es ist eine furchtbare Entscheidung.

Als Folge dieser politischen Entscheidung gibt es kaum wissenschaftliche Forschungen, die versuchen, realistisch zu ermitteln, wie viel der Erwärmung natürlichen Faktoren zugeordnet werden kann. Wir wissen, dass diese Tatsache besteht, weil die jetzige Generation von Klimamodellen – bisher die komplexesten jemals – immer noch nicht natürlich auftretende Ozean-Atmosphäre-Prozesse simulieren können, die eine Erwärmung der Erdoberfläche (und der Tiefen der Ozeane) über multidekadische Zeiträume bzw. deren Beendigung mit sich bringen können. Skeptiker haben dieses wiederholte Scheitern oftmals in Blogbeiträgen beschrieben, und ich selbst habe sogar ein Buch über dieses Scheitern geschrieben mit dem passenden Titel Climate Models Fail.

(Ende Auszug)

Sogar noch dubioser: Verbiegen der Wissenschaft zur Unterstützung der Politik

Weiß man eigentlich, dass Politiker den Text des 2. IPCC-Zustandsberichtes überarbeitet haben, wobei sie den Entwurf der Wissenschaftler drastisch veränderten? Hier folgt noch einmal ein Auszug aus meinem frei verfügbaren E-Book On Global Warming and the Illusion of Control – Part 1. Der Auszug steht im Kapitel mit der Überschrift [übersetzt] Die Evolution der Bewegung der katastrophalen anthropogenen globalen Erwärmung:

Während es frühe wissenschaftliche Studien gab, die auf einen möglichen Temperaturanstieg in Verbindung mit den Emissionen von anthropogenen Treibhausgasen hinwiesen, wollen wir diese Diskussion beginnen mit der Bildung des Berichte schreibenden Flügels der UN mit der Bezeichnung Intergovernmental Panel on Climate Change (IPCC). Wie oben erwähnt war es die primäre Aufgabe des IPCC, Berichte zu erzeugen, die die Agenden der Politiker stützen. Die Begrenzung der globalen Erwärmung war wahrscheinlich einer dieser Schwerpunkte, aber höchstwahrscheinlich gab es auch noch viele andere.

Die Politiker fanden Wissenschaftler, die jene Berichte schrieben – und damit begann die gegenseitige sehr vorteilhafte Beziehung zwischen Klimawissenschaftlern und Politikern. Die Politiker wollten für ihre Agenden wissenschaftliche Stützung, und die Wissenschaftler waren nur zu gerne dazu bereit, weil den Politiker die Verteilung Gelder für Klimaforschung oblag.

Der erste IPCC-Bericht 1991 war wenig aufschlussreich dahingehend, dass die Wissenschaftler nicht zwischen anthropogener und natürlicher Erwärmung unterscheiden konnten…

Anmerkung für diesen Beitrag: Die Summary for Policymakers im 1. IPCC-Zustandsbericht steht hier. Dort heißt es:

Die Größenordnung dieser Erwärmung ist im Großen und Ganzen konsistent mit den Prophezeiungen der Klimamodelle, aber sie weist auch die gleiche Größenordnung auf wie die natürliche Klimavariabilität. Folglich kann die beobachtete Erwärmung großenteils dieser natürlichen Variabilität geschuldet sein. Alternativ kann es aber auch sein, dass diese Variabilität und andere menschliche Faktoren eine noch größere, anthropogen induzierte Treibhaus-Erwärmung ausgelöst haben. Die eindeutige Bestimmung des verstärkten Treibhauseffektes aus Beobachtungen ist noch mindestens ein Jahrzehnt lang unwahrscheinlich.

Im Jahre 1991 sah sich die wissenschaftliche Gemeinschaft also noch bis mindestens zum Jahr 2001 außerstande, zwischen natürlicher und anthropogener globaler Erwärmung zu unterscheiden.

(Ende Auszug)

Und doch haben Politiker trotz dieses unbestimmten Ergebnisses nur ein Jahr später (1992) einen Vertrag erarbeitet mit der Bezeichnung United Nations Framework Convention on Climate Change mit der Absicht, den Anstieg der globalen Temperaturen auf 2°C über den vorindustriellen Werten zu begrenzen – ein Limit, das zuerst Mitte der siebziger Jahre von einem Ökonom ins Spiel gebracht worden war, nicht von einem Klimawissenschaftler.

In dem Artikel Two degrees: The history of climate change’s ‘speed limit’ bei TheCarbonBrief schreiben die Autoren Mat Hope & Rosamund Pearce:

Für Manchen vielleicht überraschend kam die Idee, dass die Temperatur dazu herangezogen werden könnte, die Reaktion der Gesellschaft auf den Klimawandel zu dirigieren, von einem Ökonom.

In den siebziger Jahren sprach der Yale-Professor William Nordhaus erstmals die Gefahr an, die sich aus dem Überschreiten einer Grenze von zwei Grad ergeben, und zwar in einem Paar von inzwischen berühmten Studien, in denen gezeigt wurde, dass eine Erwärmung um über 2 Grad das Klima über einen Punkt hinaus bringen würden, mit dem die Menschen noch fertig werden konnten:

Den meisten Quellen zufolge liegt die Bandbreite der Variation zwischen unterschiedlichen Klimaregimes in der Größenordnung von ±5°C, und zum gegenwärtigen Zeitpunkt befindet sich das globale Klima am oberen Ende dieser Bandbreite. Falls die globalen Temperaturen um mehr als 2 bis 3 Grad Celsius über der jetzigen mittleren Temperatur liegen, würde dies ein Klima schaffen, das außerhalb der Bandbreite von Beobachtungen liegt, die während der letzten vielen tausend Jahre gemacht worden sind“.

Anfang der neunziger Jahre fuhren die Politiker fort, mit Geld an Wissenschaftlern um sich zu werfen in der Hoffnung, dass der nächste Bericht mehr Unterstützung für ihre Agenden liefern würde. Sehr zur Überraschung der Politiker gab es jedoch auch im Original-Entwurf der Wissenschaftler aus dem Jahr 1995 der Summary zum 2. Zustandsbericht keinen Aufschluss.

Man stelle sich das mal vor. Im Jahre 1992 haben die UN viele Länder auf der ganzen Welt davon überzeugt, in einen Vertrag zur Begrenzung der Emissionen von Treibhausgasen einzutreten, obwohl das IPCC ein Jahr zuvor nicht den Fingerabdruck der Menschheit in der globalen Erwärmung auffinden konnte. Dann hat die wissenschaftliche Berichte schreibende Einrichtung der Politiker, das IPCC, im Jahre 1995 immer noch nicht unterscheiden können zwischen anthropogener und natürlicher Erwärmung – und genau diese Tatsache haben die Klimawissenschaftler im Entwurf ihres 2. IPCC-Berichtes geschrieben. Die Politiker saßen zwischen Pest und Cholera. Sie hatten seit drei Jahren einen Vertrag in der Hinterhand, aber ihre Berichte schreibenden Wissenschaftler konnten keine Beweise zu dessen Stützung finden.

Nachdem dann die meisten Wissenschaftler das Treffen verlassen hatten, änderten die Politiker und ein einzelner Wissenschaftler die Sprache des 2. Zustandsberichtes auf eine sehr subtile, aber bedeutende Art und Weise. Voila! Die Politiker und der eine Wissenschaftler initiierten das, was heute Konsens genannt wird. (Eine sehr detaillierte Analyse dazu von Bernie Lewin über die IPCC-Konferenz 1995 in Madrid steht hier).

(Ende Auszug)

Die Analyse von Bernie Lewin gliedert sich in drei Teile, jeweils mit sehr passenden Überschriften:

Madrid 1995: Was this the Tipping Point in the Corruption of Climate Science? (archived here.)

Madrid 1995 and The Quest for the Mirror in the Sky (archived here.)

Madrid 1995: The Last Day of Climate Science (archived here.)

In Teil 1 seiner Reihe schreibt Lewin über den Entwurf des 2. Zustandsberichtes (Hervorhebung von mir):

Oh weh, im Frühherbst des Jahres 1995 standen die Zeichen auf schlecht. Obwohl in einem durchgesickerten Entwurf im September zu lesen war, dass es unwahrscheinlich sei, dass die Erwärmung ausschließlich natürlichen Gründen geschuldet ist, wurde dies kaum bestritten, und es war nicht eigentlich die Verkündigung einer unmittelbar bevorstehenden Katastrophe. Außerdem verblieben immer noch außerordentlich große Schwächen, besonders in Kapitel 8, für jede positive Schlussfolgerung. Der Entwurf wurde allen Teilnehmern der Madrid-Konferenz zugeleitet und war auch der einzige Verfügbare, der schließlich auf dem Treffen ,akzeptiert‘ worden war. In der Introduction wurde auch festgestellt, dass die gegenwärtigen Studien auf einen menschlichen Einfluss hindeuten. Dies war bis dahin die stärkste Aussage, aber die Hauptfassung des Dokuments und die Zusammenfassung mit den Schlussfolgerungen war da nicht so vertrauensselig. Einige der verwegensten Rückzieher waren Folgende:

Aus Studien von Änderungen der globalen mittleren Variablen (8.4.1): Während keine dieser Studien das Thema Zuordnung speziell in Betracht gezogen hatte, ziehen sie oft einige Schlussfolgerungen bzgl. Zuordnung, für die es kaum eine Rechtfertigung gibt.

Aus dem Treibhaus-Signal in Studien der modellierten und beobachteten räumlichen und zeitlichen Verteilung von Änderungen (8.4.2.1): Keine der oben zitierten Studien hat klare Beweise dafür gezeigt, dass wir die beobachteten Änderungen der spezifischen Ursache Zunahme der Treibhausgase zuordnen können.

Aus Studien zum ,Fingerabdruck‘ der globalen Erwärmung: Während einige dieser Studien die Erkennung eines signifikanten Klimawandels behaupteten, hat keine davon die gesamte (oder Teile des beobachteten Klimawandels) anthropogenen Gründen zugeordnet. Auch hat keine einzige Studie die Größenordnung eines Treibhausgas- oder Aerosol-Effektes in den gemessenen Daten quantifiziert – ein Umstand, der für Politiker von primärer Relevanz ist.

Aus dem Gesamtniveau der Unsicherheiten: jedwede Behauptungen über positive Erkennung und Zuordnung eines signifikanten Klimawandels wird wahrscheinlich kontrovers bleiben, solange die Unsicherheiten bei der totalen natürlichen Variabilität im Klimasystem nicht reduziert werden.

Zur Frage: Wann wird der anthropogene Effekt auf das Klima identifiziert? (8.6): Es ist keine Überraschung, dass die beste Antwort auf diese Frage lautet ,wir wissen es nicht‘.

Die Politiker mochten die Aussagen über die Unsicherheiten nicht, die in jenen Statements zum Ausdruck kamen, folglich haben sie diese gelöscht. Wussten Sie, dass die Politik der Klimawissenschaft diktiert, welche Ergebnisse sie zu erbringen habe?

Wichtige Anmerkung: Man vergesse nicht, dass der Pinatubo im Jahre 1991 ausgebrochen war, wodurch die Temperaturen global vorübergehend gesunken sind. Während die Temperatur bis 1995 wieder auf ein Niveau etwas über dem von 1991 gestiegen war, erzeugten die in die Stratosphäre geschleuderten Aerosole des Pinatubo einen merklichen Rückgang der Erwärmungsrate seit dem Beginn der Erwärmung Mitte der siebziger Jahre. Siehe Abbildung 1. Das heißt, die globale Erwärmungsrate von 195 bis 1995 ist merklich geringer als die von 1975 bis 1991, wie man auch erwarten würde.

Abbildung 1

Nun könnte man glauben, dass mit der massiven Auswirkung des Pinatubo auf die globalen Temperaturen die fortgesetzte Unsicherheit unter den Klimawissenschaftlern auch 1995 noch garantiert war.

Die Klimawissenschaft unter Führerschaft des IPCC kann immer noch nicht realistisch differenzieren zwischen natürlicher und anthropogen induzierter globaler Erwärmung!

Noch einmal möchte ich auf mein E-Book zurückgreifen On Global Warming and the Illusion of Control – Part 1. Das Kapitel 1.12 trägt den Titel [übersetzt] „Wie Wissenschaftler den größten Teil der globalen Erwärmung seit Mitte der siebziger Jahre anthropogenen Ursachen zuordneten“:

Eine der Objektiven der klimawissenschaftlichen Gemeinschaft unter Führung des IPCC war es, den größten Anteil der globalen Erwärmung seit Mitte der siebziger Jahre anthropogenen Gründen zuzuordnen. Mit anderen Worten, falls Mutter Natur für die Erwärmung verantwortlich war, würde das politische Ziel, die Verbrennung fossiler Treibstoffe zu begrenzen, keinerlei Grundlage haben, und weil es die Absicht des IPCC ist, politische Agenden zu stützen, hatte die klimawissenschaftliche Gemeinschaft in der Lage zu sein, auf die Menschheit als den Schuldigen zu zeigen. Die Klimamodellierer erreichten dieses Ziel mittels ein paar sehr einfacher Tricks.

Das erste, was die Klimamodellierer gemacht haben war, die natürlichen Ozean-Atmosphäre-Prozesse vollständig zu ignorieren, die eine globale Erwärmung verstärken oder unterdrücken. Die vom IPCC verwendeten Klimamodelle können bis auf den heutigen Tag immer noch nicht diese Prozesse angemessen simulieren, und diese Tatsache wird später in diesem Buch noch detailliert demonstriert. Die Beiträge von Mutter Natur zu ignorieren war der einfachste und bequemste Weg, um zu zeigen, dass die Menschen für die Erwärmung verantwortlich waren. Die Modellierer haben sich auch entschieden, diese Tatsache der Öffentlichkeit vorzuenthalten, als sie ihre modellbasierten Zuordnungs-Studien unter Verwendung der nächsten Taktik präsentierten.

Diese Taktik ist ein sehr einfacher und leicht zu verstehender Weg, das Meiste der Erwärmung fälschlich der Menschheit in die Schuhe zu schieben. Die Modellierer hatten ihre Klimamodell-Läufe, die einen virtuellen globalen Temperaturanstieg zeigten als Reaktion auf alle Klimaantriebe, die als Input für die Modelle dienten. Dann führten sie zusätzliche Modellierungs-Experimente durch. Anstatt alle Klimaantriebe heranzuziehen, die sie normalerweise für die Simulation des Klimas der Vergangenheit eingehen lassen, verwendeten sie in den zusätzlichen Klimamodell-Läufen ausschließlich die Antriebe durch Solarstrahlung und vulkanische Aerosole. Die betrügerische Logik dahinter: Falls die nur mit den natürlichen Antrieben Solarstrahlung und vulkanischen Aerosolen die Erwärmung, zu der es zum Ende des 20. Jahrhunderts gekommen war, nicht simulieren können, dann muss die Erwärmung seit den siebziger Jahren auf anthropogene Treibhausgase zurückgehen.

Als Beispiel ist Abbildung 1.12-1 eine Zeitreihe von 1880 bis 2010. Die durchgezogene braune Linie zeigt den Gesamt- Strahlungsantrieb von allen Antrieben, die in die Klimamodelle eingingen und die vom GISS aufbereitet worden waren. Sie stammen von der Forcings in GISS Climate Model-Website, vor allem aus der Tabelle hier. Ebenfalls in Abbildung 1.12-1 eingezeichnet ist der Antrieb allein durch Solarstrahlung und stratosphärische Aerosole (welche das Sonnenlicht blockieren), gezeigt als gestrichelte dunkelgrüne Kurve. Diese werden als natürlich auftretende Antriebe betrachtet. Wie man sieht, zeigt die Gruppe mit allen Antrieben eine langzeitliche Zunahme, die bei den kombinierten Antrieben durch Sonne und Aerosole nicht erkennbar ist.

# # #

Dann ließen die Klimawissenschaftler die zusätzlichen Modellsimulationen nur mit den natürlichen Antrieben laufen. Danach verglichen sie die Modellsimulationen mittels natürlicher und anthropogener Antriebe mit denen mittels natürlicher Antriebe allein. Als Beispiel eines dieser Vergleiche dient Abbildung 1.12-2. Die Modelle mit allen Antrieben zeigen deutliche Erwärmung zum Ende des 20. Jahrhunderts, die Modelle mit den natürlichen Antrieben allein zeigen dies nicht.

Ähnliche Graphiken wie die in Abbildung 1.12-2 gezeigte finden sich in den IPCC-Zustandsberichten Nr. 4 und 5. Ein Beispiel ist FAQ 10.1, Abbildung 1 im Kapitel Chapter 10, Detection and Attribution of Climate Change: from Global to Regional des IPCC’s 5th Assessment Report (AR5). Siehe meine Abbildung 1.12-3. Man beachte, dass die Überschrift ihres FAQ 10.1 lautet [übersetzt] „Das Klima ändert sich immer. Wie können wir die Gründe der beobachteten Änderungen bestimmen?“

(Ende des Auszugs)

Über ihr FAQ 10.1, Abbildung 1, schreibt das IPCC:

FAQ 10.1, Abbildung 1 illustriert einen Teil der Abschätzung eines Fingerabdrucks auf die Änderung der globalen Temperatur während der zweiten Hälfte des 20. Jahrhunderts. Die beobachtete Änderung während dieser Zeit, dargestellt durch die schwarze Zeitreihe in den linken Graphiken, ist größer als erwartet, wenn man nur die interne Variabilität betrachtet. Simulationen mit nur natürlichen Antrieben (gelbe und blaue Linien in der oberen linken Graphik) reproduzieren die Erwärmung zum Ende des 20. Jahrhunderts nicht, wobei die räumliche Verteilung der Änderung (oben rechts) vollkommen unterschiedlich ist von der beobachteten Verteilung der Änderung (Mitte rechts). Simulationen mit sowohl natürlichen als auch anthropogenen Antrieben zeigen eine viel bessere Repräsentation der zeitlichen Änderungsrate (links unten) und der räumlichen Verteilung (rechts unten) der beobachteten Temperaturänderung.

Beide Graphiken links zeigen, dass Computermodelle die natürlich getriebene Abkühlung ein oder zwei Jahre nach großen Vulkanausbrüchen reproduzieren, wie es 1982 und 1991 der Fall war. Simulationen mit natürlichen Antrieben allein zeigen die kurzfristigen Temperaturänderungen nach Eruptionen auch, aber nur die natürlichen + anthropogenen Antriebe simulierten den längerzeitlichen Erwärmungstrend.

Die Bildinschrift ihrer FAQ 10.1-Abbildung liest sich so:

(Links) Zeitreihe der globalen und jährlich gemittelten Temperaturänderung von 1860 bis 2010. Die Graphik oben links zeigt Ergebnisse aus zwei (sic) Ensembles von Klimamodellen mit nur natürlichen Antrieben, gezeigt als dünne blaue und gelbe Linien; Ensemble-Änderungen der Mitteltemperatur sind dick blau und rot. Drei verschiedene beobachtete Schätzungen sind als schwarze Linien dargestellt. Die Graphik links unten zeigt Simulationen der gleichen Modelle, aber diesmal mit sowohl natürlichen als auch anthropogenen Antrieben durch Treibhausgase und Aerosole. (Rechts) Räumliche Verteilung lokaler Temperaturtrends von 1951 bis 2010. Die obere Graphik zeigt die Verteilung von Trends mittels eines großen Ensembles von Coupled Model Intercomparison Project Phase 5 (CMIP5)-Simulationen mit nur natürlichen Antrieben. Die untere Graphik zeigt Trends eines korrespondierenden Ensembles mit natürlichen + menschlichen Antrieben. Die mittlere Graphik zeigt die Verteilung beobachteter Trends von HadCRUT4 während dieses Zeitraumes. [HadCRUT4 = Hadley Centre/Climatic Research Unit gridded surface temperature data set 4]

Für ein weiteres Beispiel dieser fehlgeleiteten, kindischen Logik schaue man auf Figure 9.5 im 4. Zustandsbericht. Die Bildunterschrift zu dieser Illustration im AR4 Chapter 9 lautet (Hervorhebungen von mir):

9.4.1.2Simulationen des 20.Jahrhunderts

Inzwischen gibt es eine größere Zahl von Klimasimulationen von AOGCMs (Atmosphere-Ocean General Circulation Models) für den Zeitraum der globalen instrumentellen Aufzeichnungen, als sie für den 3. Zustandsbericht zur Verfügung standen, einschließlich einer größeren Vielfalt von Antrieben in einer größeren Vielfalt von Kombinationen. Diese Simulationen stammen von Modellen mit unterschiedlichen Klimasensitivitäten, Raten der Wärmeaufnahme durch Ozeane sowie Größenordnung und Art der Antriebe. Abbildung 9.5 zeigt, dass Simulationen einschließlich anthropogener Antriebe, darunter zunehmende Treibhausgas-Konzentrationen und die Auswirkungen von Aerosolen, die außerdem natürliche externe Antriebe berücksichtigen, eine konsistente Erklärung bieten der gemessenen Temperaturaufzeichnung. Simulationen mit nur natürlichen Antrieben simulieren die während der letzten drei Jahrzehnte beobachtete Erwärmung nicht.

Wie zuvor schon erwähnt, ist die Logik hinter dieser Art von Zuordnung sehr einfach, kindisch einfach. Falls Modelle mit anthropogenen und natürlichen Antrieben die Erwärmung simulieren können und die Modelle mit natürlichen Antrieben allein nicht, dann müssen die anthropogenen Antriebe für die globale Erwärmung verantwortlich sein.

Aber diese Logik ist falsch – entsetzlich falsch. Es gibt natürlich auftretende Ozean-Atmosphäre-Prozesse, die die globalen Temperaturen steigen oder sinken lassen können, ohne durch menschliche Treibhausgase getrieben zu werden. Die Klimamodelle simulieren diese Prozesse nicht, das heißt sie werden in Zuordnungs-Studien wie dieser nicht berücksichtigt.

Man kann das noch auf andere Weise betrachten. Eines der größten Mängel der Klimamodelle ist deren Unfähigkeit, natürlich auftretende Ozean-Atmosphäre-Prozesse zu simulieren … wie jene in Verbindung mit El Nino und La Nina-Ereignissen, wie jene in Verbindung mit der Atlantic Multidecadal Oscillation. Wie jedermann, der ein falsches Produkt vermarkten will, stellte das listige IPCC diese Mängel als Vorteile dar, indem sie in den Zuordnungs-Studien ignoriert werden.

Jawoll, das ist eine ziemlich erbärmliche Art und Weise, die jüngste Runde der globalen Erwärmung anthropogenen Treibhausgasen zuzuordnen.

Schlussbemerkungen

Hat also der gewählte Präsident Donald Trump recht, skeptisch zu sein hinsichtlich der politisierten Wissenschaft hinter der hypothetischen, anthropogen induzierten globalen Erwärmung/Klimawandel? Natürlich hat er recht!

Die Klimawissenschaft ist im Jahre 1988 politisiert worden, als die UN-Politiker das IPCC ins Leben riefen und ihm die Richtung vorgaben. Die Klimawissenschaft wurde von der Politik im Jahre 1995 korrumpiert, also vor über 2 Jahrzehnten, als die Politiker den Wortlaut des 2. IPCC-Zustandsberichtes änderten. Und natürlich können Klimawissenschaftler bis auf den heutigen Tag immer noch nicht anthropogene Gründe realistisch der globalen Erwärmung zuordnen, wie sie seit den siebziger Jahren beobachtet wird, weil die Klimamodelle nicht sich aus natürlichen Antrieben speisende gekoppelte Ozean-Atmosphäre-Prozesse simulieren können, die im multidekadischen Zeitmaßstab Erwärmung verursachen können. Die Tatsache, dass die Modelle keinerlei Erwärmung simulieren können, es sei denn sie werden durch numerische Repräsentationen anthropogener Treibhausgase dazu gezwungen, ist ein Mangel des Modells und kein Mittel, die globale Erwärmung glaubwürdig den Emissionen von Kohlendioxid zuzuordnen. Mit dieser Klimawissenschaft befindet sich der Karren immer noch vor dem Pferd.

Link: https://wattsupwiththat.com/2016/11/29/the-politicization-of-climate-science-is-not-a-recent-phenomenon/

Übersetzt von Chris Frey EIKE




Über die schwer fassbare globale mittlere Temperatur – ein Vergleich Modell ? Daten

Abbildung 1

Selten werden Modellergebnisse bzw. Vergleiche zwischen Modellen und Messungen in absoluten Zahlen angegeben. Diese werden in diesem Beitrag präsentiert nach einer Diskussion der Schätzungen der absoluten mittleren Temperatur der Erde von Daten-Lieferanten: GISS, NCDC und BEST. Danach wenden wir uns den Anomalien zu.

Die folgenden Illustrationen und der größte Teil des Textes wurden für mein demnächst erscheinendes Buch aufbereitet. Ich habe die Nummerierung der Abbildungen für diesen Beitrag geändert und die Einführung neu geschrieben. Diese Präsentation offeriert eine gänzlich unterschiedliche Perspektive bzgl. der Differenzen zwischen modellierten und gemessenen globalen Temperaturen. Man wird es begrüßen … aber Einige werden es absolut nicht begrüßen.

Dieses Kapitel erscheint weiter unten in dem Buch, nach den einleitenden Abschnitten über 1) die Grundlagen von globaler Erwärmung und Klimawandel, 2)der Übersicht über Klimamodelle, 3)den einführenden Diskussionen über die atmosphärische und ozeanische Zirkulation und natürlichen Zustände der Variabilität und 4) den detaillierten Beschreibungen der Datensätze. Es wird eines von vielen Kapiteln sein, in denen es um den Vergleich Modelle ↔ Daten geht.

Die Diskussion über die schwer fassbare globale mittlere Temperatur beim GISS

Einige werden den Ursprung der Überschrift dieses Kapitels bereits kennen. Sie stammt von der GISS Surface Temperature Analysis Q&A webpage The Elusive Absolute Surface Air Temperature (SAT). Im Einleitungstext zu der Website heißt es:

Bei der GISTEMP-Analyse geht es nur um Temperaturanomalien, nicht um die absolute Temperatur. Temperaturanomalien werden berechnet relativ zum Referenzzeitraum 1951 bis 1980. Der Grund, Anomalien anstatt absoluter Temperaturen zu betrachten ist, dass die absolute Temperatur schon auf kurze Distanzen markant variiert, während monatliche oder jährliche Temperaturanomalien repräsentativ für ein viel größeres Gebiet sind. Tatsächlich haben wir gezeigt (Hansen und Lebedeff 1987), dass Temperaturanomalien stark korreliert sind mit Distanzen bis zu 1000 km.

Auf der Grundlage der Ergebnisse von Hansen und Lebedeff (1987) in ihrer Studie Global trends of measured surface air temperature erzeugte GISS einen Datensatz mit Temperaturanomalien auf dem Festland anstelle von Daten der Wassertemperatur. Das heißt, GISS hat die Festlandstemperaturen einfach auf die Ozeane hinaus ausgedehnt. GISS hat diesen älteren Datensatz ersetzt durch den GISS Land-Ocean Temperature Index, welcher Wassertemperaturdaten für die meisten Gebiete der Ozeane heranzieht. Dieser Index ist ihr primäres Produkt. Sie extrapolieren immer noch mit 1200 km, um Festlands- und Ozeangebiete ohne gemessene Daten zu füllen.

Aber zurück zur GISS Q&A-Website: Nach Beantwortung einiger Zwischenfragen schließt GISS mit (Fettdruck von mir):

Frage: Was mache ich, wenn ich Absolut-Temperaturen anstatt Anomalien brauche?

Antwort: In 99,9% aller Fälle wird man feststellen, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturen. In den restlichen Fällen muss man sich eine der verfügbaren Klimatologien heraussuchen und die Anomalien dazu addieren (unter Berücksichtigung einer geeigneten Basisperiode). Für das globale Mittel erzeugen die Modelle, denen man am meisten vertraut, einen Wert von ungefähr 14°C, aber genauso kann der Wert zwischen 13°C und 15°C liegen. Regional und vor allem lokal ist die Lage sogar noch schlimmer.

Mit anderen Worten, GISS stellt sein Verständnis der globalen Temperaturen auf die Grundlage von Klimamodellen, besonders von denen, denen „man am meisten vertraut“. Und sie sagen, dass die mittlere globale Temperatur auf der Grundlage dieser Klimamodelle während des Referenzzeitraumes von 1951 bis 1980 (ihre Klimatologie) grob etwa 14°C ±0,6°C beträgt.

Der Wert von 14°C auf jener GISS-Website deckt sich mit dem Wert, der unten auf der GISS-Website Land-Surface Air Temperature Anomalies Only (Meteorological Station Data, dTs) genannt wird. Dieser geht auf Hansen und Lebedeff (1987) zurück. Ganz unten auf der Website schreibt GISS:

Die Best Estimate des absoluten globalen Mittels von 1951 bis 1980 beträgt 14,0°C. Man addiere dies also zu der Temperaturänderung, falls man eine Absolut-Skala benutzen möchte (diese Anmerkung gilt nur für globale Jahresmittel, Januar bis Dezember und Dezember bis November).

Das ist die gleiche Adjustierung der absoluten Temperaturen, wie sie GISS für ihren Land-Ocean-Temperature-Index verlangt. Siehe am Ende der Daten-Website hier.

ANMERKUNG: Einige Leute könnten denken, dass es seltsam ist, dass man beim GISS für beide Datensätze den gleichen Adjustierungs-Faktor verwendet. Einer der GISS-Datensätze (GISS dTs) weitet Lufttemperaturen von küstennahen Gebieten und Inseln auf die Ozeane bis zu einer Entfernung von 1200 km aus, während der andere GISS-Datensatz (GISS LOTI) Wassertemperaturdaten für die meisten der globalen Ozeane enthält. Mit den LOTI-Daten ersetzt GISS Daten der Wassertemperatur mit Daten der Festlandstemperatur nur in den polaren Ozeanen, wo immer Meereis lag. Falls wir annehmen, dass die küstennahen und von Inseln stammenden Landtemperaturen ähnlich sind den Lufttemperaturen über dem Meer, dann beträgt der Bias lediglich 0,2°C, vielleicht etwas mehr. Die mittlere absolute globale Wassertemperatur ICOADS beträgt während der letzten 30 Jahre (1984 bis 2013) 19,5°C, während deren absolute globale Wassertemperatur 19,3°C beträgt. Der Grund für „vielleicht etwas mehr“ ist, dass Lufttemperaturmessungen auf Schiffen auch durch den „Wärmeinseleffekt“ beeinflusst werden können, und die ICOADS-Daten sind in dieser Hinsicht nicht korrigiert worden. (Ende der Anmerkung).

Die NCDC-Schätzung ist ähnlich, obwohl anders abgeleitet

NCDC gibt ebenfalls eine Schätzung der absoluten globalen Mitteltemperatur an; siehe hier. Unter der Überschrift ,Globale Höhepunkte‘ schreiben sie (Fettdruck von mir)

Das Jahr 2013 zieht mit dem Jahr 2003 gleich als das viertwärmste Jahr global seit Beginn von Aufzeichnungen im Jahre 1880. Die kombinierte jährliche globale Festlands- und Ozean-Temperatur lag um 0,62°C über dem Mittel des 20. Jahrhunderts von etwa 13,9°C.

Und nicht rein zufällig stimmen jene 13,9°C vom NCDC (gewonnen aus Daten von … werden wir gleich sehen), mit dem GISS-Wert von 14,0°C weitgehend überein. Dies könnte zeigen, dass die GISS-Modelle, denen man „am meisten vertraut“, an den datenbasierten Wert angepasst wurden.

Die Quelle jener 13,9°C-Schätzung der globalen Temperatur wird auf der NOAA Global Surface Temperature Anomalies-Website genannt, speziell unter der Überschrift Global Longterm Mean Land and Sea Surface Temperatures, welche im Jahre 2000 erstellt wurde, so dass sie jetzt 14 Jahre alt ist [der Beitrag datiert bereits aus dem Jahr 2014; Anm. d. Übers.]. Während dieser 14 Jahre haben sich Daten drastisch verändert. Man wird auf jener Website auch bemerkt haben, dass die Mittelwerte der absoluten Temperatur für den Zeitraum 1880 bis 2000 gelten und dass NCDC die gleichen 13,9°C als Absolutwert für das 20. Jahrhundert verwenden. Das ist kein Thema, sondern Haarspalterei. Es gibt nur eine Differenz von 0,03°C zwischen den mittleren Anomalien jener beiden Zeiträume.

Genau wie GISS beschreibt NOAA das Problem bei der Abschätzung einer absoluten globalen Mitteltemperatur:

Absolute Schätzungen der globalen Mitteltemperatur sind aus einer ganzen Reihe von Gründen schwierig anzustellen. Da einige Regionen der Welt kaum Temperatur-Messstationen aufweisen (z. B. die Sahara), muss über große datenarme Gebiete interpoliert werden. In Bergregionen stammen die meisten Messungen aus Tälern, wo die Menschen wohnen, so dass man die Auswirkungen der Seehöhe eines Gebietes beim Mittel dieser Region berücksichtigen muss, ebenso wie andere Faktoren, die die Temperatur beeinflussen. Als Konsequenz sind die Schätzungen unten – wenngleich auch als die besten betrachtet, die derzeit zur Verfügung stehen – immer noch Approximationen, die Hypothesen reflektieren, die inhärent bei der Interpolation und der Datenaufbereitung vorhanden sind. Zeitreihen monatlicher Temperaturaufzeichnungen sind öfter als Abweichungen von einer Referenzperiode angegeben (z. B. 1961 bis 1990 oder 1880 bis 2000), weil diese Aufzeichnungen leichter interpretiert werden können und einige Probleme umgangen werden, die mit der Schätzung absoluter Temperaturen in großen Gebieten auftreten.

Es scheint, dass der NCDC-Wert auf beobachtungsgestützten Daten beruht, obschon auf älteren Daten, während der GISS-Wert eines anderen Zeitraumes auf der Grundlage von Klimamodellen sehr ähnlich ist.

Vergleiche zwischen GISS- und NCDC-Daten in absoluter Form

NCDC Global Land + Ocean Surface Temperature-Daten sind verfügbar mittels eines Klicks auf den Link oben auf der NCDC-Website Global Surface Temperature Anomalies. Und die GISS LOTI-Daten stehen hier.

Unter Verwendung der oben beschriebenen Faktoren zeigt Abbildung 2 die jährlichen globalen Mitteltemperaturen von GISS und NCDC in absoluter Form, und zwar vom Beginn im Jahre 1880 bis zum letzten vollen Jahr vor diesem Beitrag 2013. Die GISS-Daten sind ein bisschen wärmer als die NCDC-Daten, im Mittel um etwa 0,065°C. Aber alles in allem folgen sie einander. Und das sollten sie auch. Sie verwenden den gleichen Wassertemperatur-Datensatz (ERSST.v.3b von NOAA), und die meisten Lufttemperaturen auf dem Festland sind die gleichen (aus der GHCN-Datenbasis der NOAA). GISS und NCDC füllen lediglich die Datenlücken unterschiedlich aus (vor allem im arktischen und dem subantarktischen Ozean), und GISS verwendet ein paar Datensätze mehr, um Regionen abzudecken, aus denen kaum GHCN-Daten vorliegen.

Abbildung 2

Es ergibt sich der beste globale Festlands-+Wassertemperatur-Datensatz mit einem unterschiedlichen Faktor.

Das sind die BEST-Daten (Berkeley Earth Surface Temperature), welche ein Erzeugnis von Berkeley Earth sind. Die ihre Temperaturdaten stützende Studie stammt von Rohde et al. 2013 mit dem Titel A New Estimate of the Average Earth Surface Land Temperature Spanning 1753 to 2011. Darin wird man erkennen, dass man die BEST-Lufttemperaturen auf dem Festland in absoluter Form dargestellt hat. Siehe Abbildung 1 in jener Studie (hier nicht gezeigt).

Deren Klimatologie (Referenz-Temperaturen zur Bildung von Anomalien) wurde in der Verfahrens-Studie von Rhode et al. (2013) Berkeley Earth Temperature Process präsentiert mit dem Anhang hier. Unter der Überschrift Climatology schreiben Rhode et al. in ihrer „Verfahrens“-Studie:

Die globale Festlands-Mitteltemperatur von 1900 bis 2000 beträgt 9,35°C ±1,45°C, was grob übereinstimmend ist mit der Schätzung von 8,5°C durch Peterson (29). Diese große Unsicherheit in der Normalisierung ist nicht in den schattierten Bändern enthalten, die wir über unsere Tavg-Plots gelegt haben, weil sie nur die absolute Skala beeinflusst und für Relativ-Vergleiche keine Bedeutung hat. Außerdem ist der größte Teil dieser Unsicherheit der Präsenz von nur drei GHCN-Sites im Inneren der Antarktis geschuldet, was den Algorithmus dazu bringt, die Absolut-Normalisierung für den größten Teil der Antarktis als poorly constrained anzusehen. Vorangegangene Arbeiten mit vollständigeren Daten aus der Antarktis und anderswo zeigen, dass zusätzliche Daten diese Normalisierungs-Unsicherheit um eine Größenordnung reduzieren können, ohne den zugrunde liegenden Algorithmus zu ändern. Der Berkeley Average-Analyse-Prozess ist in gewisser Weise eindeutig, erzeugt er doch eine globale Klimatologie und eine Schätzung der globalen mittleren Temperatur als Teil seiner natürlichen Operationen.

Es ist interessant, dass der Mittelungsprozess der Temperatur bei Berkeley sie mit einer Schätzung der globalen mittleren Festlands-Temperaturen in absoluter Form ausstattet, während man bei GISS und NCDC geschrieben hat, dass eben diese Schätzung sehr schwierig ist.

Der Bezug auf Peterson in der Studie von Rhode et al. stammt von Peterson et al. 2011 mit dem Titel Observed Changes in Surface Atmospheric Energy over Land. Die 8,5°C von Peterson et al. als absolute Festlands-Lufttemperaturen ist der gleiche Wert, der gelistet ist in der Tabelle unter der Überschrift Global Long-term Mean Land and Sea Surface Temperatures auf den NOAA Global Surface Temperature Anomalies-Websites.

Berkeley Earth hat auch Daten veröffentlicht für zwei globale Land-+Ozean-Temperaturprodukte. Die Existenz von Meereis ist der Grund, dass es zwei sind. Festlands-Temperaturdaten enthalten offensichtlich keine Ozeanoberflächen-Temperaturdaten, wo sich Meereis befindet, und Wassertemperaturdaten enthalten nicht die Lufttemperaturen über polarem Meereis, wo und wann sich dieses befindet. Von den 361,9 Millionen km² der Gesamtfläche der globalen Ozeane bedeckt polares Meereis nur im Mittel etwa 18,1 Millionen km² jährlich im Zeitraum 2000 bis 2013. Während polares Meereis nur etwa 5% der globalen Ozeane und nur etwa 3,5% der Oberfläche des Globus‘ überdeckt, ist die klimawissenschaftliche Gemeinde bestrebt, dort die Lufttemperatur zu berechnen. Dies gilt besonders für die Arktis, wo der natürlich auftretende Prozess der polaren Verstärkung zu übertriebenen Erwärmungsraten führt in Zeiten, in denen sich die Nordhemisphäre erwärmt (und sich auch mit verstärkten Raten abkühlt, wenn sich die Nordhemisphäre abkühlt).

Während dies geschrieben wird, gibt es keine stützende Studie für die Land- und Wassertemperaturdaten von BEST, die verfügbar sind auf der Berkeley Earth Papers-Website, und es wird nichts dazu gezeigt auf ihrer Posters-Website. Es gibt jedoch eine einführende Diskussion auf der BEST-Datenseite über ihr Kombinations-Produkt. Die BEST-Land- und Wassertemperaturdaten sind zusammengeführt mit einer modifizierten Version von HadSST3-Wassertemperaturdaten, welche man mittels eines statistischen Verfahrens namens Kriging aufgefüllt hatte.

Die jährlichen Berkeley-Anomalien der Land-+Wassertemperaturen sind hier und die monatlichen Daten hier. Ihre Begründung der Präsentation der beiden Land-+Wassertemperatur-Produkte stützt meine Ausführungen oben. Berkeley Earth schreibt:

Zwei Versionen dieses Mittels werden gezeigt. Diese unterscheiden sich dahingehend, wie sie mit von Meereis bedeckten Gebieten umgehen. In der ersten Version werden Temperaturanomalien bei der Gegenwart von Meereis extrapoliert von Anomalien der Festlandstemperatur. In der zweiten Version werden Temperaturanomalien bei der Gegenwart von Meereis extrapoliert aus Anomalien der Wassertemperatur (normalerweise gemessen im offenen Wasser an der Peripherie des Meereises). Für die meisten Ozeangebiete gilt, dass die Wassertemperaturen ähnlich der Lufttemperaturen darüber sind; allerdings können Lufttemperaturen über Meereis substantiell von der Wassertemperatur unter dem Eis abweichen. Die Lufttemperatur-Version dieses Mittels zeigt größere Änderungen in jüngster Zeit, teilweise weil Änderungen der Wassertemperatur durch den Gefrierpunkt von Meerwasser beeinflusst werden. Wir glauben, dass die Verwendung von Lufttemperaturen über Meereis ein natürlicheres Mittel darstellt zur Beschreibung von Änderungen der Temperaturen auf der Erde.

Der Gebrauch von Lufttemperaturen über Meereis kann eine realistischere Repräsentation arktischer Temperaturen während der Wintermonate anbieten, wenn das Meereis sich an den Landmassen auftürmt und wenn jene Landmassen mit Schnee bedeckt sind und Eis und Festland ähnliche Albedos aufweisen. Allerdings kann die Albedo von Meereis während der Sommermonate anders sein als die Albedo von Landmassen (Schnee schmilzt und legt die Landoberfläche um die Temperatur-Sensoren frei, und die Albedo von Landoberflächen ist eine ganz andere als die von Meereis). Der offene Ozean trennt außerdem Festland und Meereis an vielen Stellen, was das Problem weiter kompliziert. Dem ist nicht so einfach abzuhelfen.

Berkeley Earth listet auch die geschätzten absoluten Oberflächen-Temperaturen während ihres Referenzzeitraumes für beide Produkte:

Geschätzte globale Mitteltemperatur I von Januar 1951 bis Dezember 1980

mittels Lufttemperatur über Meereis: 14.774 ±0.046

mittels Wassertemperatur unter Meereis: 15.313 ±0.046

Die geschätzte absolute globale Mitteltemperatur unter Verwendung der Lufttemperatur über Meereis ist um 0,5°C kälter als die Daten unter Verwendung der Wassertemperaturdaten unter dem Meereis. Die später in diesem Beitrag präsentierten Modelle zeigen Lufttemperaturen, darum werden wir die Berkeley-Daten verwenden, die die Lufttemperatur über Meereis zeigen. Dies stimmt auch mit den Verfahren bzgl. der GISS LOTI-Daten überein.

Der von Berkeley Earth verwendete Wassertemperatur-Datensatz (HadSST3) existiert nur in Anomalie-Form. Und ohne stützende Studie gibt es keine Dokumentation darüber, wie Berkeley Earths diese Anomalien in absolute Werte konvertiert hat. Die Quelle ICOADS-Daten sowie die HadISST und ERSST.v3b-Endprodukte werden in absoluter Form gezeigt, so dass vermutlich eine davon als Referenz herangezogen worden war.

Vergleich der Daten von BEST, GISS und NCDC in absoluter Form

Die jährlichen globalen Mitteltemperaturen der drei Institutionen in absoluter Form vom Anfangsjahr 1880 bis zum letzten vollständigen Jahr 2013 zeigt Abbildung 3. Die BEST-Daten sind wärmer als die anderen beiden, aber der Kurvenverlauf ist ähnlich, wie man es auch erwarten würde.

Abbildung 3

In Abbildung 4 habe ich den kältesten Datensatz (NCDC) vom wärmsten Datensatz (BEST) subtrahiert. Die Differenz wurde außerdem mit einem zehnjährigen gleitenden Mittel geglättet (rote Kurve). Zumeist sind die BEST-Daten in absoluten Werten um etwa 0,8°C wärmer als die NCDC-Schätzung. Der 1940 beginnende Buckel, der um 1950 seinen Spitzenwert erreicht, sollte den Adjustierungen geschuldet sein, die UKMO an den HadSST3-Daten vorgenommen hatte, nicht aber an die Daten von NOAA ERSST.v3b, die sowohl von GISS als auch von NCDC herangezogen worden waren. Diese Diskussionen werden in einem anderen Kapitel geführt. Ich habe den Verdacht, dass die geringere Differenz zu Beginn der Datenreihe auch mit der Handhabung der Wassertemperaturdaten zusammenhängt, aber es gibt keine Möglichkeit, dies ohne Zugang zu den von BEST modifizierten HadSST3-Daten sicher zu sagen. Der jüngste Aufwärts-Tick sollte dem Unterschied geschuldet sein, wie BEST und NCDC mit den Daten aus dem Arktischen Ozean umgehen. Berkeley Earth extrapoliert Festlands-Temperaturdaten einfach hinaus auf die Ozeane, während NCDC Wassertemperaturdaten im Arktischen Ozean außen vor lassen, sofern dort Meereis liegt, und man extrapoliert landbasierte Daten nicht auf Flächen über Eis zu jenen Zeiten.

Abbildung 4

Und jetzt zu den Modellen:

Simulationen der absoluten Lufttemperatur seit 1880 seitens des Klimamodells CMIP5

Wie in diesem Buch schon an verschiedenen Stellen erwähnt, werden die Ergebnisse der Klimamodelle, die vom IPCC für ihren 5. Zustandsbericht herangezogen worden waren, im Climate Model Intercomparison Project Phase 5 archive gespeichert, und diese Ergebnisse sind öffentlich verfügbar und aufbereitet zum Download in leicht nutzbaren Formaten via KNMI Climate Explorer. Die Ergebnisse von CMIP5 der Lufttemperatur auf dem KNMI Climate Explorer stehen auf der Monthly CMIP5 scenario runs-Website und werden als „TAS“ bezeichnet.

Die Modellergebnisse auf dem KNMI Climate Explorer sind für die historischen Antriebe verfügbar mit Übergängen zu den unterschiedlichen RCP-Zukunfts-Szenarien. Hier zeigen wir das historische und das Worst-Case-Zukunfts-Szenario RCP8.5. Wir verwenden das Worst-Case-Szenario allein als Referenz, wie hoch die Temperaturen den Modellen zufolge steigen könnten, falls die Emissionen von Treibhausgasen wie projiziert unter diesem Szenario erfolgen. Die Verwendung des Worst-Case-Szenarios wird kaum Auswirkungen auf den Vergleich zwischen Modell und Daten von 1880 bis 2013 haben. Wie man sich erinnert, beginnen die Zukunftsszenarien in den meisten Modellen nach 2005, bei anderen später, und deswegen gibt es nur sehr geringe Unterschiede zwischen den Modellergebnisse für die unterschiedlichen Modell-Szenarien während der ersten paar Jahre. Außerdem habe ich die Outputs separat heruntergeladen für alle Modelle individuell sowie deren Ensemble-Mitgliedern. Es gibt insgesamt 81 Ensemble-Mitglieder von 39 Klimamodellen.

Anmerkung: Die Modellergebnisse sind verfügbar in absoluter Form in Grad Celsius, darum habe ich sie nicht auf irgendeine Weise adjustiert.

Hiermit als Hintergrund ist Abbildung 5 eine Spaghetti-Graphik, die die archivierten Ergebnisse der CMIP5-Klimamodell-Simulationen zeigt der globalen Lufttemperatur von 1880 bis 2100 mit historischen und RCP8.5-Antrieben. Eine größere Version dieser Graphik mit einer Auflistung aller Ensemble-Mitglieder steht hier.

Abbildung 5

Welchen Wert die globale mittlere Temperatur derzeit auch immer haben mag oder in der Vergangenheit hatte oder in Zukunft haben wird – die im 5. IPCC-Zustandsbericht verwendeten Modelle haben ihn mit Sicherheit umgeben [surrounded].

Einige könnten nun argumentieren, dass absolute Temperaturwerte unwichtig sind – dass wir uns viel eher mit Vergangenheit und Zukunft der Erwärmungsraten befassen sollten. Wir können dieses Argument auf zwei Wegen widerlegen: Erstens haben wir bereits in den Kapiteln CMC-1 und -2 gesehen, dass Klimamodelle bei der Simulation der Temperaturen von 1880 bis in die achtziger Jahre und dann wieder von den achtziger Jahren bis heute sehr schlecht abgeschnitten haben. Außerdem werden wir später das Scheitern der Modelle noch sehr viel detaillierter ausführen. Zweitens, absolute Temperaturwerte sind aus einem anderen Grund wichtig. Natürliche und verstärkte Treibhauseffekte hängen ab von der Infrarotstrahlung, die von der Erdoberfläche emittiert wird, und die Menge der von unserem Planeten in den Weltraum emittierten Infrarotstrahlung ist eine Funktion der absoluten Temperatur und nicht von Anomalien.

Wie in Abbildung 5 oben gezeigt beginnt die Mehrheit der Modelle mit Absolutwerten der globalen mittleren Temperatur, die eine Bandbreite von 12,2°C bis etwa 14,0°C aufweisen. Aber unter Einschluss der Ausreißer reicht die Bandbreite von 12,0°C bis 15,0°C. Die Bandbreite der modellierten globalen Mitteltemperatur ist einfacher erkennbar, falls wir die Modellergebnisse mit 10-Jahre-Filtern glätten. Siehe Abbildung 6.

Abbildung 6

Wir könnten diese Bandbreite enger machen mittels Entfernen der Ausreißer, aber ein Problem hiervon ist, dass die Warm-Ausreißer relativ nahe der jüngeren (besseren?) Schätzung der absoluten Temperatur der Erde von Berkeley Earth liegen. Siehe Abbildung 7, in der wir zu den jährlichen, nicht geglätteten Ergebnissen zurückkehren.

Abbildung 7

Das andere Problem bei der Entfernung der Ausreißer ist, dass das IPCC eine politische und keine wissenschaftliche Institution ist. Als Folge hiervon werden in dieser politischen Institution Modelle anderer Agenturen aus der ganzen Welt verwendet, selbst solche, die noch schlechtere Ergebnisse liefern als die auch schon schlechten Ergebnisse der anderen Modelle, was die gesamte Gruppe hinabzieht.

Mit diesen beiden Dingen im Hinterkopf werden wir alle Modelle in dieser Präsentation beibehalten, selbst die offensichtlichen Ausreißer.

Betrachtet man noch einmal die große Bandbreite der Modellsimulationen der globalen mittleren Temperatur in Abbildung 5 oben, scheint es eine Spannweite von mindestens 3°C zwischen dem kältesten und dem wärmsten zu geben. Schauen wir mal, ob sich das bestätigt.

In Abbildung 8 habe ich die kälteste modellierte globale mittlere Temperatur von der wärmsten in jedem Jahr subtrahiert, und zwar von 1880 bis 2100. Für den größten Teil des Zeitraumes zwischen 1880 und 2030 ist die Spannweite zwischen dem kältesten und dem wärmsten größer als 3°C.

Abbildung 8

Diese Spannbreite hilft uns, etwas zu beleuchten, was wir schon einige Male angesprochen haben: die Verwendung vom Multi-Modell Ensemble-Member Modellmittel, also das Mittel aller Läufe von allen Klimamodellen. Es gibt nur eine globale mittlere Temperatur, und deren Schätzungen variieren. Es gibt offensichtlich bessere und schlechtere Simulationen davon, wie immer er beschaffen ist. Liefert uns die Mittelung der Modellsimulationen eine gute Antwort? Nein!

Aber das Mittel, das Multi-Modell-Mittel, liefert uns doch etwas von Wert. Es zeigt uns den Konsens, das Gruppendenken, hinter den modellierten globalen mittleren Temperaturwerten und wie diese Werte variieren, falls (großes falls) sie auf die Antriebe reagieren, die auch in den Klimamodellen stecken. Und wie wir sehen werden, reagieren die gemessenen Temperaturen nicht auf jene Antriebe, wie sie von den Modellen simuliert werden.

Vergleiche Modell ↔ Daten

Wegen der Differenzen zwischen den neuesten (BEST) und den älteren (NCDC und GISS) Schätzungen der absoluten globalen Mitteltemperatur werden sie separat präsentiert. Und weil die GISS- und die NCDC-Daten einander so ähnlich sind, verwenden wir deren Mittelwert. Und schließlich werden wir für die Vergleiche nicht alle Ensemble-Member als Spaghetti-Graphik zeigen. Wir zeigen das Maximum, das Mittel und die Minima.

Mit diesen Bedingungen vergleicht Abbildung 9 das Mittel der GISS und NCDC-Schätzungen der absoluten mittleren globalen Temperaturen mit dem Maximum, dem Mittel und dem Minimum der modellierten Temperaturen. Das Modellmittel liegt nahe den GISS- und NCDC-Schätzungen der absoluten globalen Mitteltemperaturen, wobei das Modellmittel etwa 0,37°C kälter ist als die Daten im Zeitraum 1880 bis 2013.

Abbildung 9

In Abbildung 10 wird die BEST-Schätzung (neuer = besser?) der absoluten mittleren globalen Temperaturen von 1880 bis 2013 verglichen mit Maximum, Mittel und Minimum der modellierten Temperaturen. In diesem Falle liegt die BEST-Schätzung näher dem Maximum und weiter vom Modellmittel entfernt als bei den Schätzungen von GISS und NCDC. Das Modellmittel zeigt sich etwa 1,14°C kälter als die BEST-Schätzung für den Zeitraum 1880 bis 2013.

Abbildung 10

Differenz Modell ↔ Daten

In den nächsten beiden Graphiken subtrahieren wir die datenbasierten Schätzungen der absoluten globalen mittleren Temperatur der Erde vom Modellmittel der CMIP5-Simulationen. Man berücksichtige dies bei der Betrachtung der nächsten beiden Graphiken: Falls das Mittel der Modelle die dekadischen und multidekadischen Schwankungen der Temperatur auf der Erde angemessen simulieren würde und lediglich einfach den absoluten Wert verfehlt haben, wäre die Differenz zwischen Modellen und Daten eine flache horizontale Linie, die sich aus der Differenz ergibt.

Abbildung 11 zeigt die Differenz zwischen dem Modellmittel der Simulationen der Temperaturen auf der Erde und den GISS- und NCDC-Schätzungen, wobei die Daten von den Modellen subtrahiert werden. In der folgenden Diskussion geht es um das 10-Jahre-Mittel […keys off the 10-year average], welches ebenfalls in rot eingezeichnet ist.

Abbildung 11

Die größte Differenz zwischen Modellen und Daten zeigt sich in den achtziger Jahren des 19. Jahrhunderts. Die Differenz nimmt drastisch ab von den achtziger Jahren bis zu den Zehner-Jahren des 20. Jahrhunderts. Der Grund: Die Modelle simulieren nicht angemessen die beobachtete Abkühlung, zu der es zu jener Zeit gekommen war. Die Differenz Modell ↔ Daten wächst dann wieder von 1910 bis etwa 1940. Dies zeigt, dass sie nicht nur jene Abkühlung, sondern auch die Erwärmung von 1910 bis 1940 nicht angemessen simulieren konnten. Die Differenz verläuft zyklisch bis zu den neunziger Jahren, nach welchem Zeitpunkt die Differenz wieder graduell zunimmt. Und von 1990 bis heute ist die Differenz infolge des Stillstands auf den niedrigsten Wert seit 1880 gesunken.

Abbildung 12 zeigt die Differenz zwischen der BEST-Schätzung der Temperatur der Erde und dem Modellmittel der Simulationen. Die Kurve ist ähnlich der oben gezeigten Kurve für die GISS- und NCDC-Daten. Die BEST-Daten zeigen von Ende des 19. Jahrhunderts bis zu den Zehnerjahren des 20. Jahrhunderts geringere Abkühlung, und als Folge davon zeigt sich eine kleinere Abnahme der Temperaturdifferenz zwischen Modellen und Daten. Aber es gibt immer noch eine große Zunahme der Differenz von den Zehnerjahren bis etwa 1940, als die Modelle nicht imstande waren, die damals stattfindende Erwärmung angemessen zu simulieren. Und natürlich hat der jüngste Stillstand eine erneute Abnahme der Temperaturdifferenz verursacht.

Abbildung 12

Zusammenfassung dieses Kapitels

Es gibt eine Spannbreite von etwa 0,8°C bei den Schätzungen der absoluten globalen Mitteltemperatur, wobei die höhere Schätzung von einer Schätzung aus jüngerer Zeit stammt, die auf einer aktuelleren Datenbasis der globalen Temperaturen beruht. Mit anderen Worten, die BEST-Schätzung scheint wahrscheinlicher zu sein als die veralteten GISS- und NCDC-Werte.

In den Klimamodellsimulationen der absoluten globalen Temperaturen gibt es eine erheblich größere Spannbreite, die im Mittel etwa 3,15°C von 1880 bis 2013 ausmacht. Um das ins Verhältnis zu stellen: Mit Beginn in den neunziger Jahren haben Politiker suggeriert, dass wir die Steigerung der globalen Temperaturen auf 2,0°C begrenzen. Eine andere Möglichkeit, jene 3,15°C-Modellspannbreite ins Verhältnis zu setzen ist es, dass das IPCC in seinem 4. Zustandsbericht im Grunde behauptet, dass die gesamte globale Erwärmung von 1975 bis 2005 durch anthropogene Treibhausgase verursacht worden ist. Diese Behauptung beruhte auf Klimamodell-Ergebnissen, die die natürliche Variabilität nicht simulieren können, und darum war die Behauptung bedeutungslos. Unabhängig davon sind die globalen Temperaturen zwischen 1975 und 2005 nur um etwa 0,55°C gestiegen, jedenfalls dem Mittel der linearen Trends in den BEST-, GISS- und NCDC-Daten zufolge.

Und die Differenz zwischen der modellierten und der gemessenen absoluten globalen Mitteltemperatur war lediglich eine weitere Möglichkeit zu zeigen, wie schlecht globale Temperaturen in den jüngsten und besten Klimamodellen simuliert wurden, die das IPCC für seinen 5. Zustandsbericht herangezogen hatte.

Aber

Manchmal erfahren wir etwas Anderes, wenn wir Daten als Anomalien präsentieren. In den Abbildungen 13 und 14 habe ich die Modelle↔Daten-Differenz durch ihre jeweiligen Mittel von 1880 bis 2013 ersetzt. Dies konvertiert die absoluten Differenzen in Anomalien. Wir benutzen den vollen Datensatz als eine Referenz um sicherzustellen, dass wir die Ergebnisse nicht durch eine entsprechende Auswahl der Zeiträume verzerren. Mit anderen Worten, niemand kann uns vorwerfen, dass wir bzgl. der Referenzjahre Rosinenpickerei betrieben hätten. Die 10-Jahre-Mittelkurven (rot) helfen, die Auswirkungen des jüngsten Stillstandes ins Verhältnis zu setzen.

Man vergesse nicht, falls die Modelle die dekadischen und multidekadischen Variationen der Temperaturen auf der Erde angemessen simulieren, wäre die Differenz eine gerade Linie, und in den folgenden beiden Fällen wäre jene gerade Linie eine Null-Anomalie.

Für das Mittel der GISS- und NCDC-Daten (Abbildung 13) gilt, dass die Divergenz zwischen Modellen und Daten infolge des jüngsten Stillstandes heute die größte (schlechteste) seit etwa 1890 ist.

Abbildung 13

Und betrachtet man die Differenz zwischen den Modellsimulationen der globalen mittleren Temperatur und den BEST-Daten (Abbildung 14) als Folge des Stillstandes, ist die Modell-Performance während des jüngsten Zehn-Jahre-Zeitraumes die schlechteste jemals bei der Simulation der globalen Temperaturen.

Abbildung 14

Falls man noch einmal zurück zu Abbildung 7 geht, wird man feststellen, dass es eine kleine Untermenge von Modellläufen gibt, die die Berkeley Earth-Schätzung der absoluten globalen Mitteltemperatur unterstreicht. Sie liegen so eng beieinander, dass es sehr wahrscheinlich zu sein scheint, dass jene Modelle an jene Temperaturen angepasst worden sind.

Nun kann ich mir vorstellen, dass man daran interessiert ist, um welche Modelle es sich dabei handelt. Siehe Abbildung 15. Es handelt sich um die 3 Ensemble-Member des MIROC5-Modells von der International Centre for Earth Simulation (ICES Foundation) und die 3 Ensemble-Member des GISS ModelE2 with Russell Ocean (GISS-E2-R).

Abbildung 15

Das bedeutet nicht, dass die Modelle MIROC5 und GISS-E2-R irgendwie besser sind als alle anderen Modelle. Soweit ich weiß, können diese beiden immer noch nicht die gekoppelten Ozean-Atmosphäre-Prozesse simulieren, die zu einer Erwärmung der globalen Temperaturen über multidekadische Zeiträume führen oder die diese Erwärmung stoppen können, wie AMO und ENSO. Wie oben erwähnt zeigt ihre größere Nähe zu den aktualisierten Schätzungen der absoluten Temperatur auf der Erde, dass jene beiden Modelle an diese angepasst worden sind. GISS sollte in Betracht ziehen, ihre Schätzung von 14,0°C der absoluten globalen Temperatur für ihre Referenzperiode zu aktualisieren.

Schließlich haben wir während der letzten paar Jahre auf zahlreichen Wegen gezeigt, wie schlecht die Modelle abgeschnitten haben. Darunter waren:

Global Precipitation

Satellite-Era Sea Surface Temperatures

Global Surface Temperatures (Land+Ocean) Since 1880

Global Land Precipitation & Global Ocean Precipitation

Alle diese Beiträge waren auch bei WattsUpWithThat gepostet.

Link: https://bobtisdale.wordpress.com/2014/11/09/on-the-elusive-absolute-global-mean-surface-temperature-a-model-data-comparison/

Übersetzt von Chris Frey EIKE




Klimamodelle simulieren NICHT das Klima der Erde

Einführung

Die vom IPCC verwendeten Klimamodelle simulieren das Klima nicht so, wie es auf der Erde besteht. Diese Realität der Klimamodelle wird wahrscheinlich für viele Laien in punkto Klima überraschend sein.

Im ersten Teil dieser Reihe zeigten wir, wie die räumliche Verteilung der modellierten Erwärmungsraten der Oberflächen der globalen Ozeane von 1982 bis 2015 (also der Ära mit satellitengestützten Temperaturmessungen) keine Ähnlichkeiten aufweist mit der räumlichen Verteilung der gemessenen, auf Daten basierenden Erwärmung und Abkühlung. Und wir haben besprochen, warum es wichtig ist, dass die vom IPCC verwendeten Modelle in der Lage sind zu simulieren, wann und wo und warum die Temperaturen der Ozeanoberflächen variieren. Das ist relativ leicht zu verstehen. Wo und wann sich die Oberflächen der Ozeane erwärmen, nicht erwärmen oder sich gar aus natürlichen abkühlen und um welchen Betrag – zusammen mit anderen natürlich auftretenden Faktoren – diktiert, wo und wann Landtemperaturen steigen und fallen und wo der Niederschlag zunimmt oder abnimmt – auf jährlicher dekadischer oder multidekadischer Grundlage.

In diesem Teil zeigen wir die Vergleiche zwischen Modellen und Daten in Gestalt von Zeitreihen-Graphiken global und für eine Anzahl von Regionen. Wie schon erwähnt handelt es sich dabei um Darstellungen in absoluter Form anstatt von Anomalien. Damit sollen Additionsprobleme der Modelle illustriert werden.

Warum absolute Temperaturen?

Die tatsächlichen Temperaturen der Ozeanoberfläche bestimmen zusammen mit zahlreichen anderen Faktoren, wie viel Feuchtigkeit aus den Ozeanen verdunstet und daraus folgend, wie viel Feuchtigkeit sich in der Atmosphäre befindet … was die Feuchtevariable (1) für Niederschlag, (2) für den auf Wasserdampf bezogenen Treibhauseffekt und (3) für die negativen Rückkopplungen durch die Wolkenbedeckung diktiert. Mit anderen Worten, die Meeresoberflächen-Temperaturen nicht angemessen zu simulieren bedeutet, dass auch die atmosphärischen Komponenten der gekoppelten Ozean-Atmosphäre-Modelle nicht stimmen können.

Einleitende Information

Der in diesem Beitrag verwendete Datensatz der Ozean-Oberflächentemperatur [sea surface temperature] ist die wöchentliche und monatliche Version von NOAA’s Optimum Interpolation (OI) Sea Surface Temperature (SST) v2 (a.k.a. Reynolds OI.v2). Wir verwenden ihn, weil (1) es der längste verfügbare Datensatz mit satellitengestützten Wasseroberflächen-Temperaturen ist, (2) weil dessen Satellitendaten bias-adjustiert sind auf der Grundlage von Temperaturmessungen von in Schiffe einströmendem Kühlwasser und von Bojen (sowohl treibend als auch fest) und (3) – und das ist am wichtigsten – weil die NOAA-Reynolds OI.v2-Daten „eine gute Schätzung der Wahrheit“ genannt worden sind. Siehe hier. Die Autoren stellten hinsichtlich der Reynolds OI.v2-Daten fest (Hervorhebung von mir):

Obwohl die NOAA OI-Analyse einiges Rauschen enthält infolge deren Verwendung unterschiedlicher Datentypen und Bias-Korrekturen für Satellitendaten, wird sie von den Satellitendaten dominiert und zeigt eine gute Schätzung der Wahrheit.

Dies ist nicht die (übermäßig aufgeblähte und eine extrem hohe Erwärmungsrate zeigende) hoch aufgelöste tägliche Version der NOAA’s Reynolds OI.v2-Daten, welche wir illustriert und diskutiert haben in dem Beitrag mit dem Titel [übersetzt] „Über die monumentalen Differenzen zwischen den Datensätzen der globalen Meeresoberflächentemperatur während der von der NOAA herausgepickten Stillstandsperiode der globalen Erwärmung von 2000 bis 2014“ (hier). Auf der Grundlage jenes Beitrags verwenden wir auch nicht die den „Stillstand zerschlagenden“ [pause buster] Daten von NOAA ERSST.v4, aus welchen der Ozean-Anteil der von NOAA und GISS kombinierten Temperaturprodukte von Land + Wasser besteht. Die NOAA hat die zahlreichen Parameter in ihrem ERSST.v4-Modell adjustiert, so dass die Erwärmungsraten für die von der NOAA gewählten Zeiträume von 1951 bis 2012 und 2000 bis 2014 am extremen oberen Rand der Unsicherheits-Bandbreite für jene Perioden liegen. Und wie wir in jenem Beitrag gezeigt und illustriert haben, weist die originale Version (wöchentlich, monatlich, auf 1°C aufgelöst) der Reynolds OI.v2-Daten, die wir hier zeigen, im Wesentlichen die gleiche Erwärmungsrate auf wie die UKMO HADSST3-Daten der von der NOAA gewählten Stillstandsperiode von 2000 bis 2014.

Die in diesem Beitrag präsentierten Klimamodelle sind diejenigen, die im CMIP5-Archiv gespeichert sind, welcher vom IPCC für dessen 5.Zustandsbericht verwendet worden ist. Die CMIP5-Klimamodell-Ergebnisse der Wasseroberflächentemperatur sind verfügbar über den KNMI Climate Explorer, spezifiziert auf dieser Website unter der Überschrift Ocean, ice and upper air variables. Die Wasseroberflächentemperatur wird als TOS bezeichnet. Um mit vorherigen Beiträgen konsistent zu sein werden das „CMIP5-Mittel“ und das Historic/RCP6.0-Szenario verwendet. Das RCP6.0-Szenario liegt A1B am nächsten, welches in den CMIP3-Modellen verwendet wurde (also für den 4. IPCC-Zustandsbericht). Und wieder benutzen wir das Modellmittel, weil es die erzwungene Komponente der Klimamodelle repräsentiert. Im Wesentlichen repräsentiert das Modellmittel den Konsens der das Klima modellierenden Gruppen darüber, wie sich die Oberflächen der Ozeane erwärmen sollten, falls sie durch anthropogene Treibhausgase und die anderen in den Modellen verwendeten Treiberfaktoren in den Modellen getrieben werden würden. Für weitere Diskussionen siehe hier.

Weil die Vergleiche zwischen Modell und Daten absolut vorgenommen werden, werden jährliche Daten gezeigt. Die Reynolds OI.v2-Daten beginnen im November 1981, so dass sich die Vergleiche über 34 Jahre erstrecken, von 1982 bis 2015.

Die in die Graphiken eingezeichneten linearen Trends wurden mittels EXCEL berechnet (hier).

Globale Zeitreihen

Abbildung 1 zeigt zwei Modelle-Daten-Vergleiche der Oberflächentemperaturen während der Satellitenära, keine Anomalien. Die obere Graphik für die Breiten zwischen 90N und 90S umfasst auch die polaren Ozeane. Die untere Graphik zeigt den Bereich zwischen 60N und 60S, also ohne die polaren Ozeane. Es macht kaum einen Unterschied, ob wir die polaren Ozeane in diesen Modelle-Daten-Vergleich einbeziehen oder nicht. Die Disparität zwischen den Modellen und den Daten ist ohne die polaren Ozeane etwas größer, aber unter dem Strich zeigen die Modelle zu viel Erwärmung.

Abbildung 1

Die Differenzen zwischen Modellen und Daten auf globaler Basis beleuchten ein sehr grundlegendes Problem mit den Modellen. Die Modellierer müssen sich allein auf anthropogene Treibhausgase und andere anthropogene Faktoren konzentrieren, um die Klimamodelle zu treiben, weil die Klimamodelle Timing, Größenordnung und Dauer natürlich auftretender Prozesse nicht angemessen simulieren, die zur Erwärmung der Ozeanoberfläche führen können. Auf der Grundlage jener Modelle (die keinerlei Bezug zur realen Welt haben), wurde erwartet, dass sich die Oberflächen der Ozeane grob mit einer Raten von 0,17°C pro Dekade während der letzten 34 Jahre erwärmt haben müssten. Aber in der realen Welt zeigten sich beobachtete Erwärmungsraten infolge der Kombination der natürlichen Variabilität und Treibhausgasen von lediglich 0,10°C pro Dekade. Das ist eine monumentale Differenz zwischen Hypothese und Realität.

Ein weiteres Faktum muss berücksichtigt werden: Die Daten existierten, während die Modellierer ihre Klimamodelle für das CMIP5-Archiv vorbereitet haben. Mit anderen Worten, die Modellierer kannten ihre Ziele. Und das beste, was die Modellierer tun konnten war, die Erwärmungsrate der Oberfläche der globalen Ozeane fast zu verdoppeln. Das ist eine grauenhafte Modellierungsmaßnahme … selbst mit der jüngsten leichten Erwärmung primär durch The Blob und durch den El Nino 2015/2016.

Man beachte auch, dass von Klimamodellen simulierten Ozeanoberflächen etwas wärmer sind als beobachtet. Für den Bereich zwischen 60N und 60S liegen die mittleren simulierten Temperaturen der Ozeanoberfläche im Zeitraum 1982 bis 2015 um etwa 0,2°C höher als beobachtet. Vielleicht ist das der Grund, warum die Modelle global zu viel Niederschlag simulieren. Siehe Abbildung 2, was in meinem E-Buch On Global Warming and the Illusion of Control die Abbildung Intro-10 ist.

Abbildung 2

Tropische Wasseroberflächen-Temperaturen

Die Modelle überschätzten die Erwärmung der Wasseroberflächen-Temperaturen der tropischen Ozeane (24N bis 24S) während der letzten 34 Jahre … keine Überraschung. Überraschend ist, wie ähnlich die modellierten und die beobachteten Wasseroberflächen-Temperaturen in den Tropen sind. Siehe Abbildung 3. In den tropischen Ozeanen liegt die mittlere simulierte Wasseroberflächentemperatur im Zeitraum 1982 bis 2015 um lediglich etwa 0,02°C über den beobachteten Werten.

Abbildung 3

Während die absoluten Temperaturen sich ziemlich ähnlich sind, haben die Modelle die Erwärmung drastisch überschätzt. Den Daten zufolge hat sich die Oberfläche der tropischen Ozeane mit einer nicht gerade alarmierenden Rate von +0,08°C erwärmt. Die Modelle hingegen zeigen, dass sie sich im Falle der Erwärmung durch anthropogene Treibhausgase um etwa +0,19°C erwärmt haben müssten. Jetzt berücksichtige man, dass die tropischen Ozeane (24N bis 24S) 76% der Tropen und 46% der globalen Ozeane ausmachen.

Diese Disparität zwischen Modellen und Daten stützt die Vergleiche zwischen Modellen und Daten bzgl. der tropischen mittleren Troposphäre von John Christy im Juni 2013. Siehe die Beiträge von Roy Spencer dazu hier und hier. Die Modelle haben die Erwärmungsraten der mittleren Troposphäre über den Tropen gewaltig übertrieben.

Kommen wir zu den tropischen Ozeanen. Wie Abbildung 4 zeigt, beträgt die Differenz zwischen den simulierten und den beobachteten Erwärmungsraten für die tropischen Seegebiete des Atlantischen und des Indischen Ozeans (24S bis 24N; 80W bis 120E) etwa 0,08°C pro Dekade, wobei natürlich die Modelle zu viel Erwärmung zeigen.

Abbildung 4

Im tropischen Pazifik (24S bis 24N; 120E bis 80W) zeigen die Modelle sogar eine Erwärmung mit einer Rate, die fast 0,14°C über der beobachteten Rate liegt (siehe Abbildung 5).

Abbildung 5

El Nino- und La Nina-Ereignisse wirken sich im östlichen tropischen Pazifik am stärksten aus. Während eines El Nino fließt warmes Oberflächen- und oberflächennahes Wasser entlang des Äquators in den tropischen Ostpazifik, wobei das oberflächennahe Wasser, wärmer als normal, an die Oberfläche aufquillt. Während einer neutralen ENSO-Phase (weder El Nino noch La Nina) und während La Nina-Ereignissen quillt kühles Wasser unter der Oberfläche nach oben. Offensichtlich haben die Klimamodellierer nicht einmal ansatzweise Aspekte des tropischen Pazifiks erfasst. Während es den Daten zufolge im östlichen tropischen Pazifik (24N bis 24S; 180W bis 80W) während der letzten Jahre keine Erwärmung der Oberfläche gegeben hat, zeigt der Konsens der Modelle, dass die Oberfläche sich mit einer Rate von 0,18°C erwärmt haben sollte. Siehe Abbildung 6.

Abbildung 6

Außertropische Wasseroberflächen-Temperaturen

Für die außertropischen Ozeane der Südhemisphäre (90S bis 24S), Abbildung 7, ist die beobachtete Erwärmungsrate ebenfalls mit etwa 0,06°C pro Dekade extrem niedrig. Andererseits zeigen die Klimamodelle, dass sich die Ozeane mit einer fast doppelt so hohen Rate, nämlich 0,12°C pro Dekade erwärmt haben müssten, falls anthropogene Treibhausgase für die Erwärmung in dieser Region verantwortlich wären. Jetzt führe man sich vor Augen, dass die außertropischen Ozeane der Südhemisphäre etwa 33% der globalen Ozeane ausmachen (etwa 23% der gesamten Planetenoberfläche).

Abbildung 7

Andererseits scheinen die Klimamodelle die Erwärmungsrate der Wasseroberflächen ziemlich richtig gezeigt haben im kleinsten Teil der globalen Ozeane, nämlich in den außertropischen Ozeanen der Nordhemisphäre (24N bis 90N). Siehe Abbildung 8. Die außertropischen Ozeane der Nordhemisphäre machen lediglich 21% der globalen Ozeanoberfläche aus (etwa 15% der gesamten Planetenoberfläche).

Abbildung 8

Unglücklicherweise für die Modellierer haben die Modelle die Erwärmung der Oberfläche des außertropischen Nordatlantik (Abbildung 9) unter- und die Erwärmung im außertropischen Nordpazifik überschätzt (Abbildung 10), so dass sie die Erwärmung insgesamt der außertropischen Nordhemisphäre unrichtig dargestellt haben. Keine Überraschung.

Abbildung 9

———————————————-

Abbildung 10

Jetzt beachte man die Ähnlichkeiten zwischen den modellierten und den beobachteten Oberflächentemperaturen (nicht Trends) der tropischen Ozeane (Abbildung 9). Die mittlere beobachtete tropische Wasseroberflächentemperatur für den Zeitraum 1982 bis 2015 liegt nur um 0,02°C unter den Modellwerten. Dann ist da noch die Differenz zwischen den Modellen und den Beobachtungen in den außertropischen Regionen der Südhemisphäre (Abbildung 7) und der Nordhemisphäre (Abbildung 8). Für den Zeitraum 1982 bis 2015 liegen die modellierten Wasseroberflächentemperaturen der Südhemisphäre um etwa 0,8°C über den beobachteten Werten. Auf der Nordhemisphäre beträgt dieser Unterschied +0,4°C. All dies sind weitere Hinweise darauf, dass die ozeanischen Zirkulationen in den Klimamodellen falsch abgebildet sind.

Diese Disparitäten in absoluten Temperaturwerten können helfen zu erklären, warum die Klimamodellierer nicht den Meereisverlust der Nordhemisphäre und den Meereiszuwachs der Südhemisphäre erklären können. Siehe die Abbildungen 11 und 12, in welchen das modellierte und das beobachtete Gebiet mit Meereis in der Nord- und Südhemisphäre verglichen wird. Hierbei handelt es sich um die Abbildungen Intro-8 und Intro-9 in einem E-Book On Global Warming and the Illusion of Control.

———————————————-

Abbildung 12

Individuelle Ozeanbecken

Jetzt folgen vergleiche Modelle vs. Daten für die individuellen Ozeanbecken … ohne Kommentar:

Abbildung 13

———————————————-

Abbildung 14

———————————————-

Abbildung 15

———————————————-

Abbildung 16

———————————————-

Abbildung 17

———————————————-

Abbildung 18

———————————————-

Abbildung 19

———————————————-

Abbildung 20

———————————————-

Abbildung 21

Atlantische multidekadische Oszillation

Die Atlantische Multidekadische Oszillation wird oft beschrieben als die Variationen der Oberflächentemperaturen im Nordatlantik, die mit einer Periode von 50 bis 80 Jahren schwingen. In dieser Hinsicht wird diese AMO typischerweise mittels Trendbereinigung der langzeitlichen Wasseroberflächen-Temperaturanomalien des Nordatlantiks dargestellt. Das Argument gegen die Trendbereinigung lautet, dass sie nicht die „globale Erwärmung“ berücksichtigt.

Falls jemand mit der AMO nicht vertraut ist, siehe man bei der NOAA hier sowie die folgenden beiden Beiträge:

An Introduction To ENSO, AMO, and PDO — Part 2

Multidecadal Variations and Sea Surface Temperature Reconstructions

Über einige multidekadische Zeiträume erwärmt sich die Wasseroberfläche des Nordatlantiks schneller als die übrigen globalen Ozeane, und während anderer multidekadischer Perioden erwärmt sich die Wasseroberfläche langsamer als die übrigen globalen Ozeane und kann sich auch dramatisch abkühlen. Im längsten Teil des Zeitraumes von November 1981 bis Dezember 2014 befanden sich die Wasseroberflächentemperaturen des Nordatlantiks in einer ihrer natürlichen Erwärmungsphasen.

Wie früher schon erwähnt zählen die Daten aus dem Nordatlantik nicht für die Erwärmung der globalen Ozeane. Daher sind die zusätzlichen langzeitlichen Variationen der Wasseroberflächentemperaturen des Nordatlantiks eine bessere Darstellung der AMO, über jene der globalen Ozeane hinaus. Um das zu bewerkstelligen, haben Trenberth and Shea (2006) die globalen Wasseroberflächen-Temperaturanomalien (60S bis 60N) von den Wasseroberflächen-Temperaturanomalien des Nordatlantiks (0 bis 60N; 80W bis 0) subtrahiert. Dieses Verfahren trägt der zusätzlichen Variabilität der Daten aus dem Nordatlantik über die Variationen der globalen Daten hinaus Rechnung. Aber für diesen Beitrag fügen wir diesem Verfahren eine kleine Änderung zu. Wir präsentieren die Differenz zwischen den globalen Daten und denen aus dem Nordatlantik in absoluten Zahlen, nicht als Anomalien.

Trenberth und Shea (2006) arbeiteten mit HadISST-Daten. Darum verwendete ich jenen Datensatz für diese Diskussion in vorherigen Aktualisierungen. Siehe Abbildung 22. Sie ist Abbildung 25 aus diesem Beitrag. Sie zeigt die modellierten und beobachteten Differenzen zwischen den globalen Wasseroberflächentemperaturen und denen des Nordatlantiks, und zwar für den Zeitraum 1870 bis 2014, d. h. das Porträt der AMO nach Trenberth and Shea (2006).

Abbildung 22

Offensichtlich zeigen die Daten, dass es keine merklichen multidekadischen Variationen der Wasseroberflächentemperaturen des Nordatlantiks gibt, die über jene in den globalen Daten hinausgehen. Dies zeigt natürlich, dass die natürlichen Variationen der Oberflächentemperaturen des Nordatlantiks eine globale Erwärmung verstärken oder unterdrücken können. Oder wie es die NOAA am Ende ihrer Website zur AMO schreibt:

Im 20. Jahrhundert haben die Klimaschwingungen der AMO alternierend die globale Erwärmung kompensiert oder übertrieben, was die Gründe für globale Erwärmung schwieriger zu finden macht.

Unglücklicherweise zeigt das Modellmittel der Klimamodelle nicht jene zusätzliche Variabilität in den Wasseroberflächentemperaturen des Nordatlantiks. Dies zeigt, dass die AMO durch die Faktoren getrieben wird (primär anthropogene Treibhausgase), die die globale Erwärmung in den Klimamodellen erzeugen.

Wollen wir also jene Graphik mit Hilfe der Reynolds OI.v2-daten aktualisieren, was unsere Sichtweite auf die letzten 34 Jahre limitiert. Zunächst die Komponenten:

Abbildung 23

Die obere Graphik in Abbildung 23 zeigt die modellierten Wasseroberflächentemperaturen der globalen Ozeane (60S bis 60N) und des Nordatlantiks (0 bis 60N; 80W bis 0) für den Zeitraum 1982 bis 2015. Der modellierte Trend des Nordatlantiks ist der Erwärmungsrate der globalen Ozeane sehr ähnlich, beträgt doch die Differenz lediglich 0,02°C pro Dekade. Die untere Graphik zeigt die gemessenen Wasseroberflächentemperaturen des Nordatlantiks und global. Die Daten zeigen, dass die Erwärmungsrate des Nordatlantiks fast 0,1°C pro Dekade höher ist als der der globalen Ozeane.

Abbildung 24 enthält den Modell-Daten-Vergleich der AMO während der Satellitenära mittels des Verfahrens von Trenberth und Shea (2006), außer dass wir wieder mit absoluten Temperaturwerten arbeiten. Dem Modellmittel zufolge sollte sich die Wasseroberfläche des Nordatlantiks lediglich mit einer Rate erwärmt haben, die etwas höher liegt als die der globalen Ozeane. Aber die Daten zeigen, dass die Oberfläche des Nordatlantiks in der Lage ist, sich mit einer Rate zu erwärmen, die um fast 0,1°C höher ist als die der globalen Ozeane, ohne von den Faktoren getrieben zu werden, die die Modelle treiben (primär Treibhausgase).

Abbildung 24

Abbildung 24 zeigt noch ein anderes Problem: Die Differenz zwischen der Oberflächentemperatur des Nordatlantiks und der globalen Ozeane ist zu klein … was erneut darauf hinweist, dass die Ozean-Zirkulationen in den Modellen falsch dargestellt sind.

Schlussbemerkungen

Wir leben auf einem mit Ozeanen bedeckten Planeten. Man könnte denken, dass es eine der obersten Prioritäten der Klimamodellierer ist, die Prozesse zu simulieren, die dazu führen, dass die Wasseroberflächentemperaturen jährlich, dekadisch und multidekadisch variieren. Traurigerweise haben die Modellierer einen anderen Weg gewählt … sie haben sich entschlossen, Modelle eines Planeten zu erzeugen, der keinerlei Beziehung aufweist zu dem, auf dem wir leben.

Klimamodell-Simulationen der Wasseroberflächentemperaturen liegen weit von jeder Realität entfernt. Das heißt, sie modellieren einen virtuellen Planeten – einen Science-Fiction-Planeten – der keinerlei Ähnlichkeit mit der Erde aufweist. Spezifischer: die vom IPCC herangezogenen Klimamodelle simulieren nicht (1) die tatsächlichen Erwärmungs- und Abkühlungsraten der Ozeanoberfläche, (2) die räumliche Verteilung dieser Trends und (3) die absoluten Temperaturen. Es wäre nett, wenn die Klimamodellierungs-Agenturen versuchen würden, die Oberflächentemperaturen dieses Planeten zu simulieren, und nicht diejenigen irgendeines Phantasie-Planeten. Dann könnten ihre Modelle einen gewissen Wert haben. Derzeit jedenfalls dienen sie keinem Zweck … außer zu demonstrieren, wie schlecht sie das Klima der Erde simulieren.

Link: http://wattsupwiththat.com/2016/02/12/climate-models-are-not-simulating-earths-climate-part-2/

Übersetzt von Chris Frey EIKE




Den Stillstand zerschlagende SST-Daten: Hat die NOAA eine Beziehung zwischen NMAT und SST hinweg adjustiert, die laut Konsens der CMIP5-Klimamodelle existieren sollte?

Bild rechts: © Chris Frey 2015

Hintergrund

Die NOAA hat ihr globales Temperatur-Erzeugnis Anfang dieses Jahres überarbeitet, um eine größere globale Erwärmung zu zeigen im Zeitraum nach 1998. Diese Datenmanipulationen haben vermeintlich die Verlangsamung der globalen Erwärmung in jenem Zeitraum beendet. Die von der NOAA durchgeführten Änderungen der globalen Temperatur wurden in drei Studien präsentiert. Die größten Änderungen wurden im Anteil der Wassertemperatur vorgenommen, und diese Änderungen waren Thema in den Studien von Huang et al. (2015) und Liu et al. (2015). Diese beiden Studien waren im Februar 2015 veröffentlicht worden – und von den Mainstream-Medien nicht zur Kenntnis genommen worden. Die Alarmisten jedoch haben nicht die Studie von Karl et al. (2015) übersehen Possible Artifacts of Data Biases in the Recent Global Warming Hiatus (Zahlschranke; gesamte Studie hier). Während sich die Überarbeitung auf den gesamten Zeitraum der globalen NOAA-Temperaturen seit dessen Beginn in den 1850-er Jahren erstreckte, haben sich Karl et al. (2015) auf die Zeiträume 1998 bis 2014 und 2000 bis 2014… konzentriert, während derer die NOAA den Anteil der Wassertemperatur bis zu einem Ausmaß adjustiert hatte, dass sie behaupten konnten, die Verlangsamung der globalen Erwärmung hatte es nie gegeben.

Natürlich waren diese Behauptungen irreführend. Grund: Selbst mit den NOAA-Änderungen an den Temperaturaufzeichnungen gibt es immer noch die sich unverändert erweiternde Diskrepanz zwischen Beobachtungen und der aufgrund von Klimamodellen prophezeiten globalen Erwärmung. Mit anderen Worten, die Manipulationen der NOAA an den globalen Temperaturaufzeichnungen haben diese Diskrepanz zwischen Modellen und Daten etwas kleiner gemacht, sie aber nicht eliminiert.

Der US-Kongress-Abgeordnete Lamar Smith ist Vorsitzender des Committee on Science, Space and Technology des Repräsentantenhauses. Wie viele andere Menschen auch hat Repräsentant Smith die NOAA-Änderungen bzgl. ihrer Temperaturaufzeichnung hinterfragt. Kürzlich hat Repräsentant Smith formell die NOAA-E-Mails angefordert, in denen es um die Änderungen der globalen Temperaturaufzeichnungen geht, und bis jetzt ist Dr. Kathryn Sullivan von der NOAA dieser Anforderung nicht gefolgt. Es gibt eine Fülle von Nachrichten-Artikeln über den Streit zwischen Smith und der NOAA, aber dieser ist nicht Gegenstand dieses Beitrags.

In diesem Beitrag geht es um die primäre Adjustierung, die die größte Auswirkung hat auf die den Stillstand zerschlagende [„pause busting“] Natur der neuen NOAA-Rekonstruktion der globalen Wassertemperatur an der Ozeanoberfläche. Ich komme zu dem Ergebnis, dass die NOAA einen Unterschied zwischen Messungen der Wassertemperatur durch Schiffe und der nächtlichen Lufttemperatur über Ozeanen hinweg adjustiert haben könnte. Diesen sollte es jedoch dem Konsens der im jüngsten IPCC-Bericht 5 verwendeten Klimamodelle zufolge geben. Wieder einmal legt dies die Vermutung nahe, dass eine weitere NOAA-Hypothese korrekt ist.

Zusätzlicher Hintergrund: Korrekturen eines Bias‘ der Wassertemperatur der Ozeane

Verschiedene Verfahren waren zur Anwendung gekommen, um Wassertemperaturen zu erhalten seit dem Beginn von Temperaturaufzeichnungen Mitte des 19. Jahrhunderts: Eimer aus unterschiedlichen Materialien (Holz, Segeltuch, isoliert); in Maschinen einströmendes Kühlwasser und Bojen (fest und treibend). Zusätzlich wurde die Lufttemperatur über der Wasseroberfläche von Schiffen gemessen … eine Größe, die maritime Lufttemperatur genannt wird. Jedes Verfahren enthält ihre eigenen Messfehler, Unsicherheiten und Verzerrungen. (Für Neulinge auf diesem Gebiet: Kent et al. (2010) Effects of instrumentation changes on ocean surface temperature measured in situ. Darin findet sich eine detaillierte und leicht verständliche Übersicht. Oder Kennedy (2014) A review of uncertainty in in situ measurements and data sets of sea-surface temperature. Eine Kopie der eingereichten Studie findet sich hier).

Mit Beginn Mitte des 20. Jahrhunderts haben die Datensammler den Verzerrungen Rechnung getragen, die sich aus den unterschiedlichen Eimer-Typen ergeben sowie durch den Übergang von Eimern zu einströmendem Wasser in Schiffsmotoren. Zusätzlich wurde der Bias zwischen Schiffs- und Bojenmessungen in der Studie seit Anfang dieses Jahrhunderts diskutiert. Die im einströmenden Kühlwasser gemessenen Wassertemperaturen (ERI) sind etwas wärmer als die von Bojen gemessenen Temperaturen. Aber die Datensammler haben bis vor Kurzem nicht versucht, dem Schiffs-Bojen-Bias Rechnung zu tragen infolge der großen Unsicherheit der Messungen im einströmenden Wasser bzw. von Bojen und infolge der massiven Unsicherheiten bzgl. des Schiffs-Bojen-Bias‘. (Siehe Reynolds et al. 2002. Also see Kennedy et al. (2011) Part 1 und Part 2 als Dokumentation jener Unsicherheiten).

Für ihre neuen, den „Stillstand zerschlagenden“ Daten hat die NOAA:

● die Schiffsdaten adjustiert mittels der HadNMAT2-Daten der nächtlichen Lufttemperatur vom UKMO als Referenz. Dies setzt natürlich die Hypothese voraus, dass sich die nächtlichen maritimen Lufttemperatur-Daten mit der gleichen Rate ändern wie die Wassertemperatur (sowohl tagsüber als auch nachts),

● die Bojen-Daten adjustiert, um der Temperaturdifferenz Rechnung zu tragen zwischen in Schiffen einströmendem Wasser und Bojen in Gebieten, in denen es beides gibt. Die Auswirkungen hiervon würden über die letzten Jahrzehnte hinweg variieren, weil sich das Verhältnis von Bojen zu Schiffsmessungen mit der Zeit verändert hat. Es gab zunehmende Bojen-Messungen und abnehmende Schiffsmessungen,

● die Bojendaten stärker gewichtet als die Schiffsdaten in Perioden, in denen es sowohl Schiffs- als auch Bojendaten gibt. Dies wurde gemacht, um den unterschiedlichen Genauigkeiten der Schiffs- und Bojen-Temperaturmessungen Rechnung zu tragen … Bojendaten haben sich als genauer erwiesen als Schiffsdaten.

Karl et al. (2015) zufolge hatten die Adjustierungen der Schiffsdaten die größte Auswirkung auf die Trends von 2000 bis 2014:

Von den 11 Verbesserungen in der ERSST-Version 4 (13) hatte die Fortsetzung der Schiffs-Korrekturen die größte Auswirkung auf die Trends des Zeitraumes 2000 bis 2014. Sie machte 0,030°C der Trenddifferenz von 0,064°C zu Version 3b aus. (Die Korrektur der Bojenwerte trug 0,014°C pro Dekade zum Unterschied bei, und das zusätzliche Gewicht, das man den Bojendaten wegen deren größerer Genauigkeit zugewiesen hat, macht 0,012°C pro Dekade aus).

In diesem Beitrag werden wir die Adjustierungen des Bias‘ zwischen Schiffen und Bojen umreißen sowie die Wichtung der Daten von Bojen und dem in Schiffe einströmendem Wasser. Dies wurde schon in zahlreichen anderen Blogbeiträgen diskutiert. Wir hier wollen aus konzentrieren auf…

Die Hypothesen der NOAA bei der Verwendung von NMAT-Daten*, um schiffsbasierte Messungen der Wassertemperatur zu adjustieren

[*Wie oben erwähnt: NMAT = Night Marine Air Temperature. Ich weiß nicht, ob das ein fester Begriff ist, der etwas anderes meint als die direkte Übersetzung aussagt. Im Folgenden gehe ich aber von der direkten Übersetzung als dem aus, was gemeint ist. Anm. d. Übers.]

Die NOAA hat zahlreiche Annahmen gemacht, um die Verwendung von NMAT-Daten zur Adjustierung der schiffsbasierten Messungen der Wassertemperatur zu rechtfertigen. Sie sind gelistet in der Studie von Huang et al. (2015) mit dem Titel Extended Reconstructed Sea Surface Temperature Version 4 (ERSST.v4) – Part I: Upgrades and Intercomparisons. Dort schreiben sie auf Seite 919:

Die Bias-Adjustierung von Wassertemperaturdaten von Schiffen wurde ursprünglich von Smith und Reynolds (2002) ins Spiel gebracht, was die NMAT-Daten als Referenz involvierte. NMAT wurde gewählt, weil die Differenzen der Wassertemperatur stabiler sind als maritime Lufttemperaturen tagsüber, die eine große Bandbreite haben können infolge der solaren Aufheizung der Schiffsdecks und der Instrumente selbst. Um die Bias-Adjustierung vorzunehmen ist es jedoch notwendig anzunehmen, dass

1) die Differenzen zwischen SST und NMAT nahezu konstant sind während des klimatologischen Zeitraumes (1971 bis 2000);

2) die klimatologische Differenz zwischen SST und NMAT in anderen Zeiträumen konstant ist;

3) die NMAT-Daten einen geringeren Bias aufweisen (homogener sind) als die SST-Daten, mit denen sie verglichen werden;

4) der Mix verschiedener SST-Messmethoden (Eimer oder ERI) invariant ist über alle globalen Ozeane, und die räumliche Verteilung von Verzerrungen folgt der klimatologischen Differenz zwischen SST und NMAT in neuer Zeit (1971 bis 2000); und

5) der Bias relativ langsam und gleichmäßig mit der Zeit variiert.

Wir brauchen nur die ersten beiden NOAA-Hypothesen zu untersuchen.

NOAA fuhr dann fort mit der Beschreibung, wie sie ihre ersten beiden Hypothesen getestet hatte:

Um die ersten beiden Hypothesen zu testen, welche eine grobe physikalische Kohärenz zwischen zwei stark korrelierenden, aber physisch unterschiedlichen Messgrößen nahelegen, wurde die mittlere Differenz zwischen SST- und Lufttemperatur-Daten bei Tag und Nacht (SAT) in 2 m Höhe berechnet durch Untermengen der monatlichen Outputs der GFDL CM2.1-Modelle mit monatlichen Beobachtungs-Masken von 1875 bis 2000 (Abbildung 4). Die Modell-SAT wird herangezogen, weil der Modellbias hypothetisch tagsüber und nachts gleich ist. Es zeigt sich, dass die ersten beiden Hypothesen gültig sind, da die Modellsimulationen zeigen, dass die Differenz zwischen SAT und SST nahezu konstant ist und dessen lineare Trends in allen vier unterschiedlichen Zonen geographischer Breite schwach sind.

Huang et al. führen nicht näher aus, was sie mit „monatlichen Beobachtungs-Masken“ meinen. Meinen sie, dass die NOAA alle Gitterpunkte maskiert hat, die keine Schiffsdaten enthalten? Ich habe den Verdacht, dass genau das der Fall ist.

Wichtiger Hinweis: Im Folgenden habe ich nicht den Schritt unternommen, die Gitternetze ohne Schiffsdaten zu maskieren, weil ich versuche, die globale (ohne polare Ozeane), von den Klimamodellen erwartete Beziehung zwischen der maritimen Lufttemperatur und der Wassertemperatur zu illustrieren. (Ende Hinweis).

Komischerweise geht die NOAA davon aus, dass die modellierte Beziehung zwischen Wassertemperatur und der Lufttemperatur darüber (sowohl tagsüber als auch nachts) die gleiche ist wie die Beziehung zwischen NMAT und Wassertemperatur, wobei Letztere Tages- und Nachtwerte enthält. Das heißt, dass die NOAA nächtliche maritime Lufttemperaturen (und nicht maritime Lufttemperaturen tagsüber und nachts) heranzieht, um die Wassertemperatur zu adjustieren. Trotzdem aber präsentieren sie modellierte Wassertemperaturen und maritime Lufttemperaturen (tagsüber und nachts) als Rechtfertigung. Ist das gemeint, wenn es heißt „Die Modell-SAT wird verwendet, da der Modellbias vermutlich der Gleiche ist tagsüber und nachts“? Genau so scheint es zu sein.

Meine Abbildung 1 ist Abbildung 4 bei Huang et al. (2015)

Abbildung 1

Erstens, man beachte, dass der auf Klimamodellen basierende Graph in ihrer Abbildung 1 im Jahre 2000 endet. Das ist komisch, sind wir doch am Zeitraum 2000 bis 2014 interessiert. Zweitens, sie haben die Trends von 1875 bis 2000 gelistet in der Bildunterschrift zu Abbildung 4, aber sie haben es versäumt, den Trend zu zeigen für ihre klimatologische Periode von 1971 bis 2014 (siehe deren Hypothese 1 oben).

Drittens, und sehr wichtig: Das gekoppelte Ozean-Atmosphäre-GFDL CM2.1-Klimamodell aus dem NOAA Geophysical Fluid Dynamics Laboratory (GFDL) ist eine seltsame Wahl als Verwendung in einer Studie des Jahres 2015. Zu Beginn der GFDL-Website über das neue und verbesserte GFDL CM3 model heißt es:

Das erfolgreiche Modell von GFDL, CM2.1 (Delworth et al. 2006) wurde als Startzeitpunkt gewählt, um die nächste Generation der gekoppelten CM3-Modelle zu entwickeln.

Mit anderen Worten, das 10 Jahre alte GFDL CM2.1-Klimamodell kann man als obsolet ansehen, soweit es durch das GFDL CM3-Modell ersetzt worden ist. Das GFDL CM2.1-Modell wurde von Delworth et al. (2006) unterstützt GFDL’s CM2 Global Coupled Climate Models. Part I: Formulation and Simulation Characteristics. Im Abstract wird angegeben, dass es für den 4. IPCC-Zustandsbericht 2007 aktuell war.

Wir wissen aus Erfahrungen der Vergangenheit, dass es weite Bandbreiten geben kann bei den absoluten Werten der Temperatur von Modell zu Modell ebenso wie eine große Bandbreite von Trends. Die Verwendung eines Klimamodells einer früheren Generation seitens der NOAA könnte jeden dazu führen zu glauben, dass die NOAA genau jenes GFDL CM2.1-Modell aus früherer Generation gewählt hat (nach Art von Rosinenpickerei), weil es genau das Ergebnis lieferte, das man sich gewünscht hatte.

Schauen wir also mal auf das Multimodell-Mittel aller neuen und verbesserten Klimamodelle, die im IPCC-Bericht #5 (2013) herangezogen worden waren. Diese Modelle sind gespeichert im CMIP5 archive, und deren Multimodell-Mittel (zusammen mit den Ergebnissen der individuellen Modelle) sind verfügbar im KNMI Climate Explorer. Das Multimodell-Mittel (das Mittel aller Modelle) repräsentiert im Grunde den Konsens (das Gruppendenken) der Klimamodellierungs-Gruppen, wie die Wassertemperatur und die maritime Lufttemperatur (in diesem Beispiel) auf die Klima-Antriebe reagieren, die man als Antrieb für die Modelle verwendet hat. Infolge der großen Bandbreite der Klimamodell-Ergebnisse stellt die Verwendung des Mittelwertes aller Modelle im CMIP5-Archiv sicher, dass man uns keine Rosinenpickerei vorwerfen kann dergestalt, dass wir ein bestimmtes Modell herausgreifen, das eine Agenda unterstützt. Und wir brauchen nur die Klimamodell-Ergebnisse für die globalen Ozeane untersuchen mit Ausnahme der polaren Ozeane (60°S bis 60°N); das heißt wir brauchen nicht die zusätzlichen Unterabteilungen untersuchen, wie sie in Abbildung 4 von Huang et al. (2015) zum Ausdruck kamen (= meine Abbildung 1).

Wir beginnen mit dem Zeitraum von 1875 bis 2000, der in Abbildung 4 von Huang gezeigt wird. Die obere Graphik in Abbildung 2 zeigt die Modelldifferenz zwischen den simulierten globalen Wassertemperaturen (60°S bis 60°N) und den maritimen Lufttemperaturen während der von der NOAA gewählten Periode von 1875 bis 2000, wobei die maritime Lufttemperatur (TAS, Landoberflächen maskiert) von den Wassertemperaturen subtrahiert werden. Während dieses Zeitraumes wurden nur die historischen Klimaantriebe von den Modellierungsgruppen verwendet. Für den von der NOAA gewählten Zeitraum von 1875 bis 2000 zeigt der Konsens der jüngsten Generation die modellierte Differenz zwischen der globalen Wasser- und maritimen Lufttemperaturen, die mit einer Rate von -0,008°C pro Dekade abnimmt … also mit genau der gleichen Rate wie die -0,008°C pro Dekade, die die NOAA für den Zeitraum 1875 bis 2000 geltend macht. Auf den ersten Blick scheint dies die Ergebnisse von Huang et al. (2015) zu bestätigen. Die untere Graphik in Abbildung 2 illustriert im gleichen Zeitrahmen das Multimodell-Mittel der simulierten Wassertemperaturen und der maritimen Lufttemperaturen, die für die Grundlagen der oberen Graphik stehen. Ich habe die Modellergebnisse des Zeitraumes 2000 bis 2014 hinzugefügt (gestrichelte Kurven) in beiden Graphiken als Referenz.

Abbildung 2

Man beachte jedoch, dass sich in der oberen Graphik der Abbildung 2 eine deutliche Trendänderung zeigt, die etwa Mitte der siebziger Jahre begonnen hat und von einem nachfolgenden starken Rückgang gefolgt wurde.

Untersuchen wir also den Trend der von der NOAA herangezogenen klimatologischen Periode von 1971 bis 2010. Siehe Abbildung 3. Für diese NOAA-Periode zeigt der Konsens der jüngsten Klimamodell-Generation die modellierte Differenz zwischen der globalen Wasser- und der maritimen Lufttemperatur, die mit einer stärkeren Rate von -0,021°C pro Dekade abnimmtn … weit größer als die -0,008°C pro Dekade, die von der NOAA für den Zeitraum 1875 bis 2000 propagiert wird.

Abbildung 3

Was die untere Graphik der Abbildung 3 betrifft: die modellierte maritime Lufttemperatur steigt etwas rascher als die modellierte Wassertemperatur während des klimatologischen NOAA-Zeitraumes. Mit anderen Worten, der Konsens der neuen und verbesserten Klimamodelle widerspricht dem NOAA-Ergebnis (Huang et al.) hinsichtlich ihrer ersten Hypothese zur Verwendung maritimer Lufttemperaturen, um die Verzerrungen der mit Schiffen gemessenen Wassertemperaturen zu adjustieren … oder irgendwelche Daten der Wassertemperatur.

Aber am Zeitraum 1971 bis 2000 sind wir nun wirklich nicht interessiert. Interessanter für uns ist der Zeitraum 2000 bis 2014, weil es genau der Zeitraum war, den die NOAA (Karl et al. 2015) für die Behauptung herangezogen hatte, dass die „Fortsetzung der Schiffsdaten-Korrekturen den größte Auswirkung auf die Trends von 2000 bis 2014 hatte; verantwortlich für 0,030°C pro Jahrzehnt der 0,064°C-Trenddifferenz zu Version 3b“.

Abbildung 4 gleicht den Abbildungen 2 und 3, außer dass wir in Abbildung 4 die Modellergebnisse illustrieren für den Zeitraum 2000 bis 2014. Der einzige Unterschied ist, dass Modelle jetzt auch die projizierten Antriebe enthalten, zusätzlich zu den historischen Antrieben. Der Übergang von historischen zu projizierten Antrieben erfolgt laut den meisten Modelle 2005/2006. Es ist kein von mir ausgesuchtes Feature. Aber ich habe das RCP6.0-Antriebsszenario gewählt, weil ich mich nicht dem Vorwurf aussetzen wollte, das Worst-Case-RCP8.5-Szenario herauszupicken.

Es ist keine große Überraschung, dass das Multimodell-Mittel in der oberen Graphik der Abbildung 4 einen Rückgang der Temperaturdifferenz zeigen zwischen den Wasser- und den maritimen Lufttemperaturen. Tatsächlich ist der Trend von -0,027°C pro Dekade der modellierten Temperaturdifferenz vergleichbar mit der Adjustierung der Schiffsdaten von 0,030°C pro Dekade seitens der NOAA (die nächtliche maritime Lufttemperaturdaten verwendet hatte) für den Zeitraum 2000 bis 2014.

Abbildung 4

Das heißt, mit Verwendung der neueren Modelle ist es Konsens unter den Modellierer-Gruppen zu erwarten, dass sich maritime Luft im Zeitraum 2000 bis 2014 rascher erwärmt als die Oberflächen der Ozeane … mit einer Rate, die vergleichbar ist mit der „Korrektur“, die man mittels der nächtlichen maritimen Lufttemperatur an die Schiffsdaten angebracht hatte. Dies widerspricht der zweiten der NASA-Hypothesen, der zufolge „die klimatologische Differenz zwischen SST und NMAT in anderen Zeiträumen konstant ist“. Das ist eindeutig nicht der Fall.

Einfach gesagt, die NASA scheint eine Differenz zwischen Temperaturmessungen von Schiffen und der nächtlichen maritimen Lufttemperatur hinweg adjustiert zu haben. Diese Differenz sollte es dem Konsens der neueren Klimamodelle zufolge jedoch geben. Dies legt die Vermutung nahe, dass die andere Große Hypothese der NOAA, nämlich dass „die Modell-SAT verwendet wird, da der Modell-Bias vermutlich tagsüber und nachts gleich ist“ korrekt ist.

Stellen wir das mal in einen größeren Zusammenhang. Die NOAA scheint anzunehmen, dass sich die NMAT mit der gleichen Rate erwärmt wie die MAT sowohl tagsüber als auch nachts. Sie hat maritime Lufttemperaturen anstatt die nächtlichen maritimen Lufttemperaturen herangezogen, um ihre ersten beiden Hypothesen zu verifizieren. Man beachte auch, dass der Konsens der jüngsten Generation von Klimamodellen zeigt, dass sich die maritimen Lufttemperaturen mit einer höheren Rate erwärmen sollten als die Wassertemperaturen seit etwa Mitte der siebziger Jahre. Und doch, zieht man diese Überlegungen in Betracht, zeigt das Enderzeugnis der NOAA, also ihr neuer „Stillstands-Vernichter“, nämlich die ERSST.v4-Daten, die gegenteilige Beziehung. Ihre neuen Wassertemperatur-Daten zeigen eine merklich höhere Erwärmungsrate als die nächtlichen maritimen Lufttemperaturen (HadNMAT2), die man als Referenz herangezogen hatte. Siehe Abbildung 5, welches Abbildung 1 im Beitrag Open Letter to Tom Karl of NOAA/NCEI Regarding “Hiatus Busting” Paper ist.

Abbildung 5

Bemerkung: Diese Graphik endet im Jahre 2010, weil da die HadNMAT2-Daten aufhören. Dies wirft natürlich folgende Frage auf: Wie adjustiert die NOAA (ungerechtfertigterweise) die Schiffsdaten nach dem Jahr 2010?

Unter dem Strich: Der jüngsten Generation von Klimamodellen zufolge sollte sich die maritime Lufttemperatur schneller erwärmen als die Wassertemperaturen, aber nicht in der NOAA-Welt, an der so viel herumgedoktert wurde.

Zum Schluss

Noch einmal, meine Illustrationen zeigen die erwartete globale Beziehung zwischen maritimen Lufttemperaturen (tagsüber und nachts) und der Wassertemperaturen, weil die NOAA diese heranzieht, um eine Beziehung zu verifizieren zwischen der nächtlichen maritimen Lufttemperatur und der Wassertemperatur.

Auch habe ich die Modellergebnisse nicht maskiert, so dass sie nur das Netz mit schiffsbasierten Wassertemperaturen enthalten, wie es die NOAA getan zu haben scheint. Aber dem Konsens der im IPCC-Bericht 5 verwendeten Klimamodelle zufolge ist die Beziehung global (60°S – 60°N) dergestalt, dass sich die maritime Lufttemperatur seit Mitte der siebziger Jahre rascher erwärmt hat als die Wassertemperatur.

Ich habe folgenden Verdacht: Wenn die Whistleblower von Kongressmann Lamar Smith besorgt sind hinsichtlich des Hypes um die Studie von Karl et al. (2015) „vor einer angemessenen Begutachtung der zugrunde liegenden Wissenschaft und der angewandten neuen Verfahren“, diskutieren sie über:

● Die Unsicherheiten der Bias-Adjustierungen,

● Die Unsicherheiten in den Daten,

● natürlich über die grundlegenden Verfahren einschließlich der Art und Weise, mit der die NOAA jene Adjustierungen über die Ozeane verteilt hatte, und

● am wichtigsten bzgl. der „zugrunde liegenden Wissenschaft“: wie die NOAA eine Differenz hinweg adjustiert zu haben scheint zwischen Temperaturmessungen von Schiffen und der nächtlichen maritimen Lufttemperatur, die es dem Konsens der neuen Klimamodelle zufolge geben sollte.

Vielleicht wird Dr. Sullivan von der NOAA die von Repräsentant Smith angeforderten E-Mails noch rechtzeitig zur Verfügung stellen, so dass wir meinen Verdacht sowie den Verdacht auch vieler Anderer bestätigt sehen können.

Link: http://wattsupwiththat.com/2015/11/30/pause-buster-sst-data-has-noaa-adjusted-away-a-relationship-between-nmat-and-sst-that-the-consensus-of-cmip5-climate-models-indicate-should-exist/

Übersetzt von Chris Frey EIKE




Auf halbem Weg zur Hölle? – Alarmisten werden immer verzweifelter in ihren Bemühungen, die öffentliche Meinung zu beeinflussen

Politiker aus der ganzen Welt werden in diesem Jahr erneut zusammenkommen in dem aussichtslosen Versuch, ein Abkommen zu erzielen darüber, wie man jenes Ziel der Begrenzung der globalen Erwärmung auf das von Ökonomen gesetzte Limit erreichen kann. Um die Aufmerksamkeit der Öffentlichkeit für dieses Spektakel sicherzustellen, wird diese folglich wöchentlich bombardiert mit Spekulationen des bevorstehenden Untergangs infolge der globalen Erwärmung. Ein Beispiel hierfür war ein kürzlich erschienener Artikel mit der Schlagzeile [übersetzt] „Erde jetzt auf halbem Weg zur von den UN gesetzten Grenze der globalen Erwärmung“ (hier) im New Scientist. Darin fand sich auch eine Graphik mit dem Titel „Halfway to Hell“, meine Abbildung 1, erstellt von dem Chemiker Kevin Cowtan. Die Graphik zeigte, dass die Werte der meisten Temperatur-Rekonstruktionen im Jahre 2015 wahrscheinlich über eine Anomalie von 1,0°C hinaus steigen würden.

Abbildung 1

Eine Bemühung, Newcomern beim Verständnis zu helfen

Was ist so neu an dieser Graphik? Die Anomalien (Ableitungen vom „Normalen“) werden auf vorindustrielle Zeiten bezogen. Die Erzeuger globaler Temperatur-Rekonstruktionen beziehen ihre Anomalien normalerweise eher auf jüngere Bezugszeiträume. GISS verwendet 1951 bis 1980, das UKMO 1961 bis 1990 und die NOAA oftmals den Zeitraum 1901 bis 2000. Die WMO schreibt einen Bezugszeitraum von 1981 bis 2010 vor. Der Blogger Rob Honeycutt hat jene Cowtan-Graphik in seinem Beitrag The 1C Milestone bei SkepticalScience angeführt und forderte, präindustrielle Zeiten zu verwenden als Bezugszeit für Anomalien, weil dies die besten Möglichkeit sei, Personen, für die die globale Erwärmung etwas Neues ist, davon zu überzeugen, dass „wir gegenwärtig relativ zu präindustriellen Zeiten bei einer Erwärmung um 2°C liegen“.

Offensichtlich übersehen Cowtan und Honeycutt etwas sehr Wichtiges. Ihre Graphik zeigt, dass es deutlich länger als ein Jahrhundert dauern wird, bis die Temperatur die halbe Strecke von 1.0°C geschafft hat. Viele Newcomer werden die Graphik betrachten und sich fragen, worum es bei dem ganzen Tamtam eigentlich geht.

Cowtan und Honeycutt mussten etwas präsentieren, das stärker ins Auge fällt, das noch alarmierender ist, falls sie ihre Botschaft an den Mann bringen wollten, aber das haben sie nicht. Die „Halfway to Hell“-Graphik war die einzige Graphik im Artikel des New Scientist, und Honeycutt fügte seinem Blogbeitrag lediglich eine Graphik der CO2-Emissionen hinzu für unterschiedliche Szenarien, was für die meisten Neulinge bedeutungslos ist.

Der einzige Weg für sie zu zeigen, dass wir uns rasch dem Limit nähern, wäre die Präsentation von Klimamodell-Simulationen der globalen Temperaturen. Aber komischerweise erscheinen die Outputs von Klimamodellen nicht in jenen Artikeln.

Die Präsentation von Klimamodell-Outputs mit Bezug auf vorindustrielle Zeiten würde wahrscheinlich bei den Newcomern Skeptizismus hervorrufen.

Die Zeitreihen-Graphik in Abbildung 2 enthält 81 Klimamodell-Simulationen der globalen Temperaturanomalien in einem Zeitraum, der im Jahre 1880 beginnt und im Jahre 2059 endet, wobei die modellierten globalen Temperaturanomalien auf die vorindustrielle Zeit von 1880 bis 1899 bezogen werden. Langzeitliche Temperatur-Rekonstruktionen von GISS und NOAA beginnen 1880, und 2059 ist das Jahr, wenn das letzte Klimamodell das 2°C-Limit erreicht hat, jenseits dessen imaginäre schlimme Dinge passieren sollen. Die Modelle werden durch historische Antriebe bis 2005 getrieben, und die Antriebe für das projizierte Worst-Case-Szenario (RCP8.5) beginnend im Jahre 2006. Enthalten sind 81 unabhängige Läufe der Klimamodelle von einer Vielzahl von Modellierer-Gruppen rund um den Globus. (Die Auflistung der 81 Klimamodell-Läufe werden in der Legende der erweiterten Fassung der Abbildung 2 hier gezeigt).

Abbildung 2

Das Hervorstechende in dieser Abbildung ist die 40-Jahres-Streuung zu der Zeit, zu der die Klimamodell-Simulationen der globalen Temperaturanomalien die auf Phantasie basierende 2,0°C-Grenze erreichen, jenseits derer schlimme Dinge passieren sollen. Das langsamste Modell erreicht diese Grenze im Jahre 2059 und das schnellste Modell bereits in 5 Jahren von heute an. Klimamodelle sind nicht sehr hilfreich, wenn es darum geht, uns zu sagen, wann dieses 2.0°C-Limit erreicht wird.

Vielleicht ist das der Grund, warum der New Scientist und SkepticalScience die Klimamodelle den Newcomern nicht gezeigt haben mit Bezug der Modellergebnisse auf die vorindustrielle Zeit. Während es mehr als ein Jahrhundert dauerte, bis die gemessene globale Temperatur um 1.0°C gestiegen war, sagen uns die Klimamodelle, dass der nächste Anstieg um 1.0°C innerhalb von 5 bis 44 Jahren vonstatten gehen soll. Das könnte verwirrend sein für jemanden, der sich bislang nicht um die globale Erwärmung gekümmert hat. Dann müsste jemand wie ich den Newcomern erklären, dass Klimamodelle nicht das Erdklima so simulieren, wie es in der Vergangenheit war, im Moment existiert oder in Zukunft existieren wird.

Die Newcomer könnten ihre Aufmerksamkeit dann auf das Jahr 2005 richten, weil es das letzte Jahr der ,Nachhersage‘ war. Es scheint eine sehr große Streuung zu geben bei den modellierten Temperaturen im Jahre 2005, wenn man die Modell-Outputs mit der vorindustriellen Zeit in Beziehung setzt. Und das können wir in Abbildung 3 bestätigen.

Abbildung 3

Dann würden die Newcomer zur globalen Erwärmung erkennen, dass das Verhalten der Klimamodelle ziemlich schlecht ist, wenn sie Temperaturen der Vergangenheit simulieren sollten. Die globale Temperaturanomalie im Jahre 2005 ist in einem Modell um 1,17°C größer als in einem anderen. Mit anderen Worten, es gibt eine Streuung von 1,17°C bei der simulierten Temperaturänderung von vorindustrieller Zeit bis 2005. Diese ist größer als der gemessene Anstieg von 1,0°C, die in der Graphik von Kevin Cowtan gezeigt wird (meine Abbildung 1).

Und falls ein Newcomer so neugierig wäre, wie ich es war … und nichts Besseres zu tun hätte … hätte sie oder er alle über 80 Klimamodell-Outputs der globalen Temperaturen herunterladen können mit den historischen und den Worst-Case-Antrieben (RCP8.5) in der Absicht, die Modelle mit den höchsten und den geringsten Erwärmungsraten zu finden. Dann könnte jener Newcomer einfach jene Modelle mit der Erwärmungsrate des von Alarmisten bevorzugten GISS Land-Ocean Temperature Index vergleichen mit der neuesten new NOAA ERSST.v4 pause-buster sea surface temperature reconstruction (siehe Abbildung 4). Man beachte, dass ich die GISS LOTI-Rekonstruktion und die Klimamodell-Outputs so verschoben habe, dass die Trendlinien allesamt im Jahre 1880 beginnen.

Abbildung 4

Die Streuung von 0,079°C pro Dekade in den Erwärmungsraten der Nachhersage-Modellergebnisse von 1880 bis 2005 ist ebenfalls größer als die gemessene Erwärmungsrate von 0,06°C pro Dekade.

Ein letzter Punkt

Während die Präsentation der Temperaturänderung nach Art von Kevin Cowtan in Ordnung ist (siehe Abbildung 1), verlässt sich die klimawissenschaftliche Gemeinschaft normalerweise auf lineare Trends, um Änderungen einer Maßzahl mit der Zeit auszudrücken. Auf der Grundlage der Rekonstruktion des linearen Trends von GISS LOTI sind die globalen Temperaturen seit 1880 lediglich um 0,9°C gestiegen, siehe Abbildung 5. Es wird noch etwas länger dauern (vielleicht ein weiteres Jahrzehnt auf der Grundlage des linearen Trends von 1880 bis 2014), bis wir den Halbzeitwert des 2°C-Limits erreicht haben.

Abbildung 5

Nur falls Sie sich fragen – schauen wir mal auf die Rekonstruktionen der linearen Trends der globalen Temperatur von Berkeley Earth (BEST), Cowtan und Way, NOAA NCEI und UKMO HadCRUT4. Nur der Wert der Trendlinie im Jahre 2014 von Berkeley Earth kommt dem Wert von 1,0°C nahe. Die anderen zeigen Erwärmungen im Bereich zwischen 0,9°C bis 0,85°C (auf der Grundlage ihrer Erwärmungsraten von 1880 bis 2014).

Abbildung 6

Schlussbemerkungen

Verwendet man vorindustrielle Zeiten als die Grundlagen für Anomalien, kann man Newcomern hinsichtlich der globalen Erwärmung etwas sehr Wichtiges zeigen: Klimamodelle können die globale Erwärmung der Vergangenheit nur sehr unzulänglich simulieren, wenn überhaupt. Warum sollten Newcomer dann den von der politischen Agenda finanzierten Klimamodell-Prophezeiungen einer zukünftigen globalen Erwärmung glauben, die auf Spekulationen beruhen über noch zu erwartende auftretende Emissionen von Treibhausgasen?

Quellen

Die folgenden Links führen zu den Daten der langzeitlichen globalen Temperaturrekonstruktionen:

* Berkeley Earth

*Cowtan and Way

*GISS LOTI

* HADCRUT4

*NOAA NCEI (Click on the “Anomalies and Index Data” link)

Die Outputs der Klimamodelle gibt es hier: KNMI Climate Explorer.

Link: http://wattsupwiththat.com/2015/08/14/halfway-to-hell-alarmists-are-growing-desperate-in-their-efforts-to-influence-public-opinion/

Übersetzt von Chris Frey EIKE




Fundamentale Unterschiede zwischen den globalen Temperatur-Aktualisierungen von der NOAA und UAH

Einige Leute, zum Beispiel Tamino (a.k.a. Grant Foster) glauben, dass die Diskussionen zu den jüngsten Änderungen der Produkte zur globalen Temperatur bei der NOAA und der UAH von meiner Seite aus einen Bias zeigen. Er sagt, dass ich mich einer beleidigenden Ausdrucksweise bediene, wenn ich von den NOAA-Änderungen rede und dass ich dagegen schmeichelnde Worte für die UAH-Daten finde. Tamino schließt seinen Beitrag mit dieser Bemerkung über mich:

Die offensichtliche Schlussfolgerung lautet, dass bei einer Revision nach seinen Wünschen „viel korrigiert“ und „verbessert“ wird, während sie wenn es nicht nach seinen Wünschen geht „ungerechtfertigt“ und „überdreht“ sind.

Danke, Tamino, für die Gelegenheit, einmal mehr zu zeigen, warum ich feststelle (und auch in Zukunft feststellen werde), dass die neuen NOAA-ERSST.v4-Daten ungerechtfertigterweise überdreht sind.

Man erkennt sehr leicht, dass die NOAA ihre Adjustierungen während des Stillstands nicht rechtfertigen kann (Das Wort ,Hiatus‘ [Stillstand] hat die NOAA kreiert].

Die größte Änderung der NOAA NCEI (zuvor NCDC)-Daten wurde im Bereich der Ozean-Wassertemperaturen vorgenommen (die Änderung vom ERSST.v3-Datensatz zum ERSST.v4-Datensatz) im kombinierten Datensatz der Temperaturen auf dem Festland und über den Ozeanen. Siehe Karl et al. (2015) hier (paywalled). Die NOAA benutzte den Datensatz der nächtlichen maritimen Lufttemperatur (HADNMAT2) vom UK Met.-Office als Referenz für ihren neuen ERSST.v4-Datensatz. Aber die Erwärmungsrate im Kurzfristzeitraum des neuen NOAA ERSST.v4-Datensatzes während der Zeit der Verlangsamung der globalen Erwärmung ist viel größer als in den HADNMAT2-Daten. Siehe Abbildung 1, die ich zum ersten Mal in meinem offenen Brief an Tom Karl präsentiert habe. Diese Graphik bildet die Grundlage für meine Aussagen, 1) dass die jüngste Aktualisierung der NOAA-Wassertemperaturdaten nicht durch den Datensatz gerechtfertigt werden, der als Referenz für jene Adjustierungen verwendet worden ist, und 2) dass wiederum aus diesem Grunde die NOAA-Adjustierungen überdreht waren.

Abbildung 1

Unter dem Strich die NOAA-Adjustierungen betreffend: Ich kann meine Feststellungen, dass die im NOAA ERSST.v4-Datensatz mit den globalen Temperaturprodukten auf der Grundlage der Wassertemperaturen vorgenommenen Änderungen ungerechtfertigt überdreht sind, mit Daten untermauern.

Was ist mit den Änderungen der UAH-Temperaturdaten aus der unteren Troposphäre mit der Abnahme des Trends?

Die Änderungen der UAH-Temperaturdaten aus der unteren Troposphäre brachten die Kurzfrist-Trends auf eine Linie mit dem Produkt von RSS. Einfach. Nichts Kontroverses. Die Kurzfrist-Trends der UAH-Daten sind NICHT niedriger als bei den RSS-Daten. Tatsächlich zeigen die UAH-Temperaturdaten etwas weniger Abkühlung als die RSS-Daten (siehe Abbildungen 2 und 3).

Abbildung 2

# # #

Abbildung 3

Die Abbildungen 2 und 3 sind die Abbildungen 7 und 8 aus der jüngsten Aktualisierung der globalen Oberflächen-Temperatur (hier) ohne die Oberflächen-Temperaturprodukte.

Unter dem Strich die UAH-Änderungen betreffend: Anders als bei den NOAA-Daten können wir hier nicht sagen, dass die Änderungen der UAH-Daten ungerechtfertigt sind, weil sie denen von RSS so ähnlich sind; und als Folge können wir auch nicht sagen, dass die UAH-Daten überdreht sind.

Zusätzliche Beiträge:

Wir haben die ungerechtfertigten und überdrehten Änderungen bei den neuen Daten der Wassertemperatur hier, hier und hier diskutiert.

Und weil sich GISS jüngst dem neuen NOAA ERSST.v4-Datensatz zugewendet hat siehe hier.

Die Aktualisierung der UAH-Temperaturdaten aus der unteren Troposphäre habe ich in dem Beitrag hier besprochen.

Zum Schluss:

Ich habe diesen Beitrag geöffnet mit einem fundamentalen Unterschied zwischen den Änderungen der NOAA und von UAH bei den jeweiligen Temperaturprodukten: die NOAA-Aktualisierung hat den Erwärmungstrend ihres Datensatzes seit dem Jahr 1998 zunehmen lassen. Der andere fundamentale Unterschied: Die Änderungen im UAH-Datensatz können offensichtlich gerechtfertigt werden, während dies bei den Änderungen der NOAA-Daten genauso offensichtlich nicht der Fall ist.

Noch einmal: Dank an Tamino für die Gelegenheit, einmal mehr zu illustrieren, wie die NOAA ungerechtfertigterweise ihre Adjustierungen ihrer Daten auf Grundlage der ERSST.v4-Daten überdreht hat. Es hat immer Spaß gemacht, ihm zu entgegnen.

[Ist das bei den Forentrollen beim EIKE auch so? Anm. d. Übers.]

Link: http://wattsupwiththat.com/2015/07/20/fundamental-differences-between-the-noaa-and-uah-global-temperature-updates/

Übersetzt von Chris Frey EIKE




Offener Brief an Tom Karl vom NOAA/NCEI bzgl. seiner „den Stillstand zerschlagenden“ Daten

Von: Bob Tisdale – unabhängiger Forscher

An: Tom Karl – Direktor NOAA/NCEI

Hallo Tom,

ich schreibe an Sie mit Bezug auf die jüngste Studie, von der Sie der Leitautor waren. Bei der Studie handelt es sich natürlich um Karl et al. (2015) Possible artifacts of data biases in the recent global surface warming hiatus (paywalled.) Darin wurden die Auswirkungen auf den kürzlichen Stillstand des Temperaturanstiegs der noch nicht implementierten Änderungen im globalen Festlands- und ozeanischen NOAA/NCEI-Datensatz präsentiert. Die Änderungen des Teiles der Ozeantemperaturen (the NOAA ERSST.v4 sea surface temperature reconstruction), nicht der Teil der Festlandstemperaturen, spielten bei Ihren Ergebnissen die größere Rolle. Die Änderungen jener Temperaturdaten der Meeresoberfläche werden durch die Studien gestützt:

● Huang et al. (2015) Extended Reconstructed Sea Surface Temperature version 4 (ERSST.v4), Part I. Upgrades and Intercomparisons und

● Liu et al. (2015) Extended Reconstructed Sea Surface Temperature version 4 (ERSST.v4): Part II. Parametric and Structural Uncertainty Estimates.

Absicht dieses Briefes ist es zu zeigen, wann und wie sich die neuen NOAA-Daten der Meeresoberfläche während des Stillstands von den Daten der nächtlichen maritimen Temperatur unterscheiden, auf denen sie basieren und welche verwendet werden für Bias-Adjustierungen während des Datenzeitraumes.

Abbildung 1 ist Abbildung 3 im Beitrag dieses Wochenendes More Curiosities about NOAA’s New “Pause Busting” Sea Surface Temperature Dataset. Die neuen NOAA ERSST.v4-Daten der Wassertemperatur zwischen 60°N und 60°S zeigen eine merklich höhere Erwärmungsrate während des Stillstands als die UKMO HadNMAT2-Daten, welche als Referenz für die Bias-Adjustierungen in Ihren neuen ERSST.v4-Daten herangezogen worden waren.

Von Januar 1998 bis Dezember 2010, dem letzten Monat der HadNMAT2-Daten, hat sich die Erwärmungsrate bei den neuen NOAA ERSST.v4-Daten gegenüber den Referenzdaten von HadNMAT2 im Wesentlichen verdoppelt. Mit anderen Worten, die HadNMAT2-Daten stützen Ihre Behauptungen hinsichtlich eines in Wirklichkeit nicht existierenden Stillstandes nicht.

Nun könnte man versucht sein zu behaupten, dass die höhere Erwärmungsrate der NOAA-ERSST.v4-Daten durch die wachsende Zahl auf Bojen basierender im Vergleich zu von Schiffen gewonnenen Daten verursacht ist. Diese Logik ist natürlich Unsinn (1), weil die HadNMAT2-Daten nicht durch den Bojen-Schiffe-Bias beeinflusst werden. Dies ist auch der Grund, warum NOAA die HadNMAT2-Daten von Anfang an als Referenz herangezogen hat. (2), weil die beiden Datensätze exakt die gleiche Erwärmungsrate zeigen während der meisten Zeit des von Abbildung 1 abgedeckten Zeitraumes. Das heißt, die Trends der beiden Datensätze sind gleich von Juli 1998 bis Dezember 2007, während eines Zeitraumes also, in dem Bojen ausgebracht worden und zur dominanten in situ-Quelle von Temperaturdaten der Ozeanoberfläche geworden sind. Siehe Abbildung 2:

Man beachte jene Magnitude der Trends während jenes Zeitraumes. Damals im Jahre 2008 haben nur wenige Menschen über die Verlangsamung der globalen Erwärmung diskutiert.

In Wirklichkeit basieren die in Abbildung 1 gezeigten Trendunterschiede auf Reaktionen von ENSO-Ereignissen. Man erkennt in Abbildung 1, dass die nächtlichen maritimen Daten der Lufttemperatur (HadNMAT2) stärker auf den El Niño von 1997/98 reagieren und als Folge davon auch stärker zurückgehen während des Übergangs zu La Niña 1998-2001. Wir konnten diese Reaktion der HadNMAT2-Daten erwarten, weil sie nicht ausgefüllt [infilled?] waren, während die größere räumliche Abdeckung der ERSST.v4-Daten dazu tendiert, die Volatilität als Folge von ENSO zu unterdrücken. Man kann die zusätzliche Volatilität der HadNMAT2-Daten in der gesamten Abbildung 2 erkennen. Am anderen Ende des Graphen in Abbildung 1 erkennt man, wie die neuen NOAA ERSST.v4-Daten der Wassertemperatur stärker auf den 2009/10-El Niño reagieren … oder noch wahrscheinlicher, sie sind unnötigerweise nach oben adjustiert worden. Die zusätzliche Auswirkung auf die Daten der Wassertemperatur nach dem El Niño von 2009/10 ist, gelinde gesagt, merkwürdig.

Wie ist dieses ungewöhnliche Verhalten zu erklären, Tom? Kann es vielleicht sein, dass die von Ihnen für die Bias-Adjustierungen gewählte Lowess-Filterung [?] die Ursache ist anstatt die lineare Glättung vorzunehmen wie von Ihnen in den ERSST.v3b-Daten zuvor angewendet? Die unterstützende Studie für die neuen NOAA-Daten der Wassertemperatur, also Huang et al. (2015), stellt hinsichtlich der Filterung fest, wie sie in Abbildung 5 gezeigt wird (Fettdruck von mir):

Die monatlichen Anpassungs-Koeffizienten [fitting coefficients] (graue Linien) werden in Abb. 5 gezeigt, welche alles in allem zur fünften Hypothese passen, dass die Verzerrungen nur sehr langsam mit der Zeit variieren. Um potentiellen Spuren von hoch frequentem Rauschen aus den Anpassungs-Koeffizienten herauszufiltern, wurde ein linear angepasster Koeffizient verwendet bei den ERSST.v3b-Daten (Smith und Reynolds 2002). Nachfolgende wiederholte ERSST.v3b-Analysen haben die wahrscheinliche Existenz einer substantiellen multidekadischen Bias-Variabilität beleuchtet während der gesamten Aufzeichnung (z. B. Kennedy et al. 2011) anstatt einfach die Variabilität während des Übergangs von hauptsächlichen Eimer-Messungen zu ERI-Messungen Anfang der vierziger Jahre. Auf die ERSST.v4-Daten wurde eine Lowess-Filterung angewendet (Cleveland 1981; Abbildung 5), was Bias-Adjustierungen während der gesamten Aufzeichnung erlaubte. Ein Filter-Koeffizient von 0,1 wird an Lowess angebracht, welcher äquivalent ist mit einem Low-Pass-Filter [?] von 16 Jahren, und welcher die Low-Frequency-Natur der erforderlichen Bias-Adjustierung repräsentiert. Grund für die Filterung ist es, die Bias-Adjustierung glatter zu machen, so dass er konsistent ist mit der Hypothese, eine klimatologische SST2NMAT-Verteilung anzubringen. Allerdings betonen wir, dass höher frequente Änderungen der SST-Verzerrungen fast mit Sicherheit existieren, wie von Thompson et al. (2008), Kennedy et al. (2011) und Hirahara et al. (2014) gezeigt. Kürzere Zeitfenster oder der Gebrauch jährlich gemittelter Daten wären aufgrund ihrer Konstruktion stärker rauschend, weil die Schätzung zu jedem gegebenen Punkt auf kleineren Stichproben basieren würde, und es ist nicht klar, an welchem Punkt dies zu einem Risiko wird, das an Randwert-Rauschen anzupassen, oder ob es sich um ein systematisches Bias-Signal handelt. Der Vorzug liegt auf einer robusten Schätzung der multidekadischen Komponente der Bias-Adjustierungen mittels Verwendung eines Koeffizienten von 0,1. Dies könnte jedoch auf Kosten genau porträtierter Verzerrungen zu Zeiten schneller Übergänge gehen (z. B. der Zeitraum 2. Weltkrieg).

Und wie oben illustriert und diskutiert, könnte die von Ihnen gewählte Filterung auch „auf Kosten genau porträtierter Verzerrungen zu Zeiten schneller Übergänge gehen“ als Folge starker jährlicher Durchdringungen von El Nino-Ereignissen während des Stillstands? Irgendwie scheint es so, als seien die Bias-Adjustierungen Bojen – Schiffe unnötig vorgenommen worden in Ihrem neuen Wassertemperatur-Datensatz nach 2007.

I look forward to your reply.

Zum Schluss

Judith Curry hat jüngst in einem Beitrag hier darüber gesprochen, dass die Ergebnisse Ihrer jüngsten Studie Karl et al. (2015) auf Methoden der Rosinenpickerei basieren:

Diese neue Studie ist vor allem interessant im Zusammenhang mit der Studie von Karl et al., in der der Stillstand ,verschwindet‘. Ich vermute, dass die wesentliche Botschaft für die Öffentlichkeit lautet, dass die Daten wirklich, wirklich unsicher sind und es viel Gelegenheit für Wissenschaftler gibt, Methoden herauszupicken, um die gewünschten Ergebnisse zu bekommen.

Ich tendiere dazu, dem zuzustimmen. Die Ergebnisse der auf die frühere Version der NOAA-Daten der Wassertemperatur angewandten statistischen Methoden (ERSST.v3b) hatte nicht die von der NOAA gewünschten Ergebnisse erbracht. Daher wurden die NOAA/NCEI-Daten unter Ihrer Leitung gemischt und mit entsprechenden Methoden behandelt, bis die von Ihnen gewünschten Ergebnisse vorlagen (ERSST.v4).

Ich freue mich auf Ihre Antwort.

Sincerely,

Bob Tisdale

Link: http://wattsupwiththat.com/2015/06/11/open-letter-to-tom-karl-of-noaancei-regarding-hiatus-busting-data/

Übersetzt von Chris Frey EIKE, der mal wieder an die Grenzen seines Wissens geführt worden ist.




Beispiel für Deutschland: Offener Brief an die US-Senatoren Ted Cruz, James Inhofe und Marco Rubio

Ich habe ein paar grundlegende Fragen zur auf Klimamodellen basierenden Wissenschaft, und zwar Folgende:

● Warum finanzieren die Steuerzahler auf Klimamodellen basierende Forschungen, wenn diese Modelle gar nicht das Klima der Erde simulieren?

● Warum finanzieren die Steuerzahler auf Klimamodellen basierende Forschungen, wenn jede neue Generation von Klimamodellen die gleichen grundlegenden Antworten liefert?

● Redundanz: Warum finanzieren die Steuerzahler 5 Klimamodelle in den USA?

● Warum liefern Klimamodelle nicht die Antworten, die wir brauchen?

●● Beispiel: Warum hat der Konsens regionaler Klimamodelle Timing, Ausmaß und Dauer der Dürre in Kalifornien nicht vorhergesagt?

Ich habe diese Bedenken im Folgenden ausgeführt und erläutert.

Anmerkung: Ich habe mit diesem Brief bereits vor einigen Monaten angefangen, und zwar nach der Ankündigung, dass Sie diesen Komitees vorstehen werden. Zwei von Ihnen bewerben sich jetzt um die Präsidentschaft. Selbst damit im Hinterkopf hoffe ich, dass Sie und ihre Büros diese Fragen beantworten.

Warum finanzieren die Steuerzahler auf Klimamodellen basierende Forschungen, wenn diese Modelle gar nicht das Klima der Erde simulieren?

Das IPCC verlässt sich auf Klimamodelle, um die globale Erwärmung und den Klimawandel Emissionen anthropogener Treibhausgase zuzuordnen und für die Simulation des zukünftigen Klimas auf der Grundlage von Schätzungen zukünftiger Emissionen. Aber die Klimamodelle simulieren das Klima der Erde nicht so, wie es derzeit ist, wie es in der Vergangenheit war oder in Zukunft sein könnte. Die Gemeinschaft der Klimawissenschaft weiß das sehr wohl, aber nur wenige Personen außerhalb dieser geschlossenen Gruppe haben auch nur die geringste Ahnung davon, dass die Klimamodelle das Erdklima gar nicht simulieren.

Dr. Kevin Trenberth vom National Center for Atmospheric Research (NCAR) war vor über 7 Jahren sehr offen hinsichtlich dieser simplen Fakten, und es gab keine Weiterentwicklungen seitdem beim Prozess der Klimamodellierung. In Dr. Trenberths Artikel aus dem Jahr 2007 mit dem Titel Predictions of Climate auf dem Blog Nature.com wurden viele kritische Schwächen der Klimamodelle angesprochen, die vom IPCC für die Simulation des Erdklimas in Vergangenheit und Zukunft verwendet worden waren. Dr. Trenberths Artikel war angefüllt mit bemerkenswerten Äußerungen, wie z. B.:

…kein einziger Klimastatus in den Modellen korrespondiert auch nur entfernt mit dem gegenwärtig beobachteten Klima.

Im Besonderen haben der Zustand der Ozeane, Meereis und Bodenfeuchtigkeit keine Beziehung zu den beobachteten Zuständen zu irgendeiner Zeit der jüngeren Vergangenheit in irgendeinem der IPCC-Klimamodelle.

Außerdem kann der Klimastatus zu Beginn der Simulation in vielen der Modelle signifikant vom realen Klima abweichen, was den Weg frei macht für Modellfehler.

Das sind aussagekräftige Feststellungen. Falls Sie Dr. Trenberths Beitrag vollständig lesen würden, werden sie erkennen, dass jene Zitate sich wie ein roter Faden durch den übrigen Text ziehen. Gelegentlich warf Trenberth ein, was man tun könne, damit das Dogma der globalen Erwärmung die kritischen Aspekte abschwächt.

Eines von Dr. Trenberths Statements ragt als Selbstbetrug heraus:

Das gegenwärtige Projektionsverfahren funktioniert bis zu dem Grad, wie es der Fall ist, weil Differenzen von Lauf zu Lauf sowie der Haupt-Modellbias und systematische Fehler sich gegenseitig aufheben. Dies legt Linearität nahe.

Sieben Jahre später, mit der Verlangsamung der Erwärmung und der fehlenden Wärme in den Ozeanen weiß jeder, dass das „gegenwärtige Projektionsverfahren“ nicht funktioniert. Die Gemeinschaft der Klimawissenschaft wusste von Anfang an, dass das Erdklima chaotisch und nichtlinear ist. Tatsächlich hat das IPCC bereits in seinem Dritten Zustandsbericht unter der Überschrift Balancing the need for finer scales and the need for ensembles festgestellt (Fettdruck von mir):

Alles in allem muss eine Strategie berücksichtigen, was möglich ist. Bei der Klimaforschung und -modellierung müssen wir erkennen, dass wir es mit einem gekoppelten, nichtlinearen chaotischen System zu tun haben und dass daher eine langfristige Prognose des zukünftigen Klimazustandes nicht möglich ist.

Auf der gleichen Website fährt das IPCC dann fort, dieses Statement als Begründung für große Ensembles von Modellen heranzieht in der unlogischen Annahme, dass eine Sammlung falscher Modelle richtige Antworten erbringt.

Es war nur eine Frage der Zeit, bis das „gegenwärtige Projektionsverfahren“ des IPCC scheitert. Und es hat nicht lange gedauert. Falls das „gegenwärtige Projektionsverfahren“ funktioniert hätte, müsste sich die klimawissenschaftliche Gemeinschaft jetzt nicht damit herumschlagen, die Verlangsamung der Erwärmung und die fehlende Wärme in den Ozeanen mit einer Entschuldigung nach der anderen zu erklären.

Schauen wir noch, was Dr. Trenberth zur Stützung der oben zitierten Stichworte geschrieben hat:

Keines der vom IPCC benutzten Modelle wurde auf den beobachteten Status initialisiert, und keiner der Klimazustände in den Modellen korrespondiert auch nur entfernt mit dem gegenwärtig beobachteten Klima. Insbesondere der Zustand der Ozeane, Meereis und Bodenfeuchtigkeit haben keine Beziehung zum beobachteten Zustand zu irgendeinem Zeitpunkt der jüngeren Vergangenheit in irgendeinem der IPCC-Modelle. Weder gibt es eine El Niño-Sequenz noch irgendeine Pazifische dekadische Oszillation, welche die jüngere Vergangenheit spiegeln; und doch sind es diese grundlegenden Faktoren der Variabilität, die die Anrainerstaaten des Pazifik und darüber hinaus beeinflussen. Die Atlantische Multidekadische Oszillation, die von der thermohalinen Zirkulation abhängig sein kann und folglich von von den Meeresströmen im Atlantik, wurde nicht mit dem heutigen Zustand abgeglichen, obwohl dies eine wichtige Komponente atlantischer Hurrikane ist und zweifellos Auswirkungen auf die Vorhersage der nächsten Dekade von Brasilien bis nach Europa hat. Außerdem kann der Klimastatus zum Startpunkt vieler der Klimamodelle signifikant vom realen Klimastatus derzeit abweichen, was zu Modellfehlern führt. Ich postuliere, dass es unmöglich ist, regionale Klimaänderungen angemessen vorhersagen zu können, solange die Modelle nicht initialisiert werden.

Es kommt nicht überraschend, dass auf natürliche Weise stattfindende und von Sonnenlicht angetriebene El Niño- und La Niña-Ereignisse sowie längerzeitliche Zustände der natürlichen Variabilität wie die AMO und die PDO jetzt dafür herhalten müssen, die globale Erwärmung zu unterdrücken. Andererseits wird fast nie angesprochen, dass:

● jene Zustände der natürlichen Variabilität die globale Erwärmung auch verstärken können, und

● die Klimamodell-Projektionen des zukünftigen Klimas nur mit der auf natürliche Weise erfolgten Erwärmung von Mitte der siebziger Jahre bis zur Jahrhundertwende einhergehen.

Beide diese Faktoren zeigen, dass Klimamodellprojektionen einer zukünftigen globalen Erwärmung zwei mal zu hoch ausfallen.

Weil die Klimamodelle Zustände der natürlichen Variabilität nicht simulieren können, die die globale Erwärmung verstärken oder abschwächen, ist das Verlassen auf diese Modelle, wie sie heute existieren, für das Studium der globalen Erwärmung und des Klimawandels ähnlich wie bei Physikern, die sich auf Computermodelle des menschlichen Körpers verlassen, die nicht Atmung, Verdauung, Kreislauf usw. simulieren können.

Einfach gesagt, Klimamodelle sind eine virtuelle Realität. Sie sind nicht realer als die mit Computern erzeugten Bilder von King Kong oder Dinosauriern oder Aliens in Kinofilmen.

Schauen wir noch ein mal darauf, was die Klimawissenschaftler uns mit ihren Klimamodell-Projektionen in Wirklichkeit sagen: (1) Falls Emissionen anthropogener Treibhausgase wie in zahlreichen Zukunftsszenarien projiziert zunehmen, und (2) falls das Erdklima auf diese Zunahme anthropogener Treibhausgase reagiert, wie es von den Klimamodellen simuliert wird, dann (3) könnte sich das Klima wie simuliert ändern, aber (4) die klimawissenschaftliche Gemeinde weiß sehr genau, dass das Erdklima NICHT auf jene Zunahmen reagiert, wie es die Klimamodelle projizieren.

Da fragt man sich, warum sie diese Mühen auf sich nehmen … wohl nur, um die Wünsche der politischen Gebilde zu erfüllen, die die Klimawissenschaft finanzieren.

Anmerkung: In einem Postscriptum zu diesem Brief habe ich ein paar Beispiele angeführt mit Vergleichen von Modellen mit Daten aus meinen früheren Blogbeiträgen. Sie zeigen, wie schlecht die Klimamodelle die Temperaturen, Niederschlag und Meereis simulieren.

Warum finanzieren die Steuerzahler auf Klimamodellen basierende Forschungen, wenn jede neue Generation von Klimamodellen die gleichen grundlegenden Antworten liefert?

Die vom IPCC praktizierte, auf Klimamodellen basierende Forschung zeitigt die gleichen grundlegenden Antworten wie bereits vor über zwei Jahrzehnten. Vom Ersten IPCC-Zustandsbericht aus dem Jahr 1990 bis zum Fünften Zustandsbericht 2013 gab es kaum Änderungen von auf Klimamodellen basierenden Projektionen der Temperaturen, verursacht durch vermeintliche zukünftige Zunahmen der Emissionen anthropogener Treibhausgase (hauptsächlich Kohlendioxid). Als zusätzliche Beispiele haben uns alle fünf Zustandsberichte fundamental auch gesagt:

1) Der Meeresspiegel wird weiter steigen, unabhängig davon, ob wir unsere Emissionen von Treibhausgasen reduzieren oder nicht … und es gibt immer noch große Unsicherheits-Bandbreiten von Best-Case-Szenarien, die sich mit Worst-Case-Szenarien überlagern.

2) Gletscher und Eisschilde werden schmelzen, was zum Anstieg des Meeresspiegels beiträgt … aber das ist lediglich eine Fortsetzung des Schmelzprozesses, der seit dem Ende der letzten Eiszeit im Gange ist, als die Temperaturen auf ein Niveau gestiegen sind, bei dem Inlandseis schmilzt. Gletscher und Eisschilde werden weiterhin schmelzen, bis die Temperaturen wieder fallen und wir der nächsten Eiszeit entgegen gehen. Und das fortgesetzte Abschmelzen der Gletscher und Eisschilde wird natürlich zu weiteren Anstiegen des Meeresspiegels beitragen.

3) In einigen Regionen der Erde wird es Dürren, in anderen Überschwemmungen geben … aber selbst die gegenwärtigen „hypermodernen“ Klimamodelle können uns nicht sagen, wo und wann diese Überschwemmungen und Dürren auftreten, weil sie immer noch nicht die jährlichen, dekadischen und multidekadischen Variationen simulieren können in gekoppelten Ozean-Atmosphäre-Prozessen, die den globalen Niederschlag steuern. Hierzu mehr in einem späteren Abschnitt.

Die USA haben während der letzten zwei Jahrzehnte Milliarden Dollar in die auf Klimamodellen basierende Wissenschaft gesteckt. Und doch sagen uns die Berichte immer das Gleiche, wieder und immer wieder: Temperaturen und Meeresspiegel werden steigen, etc. Sie liefern nichts neues von Wert und haben das auch noch nie getan.

Redundanz: Warum finanzieren die Steuerzahler 5 Klimamodelle in den USA?

Von den 26 Klimamodell-Gruppen der Welt, die Modellergebnisse für den 5. IPCC-Zustandsbericht des IPCC liefern, stammen 5 aus den USA:

Das CMIP5-Klimamodellvergleichsprojekt findet sich hier.

● NASA Goddard Institute for Space Studies (GISS)

● NASA Global Modeling and Assimilation Office (GMAO)

● National Center for Atmospheric Research (NCAR)

● NOAA Geophysical Fluid Dynamics Laboratory (GFDL)

● National Science Foundation, Department of Energy, National Center for Atmospheric Research (NSF-DOE-NCAR)

Keines der Modelle simuliert das Klima so, wie es jetzt ist. Brauchen die USA 5 Klimamodelle und den damit verbundenen Mitarbeiterstab für Modelle, die das Klima auf einem virtuellen Planeten simulieren, der wenig Ähnlichkeit mit dem hat, den wir bewohnen?

Warum liefern Klimamodelle nicht die Antworten, die wir brauchen?

Nach vielen Jahrzehnten der Bemühungen, das Klima zu modellieren, hat die klimawissenschaftliche Gemeinschaft keine Modelle bilden können, die in der Lage sind, die Antworten zu liefern, die wir brauchen und die wir verdienen. Dafür gibt es einen ganz einfachen Grund: Den Schwerpunkt der klimawissenschaftlichen Gemeinschaft bei der Klimaforschung.

Unter Führung des IPCC und der politischen Körperschaften, die die Klimawissenschaft finanzieren, lag der Schwerpunkt der Klimaforschung immer auf der vom Menschen verursachten globalen Erwärmung oder des Klimawandels, niemals aber auf der natürlichen Variabilität. Dabei sind es auf natürliche Weise ablaufende gekoppelte Ozean-Atmosphäre-Prozesse, die bestimmen, wann und wo Temperatur und Niederschlagsmenge zunehmen und wo nicht.

Wir müssen uns immer vor Augen führen, dass das IPCC eine politische Institution ist und nicht eine wissenschaftliche. Die einzige Aufgabe dieser Institution ist es, wissenschaftliche Studien zu bewerten, die eine politische Agenda stützen. Nicht mehr und nicht weniger.

Die Website mit der Historie des IPCC beginnt mit den Worten (Fettdruck von mir):

Das IPCC wurde im Jahre 1988 ins Leben gerufen. Es wurde gebildet von der WMO und dem United Nations Environment Program (UNEP), um Zustandsbeschreibungen auf der Grundlage verfügbarer wissenschaftlicher Informationen zu erstellen über alle Aspekte des Klimawandels und deren Auswirkungen, mit einer Meinungsbildung, um realistische Gegenmaßnahmen einzuleiten. Die ureigene Aufgabe des IPCC, wie sie in der Resolution der UN-Vollversammlung 43/53 vom 6. Dezember 1988 umrissen worden war ist es, unter Berücksichtigung des Wissens um die Wissenschaft des Klimawandels umfassende Berichte und Empfehlungen zu erstellen; über die sozialen und ökonomischen Auswirkungen des Klimawandels und mögliche Gegenmaßnahmen sowie Elemente, die Eingang finden könnten in ein mögliches zukünftiges internationales Klimaabkommen.

Folglich wurde das IPCC gegründet, um Berichte zu schreiben. Keine Frage, dass es sich dabei um sehr detaillierte Berichte handelt, so beladen, dass nur sehr wenige Personen sie in Gänze lesen würden. Die meisten Menschen lesen nur die Summaries for Policmakers … auf deren Inhalte sich die Politiker nach jeweils wochenlangen Diskussionen einigen müssen [und deren Wortlaut, wie man inzwischen weiß, auf politischen Druck hin häufig vom Wortlaut in den Originalberichten abweichen. Anm. d. Übers.].

Wie aus obigem Zitat hervorgeht, ist die Sprache der IPCC-Berichte darauf ausgerichtet, ein internationales Klimawandel-Abkommen zu stützen.

Dieser Vertrag ist bekannt unter der Bezeichnung United Nations Framework Convention on Climate Change (UNFCCC). Er wurde im Jahre 1992 unterzeichnet, ein Jahr nach dem ersten IPCC-Zustandsbericht. Dieses Timing ist sehr seltsam, weil die Ergebnisse jenes ersten Berichtes nicht aufschlussreich waren, konnte doch die klimawissenschaftliche Gemeinde darin nicht unterscheiden zwischen natürlichen und anthropogenen Beiträgen. Dies brachte die UN in eine prekäre Lage. Man hatte ein Abkommen zur Stelle, die Emissionen von Treibhausgasen zu reduzieren, jedoch ohne wissenschaftliche Unterstützung. Folglich musste jeder folgende politisch motivierte Bericht unbedingt die Sicherheit des IPCC zunehmen lassen, dass Treibhausgase der primäre Treiber der globalen Erwärmung waren. Anderenfalls wäre das UNFCCC tot.

Ein paar Klarstellungen:

Eine Ausgabe des UNFCCC findet sich hier. Unter der Überschrift von Artikel 2 – Objektive identifiziert das UNFCCC sein Ziel, die Emissionen von Treibhausgasen zu begrenzen (Fettdruck von mir):

Die ultimative Objektive dieser Konvention und jedwedes damit zusammenhängende legale Instrument, das die Konferenz der Teilnehmer übernehmen könnten, ist es, in Übereinstimmung mit den relevanten Provisionen der Konvention die Treibhausgaskonzentrationen in der Atmosphäre auf einem Niveau festzuschreiben, dass gefährliche anthropogene Interferenzen mit dem Klimasystem verhindert.

Weil es die Objektive des UNFCCC-Vertrages war, die Emissionen menschlicher Treibhausgase zu begrenzen, und weil es das Ziel des IPCC war, Berichte zu erstellen, die diesen Vertrag stützen, kann man mit Fug und recht sagen, dass es die einzige Rolle des IPCC war, wissenschaftliche Berichte zu schreiben, die eine politisch motivierte Vorgabe zur Begrenzung von Treibhausgasemissionen stützen. Ich habe das Wort Vorgabe aus einem ganz bestimmten Grund unterstrichen: Weil die Klimamodelle das Klima immer noch nicht so simulieren, wie es ist, hat das IPCC niemals wirklich glaubhaft gemacht, dass eine Notwendigkeit zur Begrenzung der Emissionen besteht.

Weiter unten auf der Website mit der IPCC-Historie stellt man fest (Fettdruck von mir):

Die heutige Rolle des IPCC ist definiert in den Prinzipien, der die Arbeit des IPCC zu folgen hat (hier) … nämlich auf einer umfassenden, objektiven, offenen und transparenten Grundlage die wissenschaftlichen, technischen und sozio-ökonomischen Informationen einzuschätzen, die relevant sind für das Verständnis der wissenschaflichen Basis für das Risiko eines von DEN MENSCHEN VERURSACHTEN Klimawandels, deren potentielle Auswirkungen und Optionen für Anpassung an und Abschwächung desselben.

Die Tatsache, dass das IPCC all seine Bemühungen auf das „Verständnis der wissenschaftlichen Basis der Risiken einer vom Menschen verursachten Klimaänderung“ konzentriert hat, ist sehr wichtig. Das IPCC hat niemals wirklich versucht zu untersuchen, ob nicht auch natürliche Faktoren Hauptursache für den größten Teil der Erwärmung während des vorigen Jahrhunderts sein könnten. Jahrzehnte lang haben sie Tomaten auf den Augen gehabt, die ihre Sicht auf alles andere außer den möglichen Auswirkungen von Kohlendioxid verhindert haben. Die Rolle des IPCC war es stets, Berichte zu erstellen, die die Reduktion von Treibhausgasemissionen stützen, die bei der Verbrennung fossiler Treibstoffe anfallen. Als Folge davon fließt das gesamte Forschungsgeld genau dorthin. Die Entscheidung, nur die vom Menschen induzierte globale Erwärmung zu studieren, ist eine politische und keine wissenschaftliche Entscheidung.

Als Folge dieser politischen Entscheidung gibt es kaum wissenschaftliche Forschungen, die versuchen zu bestimmen, wie viel der erfolgten Erwärmung natürlichen Faktoren geschuldet ist. Wir wissen, dass dies eine Tatsache ist, weil die gegenwärtige Generation von Klimamodellen – die komplexesten Klimamodelle bisher – immer noch nicht aus natürlichen Gründen auftretende Ozean-Atmosphäre-Prozesse simulieren können, die dafür sorgen, dass sich die Erdoberfläche (und die Ozeane bis zu einer bestimmten Tiefe) Jahrzehnte lang erwärmen oder abkühlen können.

Beispiel: Warum hat der Konsens regionaler Klimamodelle Timing, Ausmaß und Dauer der Dürre in Kalifornien nicht vorhergesagt?

Klimamodellierer gehen seit einer Reihe von Jahren in eine andere Richtung: regionale Klimamodelle. Siehe hier zu die NASA-Website Regional Climate Models Evaluation System. Natürlich versuchen sie auf dieser Website , ein rosiges Bild zu zeichnen ohne in größerem Umfang offen zu sein hinsichtlich der Unsicherheiten, die durch natürlich auftretende chaotische Faktoren ins Spiel kommen.

Wir haben uns daran gewöhnt, große Unsicherheits-Bandbreiten der globalen Klimamodelle zu erkennen. Mit kürzerfristigen regionalen Klimamodellen werden diese Unsicherheiten sogar noch größer, weil Ozean-Atmosphäre-Prozesse, die über die Möglichkeiten der Klimamodelle hinausgehen, eine so große Bandbreite von Einflüssen auf das regionale Klima haben.

Unabhängig davon, ob es nun regionale oder globale Klimamodelle sind – Klimamodelle im Allgemeinen sind immer noch nicht in der Lage, gekoppelte Ozean-Atmosphäre-Prozesse zu simulieren, die jährliche, vieljährige, dekadische und multidekadische Änderungen von Temperatur und Niederschlag bestimmen, global und regional. Wie oben erwähnt hat Dr. Trenberth festgestellt, dass Klimamodelle keinerlei natürliche Faktoren der Klimavariabilität enthalten: El Niño/La Niña, PDO und AMO. Es gibt viele andere Modi der natürlichen Variabilität, die jenseits der Möglichkeiten von Klimamodellen liegen, und diese Faktoren haben ebenfalls starke Auswirkungen auf das regionale Klima im Kurzfristzeitraum.

Jetzt möchte ich einen Punkt klarstellen. Ich habe oben geschrieben, dass Klimamodelle immer noch keine Modi der natürlichen Variabilität enthalten. Das heißt nicht, dass sie ein Feature ausschließen, das sie einfach aus einem Menü wählen und dem nächsten Modelllauf hinzufügen können. Die Modelle können diese nicht angemessen simulieren. Es gibt zahlreiche begutachtete Studien, die dieses Scheitern dokumentieren.

Selbst die grundlegendsten Beziehungen zwischen den Passatwinden und der Wassertemperatur im tropischen Pazifik (wo die El Niño-Ereignisse stattfinden) liegen jenseits der Möglichkeiten der Klimamodelle. (Seit dieser Entdeckung in den sechziger Jahren nennt man diese Beziehung die Bjerkness-Rückkopplung. Die Studie aus dem Jahr 2012 von Bellenger et al. ENSO representation in climate models: from CMIP3 to CMIP5 bestätigt diese traurige Tatsache).

Warum hat uns ein Konsens regionaler Klimamodelle nicht gesagt, dass in Kalifornien den Daten zufolge seit 25 Jahren (von 1986 bis 2011) keinerlei Erwärmung mehr aufgetreten ist (hier)? Warum haben sie uns nicht gesagt, dass sich vor ein paar Jahren nordwestlich von Kalifornien über dem östlichen Nordpazifik ein stabiles Hochdruckgebiet gebildet hat … das bis heute Bestand hat? Dass ein Gebiet mit warmem Wasser sich ebenfalls in jenem Gebiet der Nordpazifik bildet … ein Gebiet mit so hohen Wassertemperaturen, dass sie der dominante Grund sind für die rekordhohen globalen Temperaturen im Jahre 2014 (hier)? Dass die Hochdruckzone (jetzt bekannt unter der Bezeichnung „the Blob“) im nordöstlichen Nordpazifik Ursache für die jüngsten rekordhohen Temperaturen in Kalifornien war, zusammen mit einer unter dem Durchschnitt liegenden Niederschlagsmenge? Dass das „lächerlich beständige Hochdruckgebiet“ und „the Blob“ rekordniedrige Temperaturen im Nordosten [der USA] während des vergangenen Winters zur Folge hatte?

(Siehe Bond et al. 2015 Causes and Impacts of the 2014 Warm Anomaly in the NE Pacific und Hartmann (2015) Pacific sea surface temperature and the winter of 2014 sowie deren Presseerklärung ‘Warm blob’ in Pacific Ocean linked to weird weather across the U.S. Auch hier: Johnstone and Mantua (2014) Atmospheric controls on northeast Pacific temperature variability and change, 1900–2012.)

Es gibt einen ganz einfachen Grund, warum uns regionale Klimamodelle nicht gesagt haben, dass es zu all dem kommen würde. Klimamodelle sagen nicht das Wetter vorher, und die die Dürre und die hohen Temperaturen in Kalifornien treibenden Faktoren sind Wetterereignisse … beständige zwar, aber nichtsdestotrotz Wetterereignisse. Andererseits haben Wettermodelle nur begrenzten Wert für ein paar Tage im Voraus…im besten Falle eine Woche im Voraus.

Gibt es regionale Klimamodelle, die zuverlässig vorhersagen können:

●Wie lange die Dürre in Kalifornien noch andauert?

●Wann es erneut zu einer Dürre kommen könnte?

●welche Gebiete des Landes als Nächstens von einer Dürren heimgesucht werden?

Nein!

Werden es kurzfristige regionale Klimamodelle in Zukunft irgendwann etwas bringen?

Nicht, solange sie nicht gekoppelte Ozean-Atmosphäre-Prozesse im Pazifik und dem Nordatlantik vorhersagen können nebst den damit verbundenen und sogar noch chaotischeren Luftdruck-Phänomenen wie dem Nordpazifik-Index, der Nordatlantischen Oszillation und der Arktischen Oszillation usw.

Nehmen wir weiter Kalifornien als Beispiel. Bis die regionalen Klimamodelle chaotische Ozean-Atmosphäre-Prozesse auf Jahre im Voraus vorhersagen können in Gebieten, die von Kalifornien weit entfernt sind, können diese Modelle uns lediglich sagen, was in Kalifornien passieren könnte, falls La Niña-Ereignisse dominieren oder auftreten könnten, falls es eine Verschiebung der damit verbundenen PDO oder des Nordpazifik-Index‘ oder der Arktischen Oszillation gibt. Mit all diesen „es könnte passieren“ sind große Bandbreiten von Unsicherheiten verbunden infolge deren Verstärkungseffekte. Die Unsicherheiten sind so groß, dass sie kaum für die zukünftige Planung verwendet werden können.

Und dann wird es, wie wir jüngst erleben mussten, total unerwartete Ereignisse geben wie die „lächerlich beständige Hochdruckzone“ und „the Blob“, um diese Vorhersagen zunichte zu machen.

Klimamodelle sind nicht einmal nahe daran, die Fragen beantworten zu können, die Antworten brauchen, und es ist unwahrscheinlich, dass sie diese Fähigkeiten aufweisen, bis sie irgendwann Chaos vorhersagen können … Jahre und Jahrzehnte in der Zukunft. Die Wahrscheinlichkeit dafür ist einfach Null.

Zum Schluss

Unter Führung des IPCC und der diesen finanzierenden politischen Institutionen hat sich die Klimawissenschaft allein auf die Stützung internationaler Verträge konzentriert, die Emissionen anthropogener Treibhausgase zu begrenzen. Die Klimamodellierung ist durch diesen Brennpunkt behindert worden, was uns Modelle hinterlassen hat, die keine Beziehung haben zu der Welt, in der wir leben. Es ist an der Zeit, diesen Brennpunkt zu verlagern, um es den Klimamodellierern zu ermöglichen, den wirklichen Beitrag der natürlichen Variabilität zu globaler Erwärmung und Klimawandel zu untersuchen, ohne befürchten zu müssen, dass die Finanzquellen dafür versiegen. Falls wir in der Lage sein wollen, uns an den Klimawandel anzupassen, egal ob vom Menschen verursacht oder natürlichen Ursprungs, braucht die Klimawissenschaft einen viel besserten Zugriff darauf, wie das Klima der Erde tatsächlich funktioniert und nicht, wie es in den Modellen funktioniert.

Ich hoffe, dass Sie und Ihre Büros in der Lage sein werden, sich dieser und anderer Fragen anzunehmen während Ihrer Zeit als Vorsitzende der Komitees und Subkomitees mit Bezug zur Klimawissenschaft.

Falls Sie irgendwelche Fragen haben oder irgendwelche weiteren Informationen brauchen, dann schreiben Sie oder Ihre Mitarbeiter bitte einen Kommentar zu irgendeinem Beitrag auf meinem Blog ClimateObservations.

Sincerely,

Bob Tisdale

P. S. Folgende Beiträge sind eine Sammlung, die illustriert, wie schlecht Klimamodelle Temperatur Niederschlag und Meereis simulieren:

Satellite-Era Sea Surface Temperatures as anomalies

Satellite-Era Sea Surface Temperatures in absolute form

Global Surface Temperatures (Land+Ocean) Since 1880 as anomalies

Global Surface Temperatures (Land+Ocean) Since 1880 in absolute form

Global Precipitation

Global Land Precipitation & Global Ocean Precipitation

Sea Ice

Wie ich schon früher wiederholt gesagt habe, Klimamodelle lassen gegenwärtig keine andere Aussage zu als zu illustrieren, wie schlecht sie sind.

Link: http://wattsupwiththat.com/2015/04/14/open-letter-to-u-s-senators-ted-cruz-james-inhofe-and-marco-rubio/

Übersetzt von Chris Frey EIKE




Über die Verzerrungen durch Auslassungen im NOAA-Bericht zum Klimastatus 2014

Die globalen Höhepunkte 2014 des NOAA-SOTC-Berichtes

Hinsichtlich der Temperaturen an der Erdoberfläche heißt es bzgl. der globalen Höhepunkte im NOAA-Klimastatusbericht (Fettdruck von mir):

Globale Höhepunkte:

Das Jahr 2014 war das wärmste Jahr bzgl. der globalen Temperatur über Land und Wasser seit Beginn von Aufzeichnungen im Jahre 1880. Die jährlich gemittelte Temperatur lag um 0,69°C über dem Mittel des 20.Jahrhundert von 13,9°C. Dies bricht deutlich die Rekorde der Jahre 2005 und 2010 um 0,04°C. Dies markiert auch das 38. Jahr in Folge (seit 1977), dass die globale mittlere Temperatur über dem Mittelwert lag. Einschließlich 2014 liegen 9 der 10 wärmsten Jahre in der 135 Jahre langen Periode im 21.Jahrhundert. 1998 rangiert gegenwärtig an vierter Stelle der wärmsten Jahre jemals.

● Die globale mittlere Wassertemperatur der Ozeane erreichte ebenfalls einen rekordhohen Wert, der 0,57°C über dem Mittel des 20.Jahrhunderts von 16,1°C lag. Damit wurde der bisherige Rekord der Jahre 1998 und 2003 um 0,05°C gebrochen. Bemerkenswerterweise waren im gesamten Jahr 2014 ENSO-neutrale Bedingungen vorherrschend.

● Die globale mittlere Temperatur auf dem Festland lag um 1,00°C über dem Mittel des 20. Jahrhunderts von 8,5°C und erreichte damit den vierthöchsten jährlichen Wert jemals.

Natürlich waren diese globalen Höhepunkte das, was in den Mainstream-Medien und den Alarmisten-Blogs nachgeplappert wurde. Eine mögen sogar über globale Temperaturen und solche in regionalen Gebieten berichten. Nur wenige werden es wagen darüber hinauszugehen.

Verzerrung von Auslassung 1

Erst wenn die Leser bis zu der Tabelle im SOTC-Bericht herunterscrollen, nennt die NOAA Unsicherheiten. Siehe meine Abbildung 1. Der NOAA zufolge „lag die jährlich gemittelte Temperatur um 0,69°C über dem Mittel des 20.Jahrhundert von 13,9°C. Dies bricht deutlich die Rekorde der Jahre 2005 und 2010 um 0,04°C“. Aber dann beschreibt die NOAA ihre globalen Temperaturanomalien mit „+0.69 ± 0.09°C“. Oh weh, wir entdecken, dass der neue Rekordwert von 0,04°C innerhalb der Unsicherheit von ± 0.09°C des Datensatzes liegt.

Abbildung 1

Noch weiter unten auf der Website stoßen wir auf die Links zu ergänzenden Informationen der NOAA:

Probabilities related to 2014’s historical ranking

Year-to-date temperature evolution

Global temperature trend maps

Various time series of annual temperature data

Der erste Link führt zur Website Calculating the Probability of Rankings for 2014. Dort schreiben sie nach einer initialen Diskussion (Fettdruck von mir):

Mittels eines Monte Carlo-Verfahrens (Arguez et al, 2013) betrachtete NCDC die bekannte Unsicherheit der globalen Festlands- und Ozeantemperatur bzgl. des Ranges der Temperatur 2014. Bezieht man die Unsicherheit ein und betrachtet man alle Jahre (1880 bis 2014) in der Zeitreihe als unabhängig, beträgt die Chance, dass das Jahr

das Wärmste jemals ist: 48%

eines der fünf wärmsten Jahre ist: 90,4%

eines der zehn wärmsten Jahre ist: 99,2%

eines der 20 wärmsten Jahre ist: 100,0%

wärmer als das Mittel des 20.Jahrhunderts ist: 100,0%

wärmer als das Mittel der Jahre 1981 bis 2010 ist: 100%.

NCDC folgt diesen Konventionen, um das Vertrauen in Verbindung mit den vorgenommenen Vermutungen zu kategorisieren im Hinblick auf die im Bericht genannte Rangfolge.

Meine Abbildung 2 zeigt die Tabelle der „Konventionen zur Kategorisierung“, die der Diskussion folgt, mit meinem Höhepunkt:

Abbildung 2

Das heißt, der NOAA zufolge liegt die Chance, dass 2014 das wärmste Jahr jemals war, bei 48,0%. Außerdem scheinen ihrer Tabelle zufolge die globalen Temperaturanomalien 2014 im Bereich „eher unwahrscheinlich als wahrscheinlich“ zu liegen.

Komischerweise hat die NOAA die wichtigste Aussage „eher unwahrscheinlich als wahrscheinlich“ auf der Startseite des Klimastatusberichtes weggelassen. Man muss auf die Links unter Supplemental Information klicken, um herauszufinden, dass 2014 „mehr unwahrscheinlich als wahrscheinlich“ das wärmste Jahr jemals war.

Daher hat die NOAA die „Globalen Höhepunkte“ ihres Klimastatusberichtes verzerrt dargestellt, weil man ,vergessen‘ hat, die Wahrscheinlichkeit oder eher die Unwahrscheinlichkeit der höchsten globalen Temperaturen jemals im Jahre 2014 anzumerken.

Verzerrung durch Auslassung 2

Das nächste Thema ist das El Niño-Ereignis im Jahr 2014.

Unter der Überschrift Globale Temperaturen auf der Startseite des SOTC-Berichtes der NOAA stellt man fest:

Dies ist das erste Mal seit 1990, dass der Wärme-Temperaturrekord gebrochen worden ist bei Abwesenheit von El Niño-Bedingungen zu irgendeiner des Jahres im zentralen und östlichen tropischen Pazifik, wie sie durch den CPC Oceanic Niño Index der NOAA definiert werden. Dieses Phänomen tendiert allgemein dazu, die Temperaturen weltweit zunehmen zu lassen. Doch blieben die Bedingungen während des ganzen Jahres diesmal neutral, und der global erreichte Wärmerekord wurde trotzdem erreicht.

Der ozeanische NINO-Index der NOAA basiert auf der NINO3.4-Region (5°S-5°N, 170°W-120°W) des äquatorialen Pazifiks. Siehe die Karte der NOAA mit den NINO-Regionen hier. Und einem Hovmoller-Diagramm der Wassertemperatur-Anomalien von der NOAA GODAS website zufolge bestanden El Niño-Bedingungen (Wassertemperatur-Anomalien gleich oder größer als +0,5°C) im äquatorialen Pazifik östlich und westlich der NINO3.4-Region fast das gesamte Jahr 2014 über.

Abbildung 3

Mit anderen Worten, die Daten der Wassertemperatur zeigen, dass während der meisten Monate im Jahr 2014 sehr wohl El Niño-Bedingungen vorlagen, aber eben nicht in der Region, die die NOAA als Definition eines El Niño festgelegt hatte. Unabhängig davon hat die Japan Meteorological Agency JMA angemerkt, dass seit Juni El Niño-Bedingungen herrschten (hier). Dies haben wir bereits im Rahmen der jüngsten ENSO-Aktualisierung diskutiert (hier) sowie in dem Beitrag mit dem Titel [übersetzt] „Der kleine El Niño, den es gegeben oder nicht gegeben haben könnte (abhängig von Agentur und Index)“ (hier).

Im Dezember 2014 lag die NINO.3-Wassertemperatur (SST) über dem Normalwert mit einer Abweichung von +0,9°C und über einem über fünf Monate gleitend geglätteten Mittelwert der mittleren NINO.3-SST-Abweichung von +0,5°C, und zwar fünf aufeinanderfolgende Monate lang, nämlich von Juni bis November (Tabelle und Abbildung 1). Die Wassertemperatur lag in den meisten Gebieten vom westlichen zum östlichen äquatorialen Pazifik über dem Normalwert (Abbildungen 2 und 4). Die Wassertemperatur unter der Oberfläche lag über dem Normalwert im östlichen äquatorialen Pazifik (Abbildungen 3 und 5).Diese ozeanischen Bedingungen zeigen, dass im äquatorialen Pazifik sehr wohl El Niño-Bedingungen vorlagen…

Und der Grund für diese Behauptungen der JMA ist, dass man dort die NINO3-Region betrachtet (5°S-5°N, 150°W-90°W), welche sich bis östlich des NINO3.4-Gebietes erstreckt und dieses überlappt.

Also hat die NOAA die Tatsache verschwiegen, dass den Daten zufolge El Niño-Bedingungen im äquatorialen Pazifik präsent waren, außerhalb des für einen ENSO-Index betrachteten Gebietes. Damit konnten sie dann behaupten, dass „die Bedingungen während des ganzen Jahres diesmal neutral waren und der global erreichte Wärmerekord trotzdem erreicht wurde“.

Natürlich war es die Absicht des NOAA-Statements, den Eindruck zu vermitteln, dass es alles in allem eine generelle Erwärmung gegeben hatte, die nicht El Niño-Bedingungen zugeordnet werden kann, obwohl in Wirklichkeit tatsächlich El Niño-Bedingungen im Jahre 2014 vorlagen.

Verzerrung durch Auslassen 3

Jetzt folgt eine Diskussion des zusätzlichen Grundes für erhöhte Wassertemperaturen.

Die NOAA schreibt unter ihren „Globalen Höhepunkten“ (Fettdruck von mir):

Ein großer Anteil der Rekordwärme auf dem Globus kann der Rekordwärme in den globalen Ozeanen zugeordnet werden. Die jährlich gemittelte Temperatur für die Wasseroberfläche der Ozeane der Welt lag um 0,57°C über dem Mittelwert des 20. Jahrhunderts, was lässig die bisherigen Rekorde der Jahre 1998 und 2003 brach, die um 0,05°C über diesem Wert lagen. Die ersten vier Monate (Januar bis April) lagen jeweils unter deren sieben wärmsten Monaten hinsichtlich des jeweiligen Vergleichsmonats, und die folgenden sieben aufeinanderfolgenden Monate (Mai bis November) zeigten Rekordwärme. Das Jahr endete mit dem Dezember als dem drittwärmsten Dezembermonat jemals.

Im Jahre 2014 hatte die Wärme ihre Ursache in großen Gebieten mit viel höheren Wassertemperaturen als normal in Teilen eines jeden größeren Ozeanbeckens. Rekordwärme wurde besonders im nordöstlichen Pazifik und um den Golf von Alaska verzeichnet sowie in weiten Gebieten des westlichen äquatorialen Pazifiks, Teilen des jeweils westlichen Nord- und Südatlantiks und in den meisten Gebieten der Norwegischen und der Barents-See. Fast der gesamte Indische Ozean war viel wärmer als im Mittel mit einem breiten Band zwischen Madagaskar und Australien. Teile des Atlantiks südlich von Grönland und die Gewässer südlich von Kap Hoorn waren viel kälter als im Mittel mit einem nahe der Antarktis lokalisierten Gebiet mit Rekordkälte.

Im Vorbeigehen erwähnte die NOAA die erhöhten Wassertemperaturen im östlichen außertropischen Nordpazifik. Ein ungewöhnliches Wetterereignis dort (zusammen mit El Niño-Bedingungen) war in Wirklichkeit die primäre Tatsache für die erhöhte Wassertemperatur des Jahres 2014. Das heißt nicht, dass erhöhte Wassertemperaturen auch in bestimmten Gebieten anderer Ozeanbecken aufgetreten waren, aber allgemein hatten jene erhöhten Temperaturen in Becken außerhalb des Nordpazifiks keinen Einfluss auf die Rekordwerte. Folge davon: Falls wir die Anomalien der Wassertemperatur seit 1997 für die Ozeane außerhalb des Nordpazifiks plotten, erscheint 2014 nicht als ein außerordentlich warmes Jahr … nirgendwo in der Nähe rekordhoher Werte … es rangiert in etwa dort, wo man es als Reaktion auf einen schwachen El Niño erwarten würde. Siehe obere Graphik in Abbildung 4. Die untere Graphik steht für die globalen Ozeane einschließlich des Nordpazifiks. Offensichtlich waren die Vorgänge im Nordpazifik der Hauptgrund für die global erhöhten Werte der Wassertemperatur.

Abbildung 4

Es gab zwei „Wetter“-Ereignisse, die die Temperaturen im Nordpazifik 2014 beeinflusst haben: 1) die El Niño-Bedingungen im tropischen Pazifik, welche direkt die Temperaturen im tropischen Nordpazifik beeinflussen und 2) das ungewöhnliche Warmwetter-Ereignis im östlichen außertropischen Pazifik, welches so gut bekannt ist, dass Klimawissenschaftler dafür den dadurch erzeugten Hotspot „die Blase“ nennen. Wegen dieser beiden Wetterereignisse im Pazifik, und nicht wegen der vom Menschen verursachten globalen Erwärmung, waren die Wassertemperaturen im Jahre 2014 global erhöht. Weil die Temperaturen über dem Festland keine Rekordwerte erreichten, ist es wiederum logisch zu sagen, dass jene beiden Wetterereignisse verantwortlich waren für die rekordhohen Temperaturen (Festland und Ozeane kombiniert), die 2014 „eher unwahrscheinlich als wahrscheinlich“ bestanden haben.

Wir haben in zahlreichen Beiträgen die Gründe für die erhöhten Wassertemperaturen im östlichen extratropischen Pazifik erörtert, und zwar unter Anderem hier:

On The Recent Record-High Global Sea Surface Temperatures – The Wheres and Whys

Axel Timmermann and Kevin Trenberth Highlight the Importance of Natural Variability in Global Warming…

Alarmists Bizarrely Claim “Just what AGW predicts” about the Record High Global Sea Surface Temperatures in 2014

Researchers Find Northeast Pacific Surface Warming (1900-2012) Caused By Changes in Atmospheric Circulation, NOT Manmade Forcings

Did ENSO and the “Monster” Kelvin Wave Contribute to the Record High Global Sea Surface Temperatures in 2014?

Wie wir im zweiten verlinkten Beitrag oben geschrieben haben, dauerte das ungewöhnliche Wetterereignis im östlichen außertropischen Nordpazifik zwei Jahre lang. Es trug auch zu der Dürre in Kalifornien bei. Und das Folgende haben wir im ersten oben verlinkten Beitrag gezeigt:

Falls wir unsere Analyse im Jahr 2012 beginnen lassen und uns dann in der Zeit zurückbewegen – wie lange zeigten die Wassertemperaturen im Nordpazifik keine Erwärmung? Die Antwort lautet unter Verwendung der ERSST.v3b-Daten der NOAA 23 Jahre. Und doch sollte sich das Wasser den IPCC-Klimamodellen zufolge während dieser Zeit um 0,5°C erwärmt haben.

Abbildung 5

Anmerkung: Falls man auf den Link des ersten Beitrags klickt, wird man bemerken, dass man diesen Zeitraum bei Verwendung des durch Satelliten gestützten Datensatzes der Wassertemperatur auf 24 Jahre ausweiten kann. Ende der Anmerkung.

Es ist unrealistisch anzunehmen, dass die Erwärmung der Oberflächen im Nordpazifik der Jahre 2013 und 2014 den menschlichen Treibhausgasen geschuldet ist, wenn doch in den mindestens 23 Jahren zuvor keinerlei Erwärmung aufgetreten war.

Abschließende Bemerkungen

Den NOAA-Definitionen zufolge waren die globalen Temperaturen 2014 „eher unwahrscheinlich als wahrscheinlich“ die höchsten jemals, aber man hat seitens der NOAA diese Tatsachen auf der Hauptseite ihres Klimastatusberichtes verschwiegen. Die NOAA benutzte einen speziellen ENSO-Index für die Behauptung, dass 2014 keine El Niño-Bedingungen vorlagen, obwohl mindestens ein anderer Index das Gegenteil zeigte. Und die NOAA hat es versäumt, die tatsächlichen Gründe der erhöhten Wassertemperaturen des Jahres 2014 anzusprechen, während sie es so hat aussehen lassen, als ob sich die globalen Ozeane generell erwärmt hätten.

Die NOAA hat an keiner Stelle spezifisch festgestellt, dass die rekordhohen Temperaturen 2014 eine Folge der vom Menschen verursachten globalen Erwärmung waren, aber sie haben es impliziert … darum all dieses große Tamtam. Die NOAA hat grundlegende Diskussionen innerhalb jenes Berichtes verschwiegen, so dass er hin zu einer anthropgenen globalen Erwärmung verzerrt worden ist. Mit anderen Worten, der NOAA-Klimazustandsbericht war irreführend. Die NOAA hat wieder einmal gezeigt, dass es ein politisches Gebilde ist und nicht ein wissenschaftliches. Und das ist eine verdammte Schande. Die Öffentlichkeit braucht Offenheit von der NOAA bzgl. des Klimas; wir dürfen nicht durch politisch motivierte Fehlinformationen in die Irre geführt werden.

Link: http://wattsupwiththat.com/2015/01/17/on-the-biases-caused-by-omissions-in-the-2014-noaa-state-of-the-climate-report/

Übersetzt von Chris Frey EIKE




Absolut erstaunlich! Ein Klimakatastrophen-Wissenschaftler schreibt einen Blogbeitrag über…

Ich schaue dort nach, um zu sehen, was dem alarmistischen Flügel der klimawissenschaftlichen Gemeinschaft wichtig genug ist, um darüber Beiträge zu schreiben. Sehr zu meinem Erstaunen fand ich vor einigen Tagen oben auf der Homepage von RealClimate einen Blogbeitrag über…

Sind Sie bereit?

…über ein Widget. Wirklich, ein Widget?*

[Eigentlich wollte ich „widget“ mit dem Begriff „Mätzchen“ übersetzen, aber ich bin nicht sicher, ob das wirklich trifft. Der Link zeigt, was bei Wikipedia dazu steht. Im Folgenden wird der Begriff unübersetzt übernommen. Anm. d. Übers.]

Jawoll, ein Widget. Nicht einfach nur ein Widget, sondern ein Widget über WUWT.

Der Beitrag von Stefan Rahmstorf auf RealClimate hier beginnt so (Fettdruck im Original):

Das „Weltklima-Widget“ von Tony Watts Blog ist möglicherweise die populärste Mogelpackung unter den Klima-„Skeptikern“. Wir legen das mal unter das Mikroskop und zeigen, wie es aussieht, wenn man es ordentlich macht.

Sehen Sie, sagte ich es doch… ein Widget.

Stellen Sie sich vor, Sie sind ein Klimawissenschaftler; Sie sind einer der Gründungsmitglieder der Website RealClimate; aber noch wichtiger, stellen Sie sich vor, Sie sind Professor der Physik der Ozeane am PIK.

Verstehen Sie das? Jetzt stellen Sie sich vor, ganz oben auf ihrer täglichen Prioritätenliste finden Sie NICHT etwas, das hilft, die Klimamodelle zu stützen, die die Erwärmungsrate der globalen Ozeanoberfläche während der letzten 33 Jahre verdoppelt haben. Siehe Abbildung 1. Nein, man findet das nicht oben auf der Prioritätenliste:

Abbildung 1 (aus diesem Blogbeitrag)

Und man findet NICHTS, das hilft, die räumliche Verteilung der Erwärmung der Ozeane in den Klimamodellen festzumachen, so dass die Modelle nützlich sein könnten, zukünftige Klimaabläufe auf dem Festland zu simulieren (Temperatur und Niederschlag). Siehe Abbildung 2:

Abbildung 2 (aus diesem Blogbeitrag)

Stellen Sie sich vor … was Sie an oberster Stelle Ihrer täglichen Prioritätenliste finden, ist man schreibe einen Blogbeitrag über das WUWT-Widget.

Es ist irre!

Habe ich schon mal einen Blogbeitrag über ein Widget geschrieben? Aber natürlich, und zwar hier. Und falls man auf diesen Link klickt, wird man sehen, dass ich sogar ein Video über ein Widget produziert habe. Und es gibt dort einen Grund, warum ich über ein Widget einen Artikel geschrieben und ein Video erzeugt habe. Meine Rolle in der Debatte um die Klimawissenschaft ist die eines Wissenschafts-Reporters für WUWT, der weltweit meistbesuchten Website zu globaler Erwärmung und Klimawandel. Ich bin kein Klimawissenschaftler wie Stefan Rahmstorf. Klimawissenschaftler sind damit betraut, wissenschaftliche Beweise für etwas zu liefern, was seinerzeit als die derzeit größte Bedrohung der Welt bezeichnet worden ist. So hoch auf der Prioritätenliste kann das aber nicht stehen, wenn jemand seine wertvolle Zeit damit zubringt, einen Blogbeitrag über ein Widget zu schreiben … und andere sich die Zeit nehmen, zu diesem Widget Kommentare bei RealClimate abzugeben.

Einige weitere Gedanken zum Beitrag von Stefan, bevor wir übernehmen:

Stefan schreibt in seinem ersten Absatz (Fettdruck von ihm):

Es ist besser, die Lufttemperatur an der Oberfläche zu plotten. Dass nämlich ist das, was für uns Menschen relevant ist: wir leben nicht hoch in der Troposphäre, ebenso wenig wie natürliche Ökosysteme. Und wir bauen dort auch nicht unsere Nahrungsmittel an…

Ich glaube, dass Stefan Rahmstorf dieses Statement bereuen wird, weil er wahrscheinlich jedes Mal daran erinnert wird, wenn er behaupten will, dass der ozeanische Wärmegehalt wichtig ist. (Stefan, wir leben nicht in einer Tiefe von 2000 Metern in den Ozeanen. Erinnern Sie sich daran, was Sie gesagt haben…)

Den gleichen Absatz beschließt er so:

…Verwenden wir also die jährliche Temperaturaufzeichnung GISTEMP vom NASA-Institut GISS (alle Daten von der Oberfläche stimmen besser als 0,1°C überein, siehe Vergleichsgraphik).

Unglücklicherweise für Stefan bestehen die Daten von GISS LOTI hauptsächlich aus Daten der Wassertemperatur an der Wasseroberfläche der Ozeane und nicht aus den „Lufttemperaturdaten über der Ozeanoberfläche“, welche unter der Bezeichnung Marine Air Temperature bekannt ist. Und die meisten von uns leben nicht auf dem Ozean … obwohl ich mir manchmal wünsche, dass ich es doch tue.

Man wird auch bemerken, dass Rahmstorf sehr viel Zeit damit zugebracht hat, auf eine ältere Version des WUWT-Widgets zu reagieren. Siehe Abbildung 3. Sie endet 2009.

Abbildung 3

Warum hat er sich nicht mit einem aktuelleres Widget befasst wie in Abbildung 4 gezeigt? Das überlasse ich der Spekulation.

Abbildung 4

Und jetzt kommt das wirklich Bizarre:

Der Beitrag auf RealClimate enthält einen Link zu einem WUWT-Beitrag vom Oktober 2009: New WUWT feature: World Climate Widget. Dieser einführende Beitrag auf WUWT erschien kurz vor Klimagate, als die Popularität von WUWT rasant zu steigen begann. Anthony musste das Widget auf Eis legen und hat es niemals wirklich hervorgehoben. Man kann sich durch die Kommentare zu dem Widgetbeitrag von WUWT wühlen (hier) oder die Suchfunktion bei WUWT nutzen um zu sehen, ob er sich Mühe gegeben hat, das Widget bekannt zu machen. Aber als er das WordPress-Thema bei WUWT um den 1. September zu „Das Problem-Thema“ geändert hatte (hier), schien das Widget von der Seitenleisten verschwunden zu sein. (Hat Stefan das übersehen?). Anthony hat also das Widget niemals vorangetrieben, und es hätte von der Seitenleiste vor drei Monaten verschwinden können, aber Stefan Rahmstorf nennt es „die populärste Mogel-Graphik“, womit er sie wiederbelebt. Ich glaube, dass Stefan dabei ist zu entdecken, dass das WUWT-Widget jetzt sehr viel populärer wird im Zuge seines Blogbeitrags. Ich habe den Verdacht, dass Anthony es jetzt voranbringen will – und ich habe ein paar Gründe, dies zu glauben.

Goggle-Trends zeigt, dass die Anzahl der Klicks auf den Blog „RealClimate“ weiterhin zurückgeht, während die Anzahl der Klicks auf „WUWT“ weiterhin steigt. Wie schlimm ist es für RealClimate inzwischen geworden? Siehe Abbildung 5. Gelegentlich schafft es sogar der Blog Hot Whopper, betrieben von dem ehemaligen WUWT-Troll SOU (Miriam O’Brien (hier), mit RealClimate gleichzuziehen.

Abbildung 5

Falls man bei RealClimate damit weitermacht, Blogbeiträge über WUWT-Widget zu schreiben und nachahmt, was Sou bei Hot Whopper macht – wer weiß, wie weit das Interesse an RealClimate noch sinken wird!

Schlussbemerkungen

Ich bin sicher, dass es eine Menge Spaß machen wird, über den restlichen Beitrag Rahmstorfs über ein Widget (hier) zu sprechen. Danach, wenn man mag, ziehe man bitte in Betracht, das WUWT-Widget seinem Blog hinzuzufügen. Das dauert nur ein paar Minuten. Anthony hat hier beschrieben, wie das geht. Ich habe das WUWT-Widget der Seitenleiste meines Blogs ClimateObservations hinzugefügt. Es ist für mich ein gutes Gefühl, dass es dort steht – wohl wissend, dass es gewisse Mitglieder des alarmistischen Flügels der klimawissenschaftlichen Gemeinschaft zwickt.

Stefan Rahmstorf (und die anderen bei RealClimate) andererseits dürften nicht allzu sehr beeindruckt gewesen sein hinsichtlich des von ihm angesprochenen Widgets. Bis zur Fertigstellung dieses Beitrags ist es nicht auf der Seitenleiste von RealClimate erschienen.

Link: http://wattsupwiththat.com/2014/12/10/absolutely-amazing-a-climate-scientist-writes-a-blog-post-about/

Übersetzt von Chris Frey EIKE




Über die schwer fassbare Absolute Globale Mittlere Temperatur – ein Vergleich von Daten mit Modellen

Selten werden Modelle und Vergleiche zwischen Modellen und Daten in absoluten Termen gezeigt. Dies wird mit diesem Beitrag nachgeholt, und zwar nach einer Diskussion der absoluten mittleren Oberflächen-Temperatur der Erde von den Datensammlern: GISS, NCDC und BEST. Danach wenden wir uns wieder den Anomalien zu.

Die folgenden Abbildungen und der größte Teil des Textes wurden für mein demnächst erscheinendes Buch aufbereitet. Ich habe die Nummerierung der Abbildungen für diesen Beitrag geändert und die Einführung umformuliert. Diese Präsentation zeigt eine total andere Perspektive bzgl. der Differenzen zwischen modellierten und gemessenen Werten der globalen mittleren Temperatur. Ich glaube, dass es Ihnen gefallen wird… anderen aber vielleicht nicht.

Vorab aus meinem demnächst erscheinenden Buch:

Die schwer fassbare absolute globale mittlere Temperatur und die Diskussion darüber beim GISS

Einige werden bereits den Ursprung dieser Kapitelüberschrift kennen. Sie stammt von der Surface Temperature Analysis Q&A-Website The Elusive Absolute Surface Air Temperature (SAT). Der einführende Text zu dieser Website lautet:

Die GISTEMP-Analyse betrifft ausschließlich Temperaturanomalien, nicht die absolute Temperatur. Temperaturanomalien sind berechnet relativ zur Referenzperiode 1951 bis 1980. Der Grund, eher Anomalien denn die absolute Temperatur zu betrachten ist, dass sich die absolute Temperatur auf kurze Distanzen markant ändert, während monatliche oder jährliche Temperaturanomalien repräsentativ für ein viel größeres Gebiet sind. Tatsächlich haben wir gezeigt (Hansen und Lebedeff 1987), dass Temperaturanomalien bis zu räumlichen Distanzen von 1000 km stark korrelieren.

Auf der Grundlage der Ergebnisse von Hansen und Lebedeff (1987) in der Studie Global trends of measured surface air temperature hat GISS einen Datensatz erzeugt, der Temperaturanomalien auf dem Festland an Stelle der Wassertemperatur setzte. Das heißt, GISS hat einfach die Festlands-Temperaturdaten auf die Ozeane ausgedehnt. Dann hat GISS jenen älteren Temperatur-Datensatz mit dem Land-Ozean-Temperaturindex ausgetauscht, welcher die Wassertemperatur für die meisten Ozeangebiete nutzt und als ihr primäres Produkt dient. Sie benutzen immer noch die 1200 km-Extrapolation, um Landgebiete und mit Meereis bedeckte Ozeangebiete, von wo keine Messdaten vorliegen, mit Daten zu füllen.

Aber zurück zur GISS Q&A-Website: Nach Beantwortung einiger Zwischenfragen schließt GISS mit (Fettdruck von mir):

Frage: Was mache ich, wenn ich absolute Temperaturwerte brauche und nicht Anomalien?

Antwort: In 99,9% aller Fälle wird man sehen, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturwerte. In den übrigen Fällen muss man sich eine der verfügbaren Klimatologien heraussuchen und die Anomalien hinzufügen (mit Rücksicht auf die geeignete Referenzperiode). Für das globale Mittel erzeugen die vertrauenswürdigsten Modelle einen Wert von etwa 14°C, aber er kann leicht auch zwischen etwa 13°C und 15°C liegen. Regional und vor allem lokal ist die Lage sogar noch schlechter.

Mit anderen Worten, GISS stellt sein Verständnis der globalen Temperaturen auf die Grundlage von Klimamodellen, besonders auf die „vertrauenswürdigsten Modelle“. Und sie sagen auf der Grundlage dieser „vertrauenswürdigsten“ Klimamodelle, dass die mittlere globale Temperatur während ihrer Referenzperiode von 1951 bis 1980 (deren Klimatologie) etwa 14°C +/- 0,6°C beträgt.

Der Wert von 14°C auf jener GISS-Website deckt sich mit dem Wert, der unten auf der GISS-Website Land-Surface Air Temperature Anomalies Only (Meteorological Station Data, dTs) gelistet ist. Die Werte dieser Website basieren auf Hansen und Lebedeff 1987. Unten auf der Website schreiben sie:

Die Best Estimate des absoluten globalen Mittels von 1951 bis 1980 beträgt 14,0°C. Man addiere dies also zu der Temperaturänderung, falls man eine absolute Skala benutzen möchte (diese Anmerkung bezieht sich ausschließlich auf globale jährliche Mittelwerte, J-D und D-N!)

Das ist die gleiche Adjustierung der absoluten globalen Temperatur, die GISS für seinen Land-Ozean-Temperaturindex fordert. Siehe hier auf der Website unten.

ANMERKUNG: Mancher könnte es seltsam finden, wenn GISS den gleichen Korrekturfaktor für beide Datensätze verwendet. Einer der GISS-Datensätze erstreckt sich über Lufttemperaturen entlang von Küsten und auf Inseln mit einem Umkreis von 1200 km, während der andere GISS-Datensatz (GISS LOTI) für die meisten globalen Ozeangebiete die Wassertemperatur verwendet. (Bei den LOTI-Daten ersetzt GISS die Daten der Wassertemperatur durch Daten der Temperatur auf dem Festland nur in den polaren Ozeanen, wo jemals Meereis lag). Falls wir annehmen, dass küstennahe Temperaturen und solche auf Inseln ähnlich der Lufttemperatur über marinen Gebieten sind, dann beträgt die Verzerrung höchstens 0,2°C, vielleicht etwas mehr. Die mittlere globale absolute ICOADS-Wassertemperatur der letzten 30 Jahre (1984 bis 2013) beträgt 19,5°C, während die absolute globale mittlere Lufttemperatur über Ozeanen 19,3°C beträgt. Der Grund für „vielleicht etwas mehr“ ist, dass Messungen der Wassertemperatur von Schiffen aus ebenfalls durch den „Wärmeinseleffekt“ beeinflusst sein können, und die ICOADS-Daten sind um diesen Wärmeinseleffekt nicht korrigiert worden. (Ende der Anmerkung).

Die NCDC-Schätzung ist ähnlich, obwohl sie anders hergeleitet worden ist

NCDC bietet ebenfalls eine Schätzung der absoluten globalen mittleren Temperatur. Siehe hier. Dort schreiben sie unter der Überschrift „globale Höhepunkte“ (Fettdruck von mir):

Das Jahr 2013 zieht mit 2003 als dem global wärmsten Jahr gleich seit Beginn von Aufzeichnungen im Jahre 1880. Die jährliche kombinierte Land- und Wassertemperatur lag um 0,62°C über dem Mittel des 20. Jahrhunderts von 13,9°C.

Und nicht rein zufällig stimmen diese 13,9°C von NCDC (aus Daten abgeleitet, wie wir gleich sehen werden) mit dem GISS-Wert von 14,0°C überein. Dies könnte zeigen, dass die „vertrauenswürdigsten Modelle“ nach GISS mit dem datenbasierten Wert getunt worden sind.

Die Quelle jener 13,9°C-Schätzung der globalen Temperatur wird auf den NOAA-Websites zu globalen Temperaturanomalien (hier) identifiziert, besonders unter der Überschrift von globalen langfristigen mittleren Land- und Wassertemperaturen (hier). Sie wurden im Jahre 2000 geschrieben, sind also 14 Jahre alt. Auch kann man auf der Website bemerken, dass die absoluten Temperatur-Mittelwerte für den Zeitraum 1880 bis 2000 gelten und dass NCDC die gleichen 13,9°C als Absolutwert für das 20. Jahrhundert verwendet. Das ist kein Problem, das ist Haarspalterei. Es gibt nur einen Unterschied von 0,03°C in den mittleren Anomalien dieser beiden Zeiträume.

Genau wie GISS beschreibt auch die NOAA Probleme bei der Abschätzung einer absoluten globalen Mitteltemperatur:

Absolute Schätzungen der globalen mittleren Temperatur sind aus einer Reihe von Gründen schwierig zu erstellen. Da es in einigen Gebieten der Welt nur sehr wenige Temperatur-Messstationen gibt (z. B. in der Sahara), muss über riesige, kaum mit Daten besetzte Gebiete interpoliert werden. Im Gebirge stammen die meisten Messungen aus Tälern, wo die Menschen leben, so dass man die Auswirkungen der Höhenlage auf das Mittel der Region berücksichtigen muss ebenso wie andere Faktoren, die die Oberflächen-Temperatur beeinflussen. Die Konsequenz ist, dass die unten stehenden Schätzungen immer noch Approximationen sind, die die inhärenten Hypothesen hinsichtlich Interpolation und Datenverarbeitung enthalten, obwohl sie als die besten derzeit verfügbaren Werte angesehen werden. Zeitreihen monatlicher Temperaturaufzeichnungen werden viel öfter als Abweichungen von einer Referenzperiode ausgedrückt (z. B. 1961 bis 1990, 1880 bis 2000), da diese Aufzeichnungen einfacher interpretiert werden können und man einige Probleme umgeht, die bei der Schätzung der absoluten Temperatur in großen Gebieten auftreten.

Es scheint, dass der NCDC-Wert auf Messdaten beruht, wenngleich es auch alte Daten sind, während der GISS-Wert für einen anderen Zeitraum und basierend auf Klimamodellen ähnlich ist. Das wollen wir jetzt mal in absoluten Zahlen vergleichen.

Vergleich von GISS- und NCDC-Daten in absoluter Form

Die globalen Land- und Wassertemperaturen von NCDC sind verfügbar, indem man auf den Link „Anomalies and Index Data“ klickt, der sich oben auf der NCDC-Website der Global Surface Temperature Anomalies befindet. Und die GISS LOTI-Daten sind hier verfügbar.

Verwendet man die oben beschriebenen Faktoren, zeigt Abbildung 2 die jährlichen mittleren globalen Temperaturen in absoluter Form von GISS und NCDC seit Beginn im Jahre 1880 bis zum jüngsten vollständigen Jahr 2013. Die GISS-Daten sind ein wenig wärmer als die NCDC-Daten, im Mittel etwa 0,065°C, aber alles in allem passen sie zusammen. Und das sollten sie auch. Sie verwenden den gleichen Wassertemperatur-Datensatz (ERSST.v3b der NOAA), und auch die meisten Daten der Festlandstemperatur sind die gleichen (aus der GHCN-Datenbasis der NOAA). GISS und NCDC füllen einfach Datenlücken unterschiedlich (das gilt vor allem für die Arktis und die Südlichen Ozeane), und GISS verwendet ein paar Datensätze mehr in Gebieten, wo GHCN nur sehr wenige Daten enthält.

Abbildung 2

Hinzu kommt der globale Land- und Wassertemperatur-Datensatz von BEST mit einem unterschiedlichen Faktor

Und das ist der BEST-Datensatz (Berkeley Earth Surface Temperature), also das Produkt von Berkeley Earth. Die ihren Festlands-Temperaturdaten zugrunde liegende Studie stammt von Rhode et al. (2013) mit dem Titel A New Estimate of the Average Earth Surface Land Temperature Spanning 1753 to 2011. Darin findet man, dass man die BEST-Festlandstemperaturen in absoluter Form illustriert hat.

Ihre Klimatologie (Referenztemperaturen für Anomalien) wurde in der Studie von Rhode et al. (2013) Berkeley Earth Temperature Process über Verfahren gezeigt. Sie enthielt auch diesen Anhang. Zum Thema Klimatologie schreiben Rhode et al. in dieser Studie:

Das globale Festlands-Mittel von 1900 bis 2000 beträgt 9,35°C ± 1.45°C, was im Ganzen konsistent ist mit der Schätzung von Peterson von 8,5°C. Diese große Unsicherheit bei der Normalisierung ist in den schattierten Bändern nicht enthalten, die wir in unsere Tavg-Plots gelegt haben, da sie nur die absolute Skala beeinflussen und nicht relative Vergleiche. Außerdem stammt vieles dieser Unsicherheit aus der Existenz von nur drei GHCN-Messpunkten im Inneren der Antarktis. Dies bringt den Algorithmus dazu, die absolute Normalisierung für große Gebiete der Antarktis als erzwungen zu betrachten. Vorangegangene Arbeiten mit vollständigeren Daten aus der Antarktis und von anderswoher zeigen, dass zusätzliche Daten diese Normalisierungs-Unsicherheiten um Größenordnungen reduzieren können, ohne den zugrunde liegenden Algorithmus zu ändern. Der Analyseprozess von Berkeley Average ist irgendwie einmalig dahingehend, dass eine globale Klimatologie und eine Schätzung der globalen mittleren Temperatur als Teil seiner natürlichen Operationen erzeugt wird.

Interessant, dass der Mittelungsprozess der Berkeley-Temperatur sie mit einer Schätzung der globalen mittleren Festlandstemperatur in absoluter Form ausstattet, während es GISS und NCDC schwierig finden, hierzu eine Schätzung zu finden.

Der Bezug auf Peterson in obigem Zitat von Rhode et al. geht zurück auf die Studie Observed Changes in Surface Atmospheric Energy over Land von Peterson et al. (2011). Der Wert von 8,5°C von Peterson et al. als absolute Lufttemperatur auf dem Festland ist der gleiche Wert, der in der Tabelle unter der Überschrift Global Long-term Mean Land and Sea Surface Temperatures auf den Websites von NOAA Global Surface Temperature Anomalies gelistet ist.

Berkeley Earth hat auch Daten veröffentlicht für zwei globale Festlands- + Ozean-Temperaturprodukte. Die Existenz von Meereis ist der Grund für zwei. Lufttemperatur-Produkte für das Festland enthalten keine mit Meereis bedeckten Ozeanflächen, und Wassertemperaturen enthalten keine Lufttemperaturen über polarem Meereis, falls und wo es existiert. Von den 361,9 Millionen km² Gesamtfläche der globalen Ozeane bedeckt polares Meereis im Mittel nur 18,1 Millionen km² jährlich im Zeitraum von 2000 bis 2013. Während polares Meereis nur etwa 5% der Oberfläche der globalen Ozeane und nur etwa 3,5% der gesamten Erdoberfläche überdeckt, bemüht sich die klimawissenschaftliche Gemeinschaft, dort die Lufttemperatur zu bestimmen. Das gilt vor allem für die Arktis, wo der natürlich auftretende Prozess polarer Verstärkung dafür sorgt, dass die Arktis mit verstärkten Erwärmungsraten aufwartet, wenn sich die Nordhemisphäre erwärmt (und sich entsprechend mit erhöhten Raten abkühlt in Perioden einer nordhemisphärischen Abkühlung).

(Siehe auch die Beiträge Notes On Polar Amplification und Polar Amplification: Observations versus IPCC Climate Models.)

Während ich dies schreibe, ist keine stützende Studie für die BEST Land + Ozean-Temperaturdaten von der Website der Berkeley Earth Papers verfügbar, ebensowenig wie auf ihrer Poster-Website. Es gibt jedoch eine einführende Diskussion auf der BEST-Datensite für ihr kombiniertes Produkt. Die BEST Land- + Ozeandaten sind ihre Lufttemperaturen, die mit einer modifizierten Version der HadSST3-Wassertemperaturen zusammengeführt werden. Eingefügt haben sie das mit einer als Kriging bezeichneten Methode. (Siehe Kriging, geschrieben von Geoff Bohling vom Kansas Geological Survey.)

Die jährlichen Berkeley Land + Ozeantemperatur-Anomalien finden sich hier und ihre monatlichen Daten hier. Die Begründung für die Präsentation der beiden Land + Ozeanprodukte stützt meine Ausführungen oben. Berkeley Earth schreibt:

Zwei Versionen dieses Mittelwertes sind im Umlauf. Sie unterscheiden sich darin, wie sie mit mit Meereis bedeckten Stellen umgehen. In der ersten Version werden Temperaturanomalien bei vorhandenem Meereis extrapoliert aus Lufttemperatur-Anomalien über dem Festland. In der zweiten Version werden Temperaturanomalien bei vorhandenem Meereis extrapoliert aus Anomalien der Wassertemperatur (normalerweise gemessen in Gebieten mit offenem Wasser an der Peripherie des Meereises). Für die meisten Ozeangebiete gilt, dass die Wassertemperaturen ähnlich sind der Lufttemperatur unmittelbar darüber; allerdings können Lufttemperaturen über Meereis substantiell von der Wassertemperatur unter dem Eis abweichen. Die Lufttemperatur-Version dieses Mittelwertes zeigt größere Änderungen in jüngster Zeit, teils weil Änderungen der Wassertemperatur begrenzt sind durch den Gefrierpunkt von Meerwasser. Wir glauben, dass die Verwendung von Lufttemperaturen über Meereis eine natürlichere Beschreibung der Änderungen der Temperatur auf der Erde bietet.

Die Verwendung von Lufttemperaturen über Meereis kann eine realistischere Repräsentation der arktischen Temperaturen im Winter bieten, wenn das Meereis die Landmassen erreicht und wenn diese Landmassen schneebedeckt sind, so dass sie die gleichen Albedo-Werte aufweisen. Während der Sommermonate jedoch kann die Albedo von Meereis verglichen mit den Landmassen unterschiedlich sein (Schneeschmelze legt die Temperatursensoren der Umgebung frei und die Albedo von Landflächen unterscheidet sich von der über Meereis). Offenes Wasser separiert auch das Festland von Meereis an vielen Stellen, was das Problem noch komplizierter macht. Da gibt es keine einfachen Verfahren.

Berkeley Earth listet auch die geschätzten absoluten Lufttemperaturen während der Referenzperiode für beide Produkte:

Geschätzte globale Mittlere Temperatur I von Januar 1951 bis Dezember 1980:

* Unter Verwendung der Lufttemperatur über Meereis: 14,774 +/- 0,046

* Unter Verwendung der Wassertemperatur unter dem Meereis: 15,313 +/- 0,046

Die geschätzte absolute globale mittlere Temperatur unter Verwendung der Lufttemperatur über Meereis liegt um 0,5°C unter den Daten, für die sie die Wassertemperatur unter dem Meereis verwendeten. Die Modelle, die weiter unten in diesem Beitrag gezeigt werden, repräsentieren Lufttemperaturen, und darum werden wir die Berkeley-Daten nutzen, bei denen die Lufttemperatur über dem Meereis eingeht. Dies stimmt auch mit den Verfahren bei den GISS LOTI-Daten überein.

Der Wassertemperatur-Datensatz wird bei Berkeley Earth) HadSST3) nur in Form der Anomalien angeboten. Und ohne eine stützende Studie gibt es keine Dokumentation darüber, wie Berkeley Earth diese Anomaliewerte in absolute Werte konvertiert hat. Die Datenquellen ICOADS sowie die Daten von HadISST und ERSST.v3b werden in absoluter Form gezeigt, so dass einer davon wahrscheinlich als Referenz gedient hat.

Vergleich von BEST, GISS und NCDC-Daten in absoluter Form

Die Daten der jährlichen mittleren globalen Temperatur in absoluter Form seit dem Startjahr 1880 bis zum letzten vollständigen Jahr 2013 von BEST, GISS und NCDC zeigt Abbildung 3. Die BEST-Daten sind wärmer als die anderen beiden, aber wie zu erwarten war, verlaufen die Kurven ähnlich.

Abbildung 3

In Abbildung 4 habe ich den kältesten Datensatz (NCDC) vom wärmsten Datensatz (BEST) subtrahiert. Die Differenz wurde außerdem geglättet mit einem gleitenden 10-Jahres-Filter (rote Kurve). Die meiste Zeit liegen die BEST-Daten in absoluter Form um etwa 0,8°C über der NCDC-Schätzung. Die Spitzenabweichung, die etwa 1940 beginnt und um 1950 ihren Höhepunkt erreicht, sollte verursacht sein durch die Adjustierungen, die das UK Met.-Office an den HadSST3-Daten vorgenommen hat, die an die Daten von NOAA ERSST.v3b nicht angebracht worden sind (die sowohl von GISS als auch von NCDC verwendet werden). Über diese Adjustierungen werde ich später etwas schreiben. Ich habe den Verdacht, dass die geringere Differenz zu Beginn der Datenreihe auch damit zusammenhängt, wie die Wassertemperaturdaten behandelt worden sind, aber es gibt keine Möglichkeit, dazu sicher etwas zu sagen, solange man keinen Zugang zu den von BEST modifizierten HadSST3-Daten hat. Der jüngste Anstieg sollte verursacht sein durch die Differenz, wie die beiden Anbieter (BEST und NCDC) mit den Daten des Arktischen Ozeans umgehen. Berkeley Earth weitet die Lufttemperatur-Daten über dem Festland bis über die Ozeane aus, während NCDC Wassertemperaturen im Arktischen Ozean ausklammert, wenn dort Meereis schwimmt, und man dabei nicht landbasierte Daten auf die Gebiete über dem Eis ausweitet.

Abbildung 4

Und nun zu den Modellen.

CMIP5-Modellsimulationen der absoluten Lufttemperatur der Erde, beginnend im Jahre 1880

Wie wir schon oft besprochen haben, werden die Ergebnisse der im 5. IPCC-Zustandsbericht verwendeten Modelle im Climate Model Intercomparison Project Phase 5 archive gespeichert, und jene Ergebnisse sind öffentlich zugänglich und können in leicht handhabbaren Formaten durch den KNMI Climate Explorer heruntergeladen werden. Die Ergebnisse bzgl. der Lufttemperatur im KNMI Climate Explorer können eingesehen werden auf der Website der Monthly CMIP5 scenario runs und werden als „TAS“ bezeichnet.

Die Modellergebnisse beim KNMI Climate Explorer sind verfügbar für die historischen Antriebe mit Übergängen zu den unterschiedlichen zukünftigen RCP-Szenarien (Siehe das Kapitel Emissions-Szenarien). Für dieses Kapitel präsentieren wir das historische und das Worst-Case-Zukunftsszenario RCP8.5. Wir verwenden das Worst-Case-Szenario allein als Referenz dafür, wie hoch die Temperaturen den Modellen zufolge steigen könnten, falls die Treibhausgas-Emissionen so weitergehen wie für dieses Szenario projiziert. Die Verwendung des Worst-Case-Szenarios hat wenig Auswirkung auf die Vergleiche zwischen Modell und Daten von 1880 bis 2013. Man erinnere sich, die Zukunfts-Szenarien beginnen in den meisten Modellen nach 2005, bei anderen noch später, so dass es nur sehr kleine Unterschiede gibt zwischen den Modellergebnissen der verschiedenen Modell-Szenarien während der ersten paar Jahre. Außerdem habe ich für dieses Kapitel die Ergebnisse separat für alle individuellen Modelle und ihre Ensemble-Mitglieder heruntergeladen. Es gibt insgesamt 81 Ensemble-Mitglieder aus 39 Klimamodellen.

Anmerkung: Die Modellergebnisse liegen in absoluter Form in Grad Celsius vor (auch in K), so dass ich sie in keiner Weise adjustiert habe.

Damit im Hintergrund ist Abbildung 5 eine Spaghetti-Graphik, die die von CMIP5 archivierten Ergebnisse der Klimamodellsimulationen der globalen Lufttemperatur von 1880 bis 2100 zeigen, mit historischen und RCP8.5-Antrieben. Eine größere Version der Graphik mit einer Auflistung aller Ensemble-Mitglieder steht hier.

Abbildung 5

Wie auch immer der Wert der globalen mittleren Temperatur derzeit aussieht oder in Zukunft oder in der Vergangenheit – die im 5. IPCC-Zustandsbericht verwendeten Modelle haben ihn mit Sicherheit überholt.

Einige Leute könnten jetzt argumentieren wollen, dass absolute Temperaturwerte unwichtig sind – und dass wir uns wegen der Erwärmungsraten in Vergangenheit und Zukunft Sorgen machen. Wir können diesem Argument auf zwei Wegen begegnen: Erstens haben wir in den Kapiteln CMC-1 und CMC-2 schon gesehen, dass Klimamodelle sich sehr schwer tun mit der Simulation der Temperaturen von 1880 bis 1980 und von 1980 bis heute. Später werde ich die Modellfehler noch sehr viel detaillierter beschreiben. Zweitens, absolute Temperaturen sind aus einem anderen Grund wichtig. Natürliche und verstärkte Treibhauseffekte hängen von der Infrarotstrahlung ab, die von der Erdoberfläche emittiert wird, und die Menge der von unserem Planeten in den Weltraum abgestrahlten Infrarotstrahlung ist eine Funktion der absoluten Temperatur und nicht von Anomalien.

Wie oben in Abbildung 5 gezeigt, starten die Modelle bei einer absoluten globalen mittleren Temperatur, die zwischen fast 12,2°C bis etwa 14,0°C reichen. Aber mit den Ausreißern erweitert sich die Bandbreite auf Werte zwischen 12,0°C und 15,0°C. Die Bandbreite der modellierten absoluten globalen Mitteltemperatur ist einfacher zu erkennen, falls wir die Modellergebnisse mit 10-Jahres-Filtern glätten. Siehe Abbildung 6:

Abbildung 6

Wir könnten die Bandbreite durch die Entfernung der Ausreißer reduzieren, aber ein Problem beim Entfernen der Ausreißer ist, dass die warmen Ausreißer relativ dicht bei der jüngeren (besseren?) Berkeley-Earth-Schätzung der absoluten Temperatur der Erde liegen. Siehe Abbildung 7, in der ich zu den jährlichen, nicht den geglätteten, Ergebnissen zurückkehre.

Abbildung 7

Das andere Problem bei der Entfernung der Ausreißer ist, dass das IPCC eine politische Institution ist, nicht eine wissenschaftliche. Als Ergebnis verwendet diese politische Institution auch Modelle von Agenturen rund um den Globus, selbst solche, die noch schlechtere Ergebnisse liefern als die (schlechte Leistung der) anderen, was die Gruppe als Ganzes noch weiter hinabzieht.

Mit Berücksichtigung dieser beiden Dinge werden wir alles von den Modellen in dieser Präsentation beibehalten, selbst die offensichtlichsten Ausreißer.

Schaut man noch einmal auf die große Bandbreite der Modellsimulationen der globalen mittleren Temperaturen in Abbildung 5, scheint es eine Spanne von mindestens 3°C zwischen den kältesten und den wärmsten zu geben. Das wollen wir mal festklopfen.

In Abbildung 8 habe ich die kältesten modellierten Temperaturen von den wärmsten modellierten Temperaturen in jedem Jahr subtrahiert, von 1800 bis 2100. Im größten Teil des Zeitraumes zwischen 1880 und 2030 ist die Spanne zwischen den kältesten und den wärmsten modellierten Temperaturen größer als 3°C.

Abbildung 8

Diese Spanne hilft, etwas hervorzuheben, dass wir schon ein paarmal angesprochen haben: Der Gebrauch von Modell-Mittelwerten aus den multimodellierten Ensemble-Mitgliedern, das Mittel aller Läufe aller Klimamodelle. Es gibt nur eine globale mittlere Temperatur, und deren Schätzungen variieren. Es gibt offensichtlich bessere und schlechtere Simulationen davon, wo auch immer der Wert liegt. Gibt uns die Mittelung der Modellergebnisse eine gute Antwort? Nein.

Aber der Mittelwert, das Mittel aller Modelle, gibt uns tatsächlich etwas von Wert. Er zeigt uns den Konsens, das Gruppendenken, hinter den modellierten globalen mittleren Temperaturen und wie diese Temperaturen variieren würden, falls (großes falls) sie auf die Antriebe reagieren würden, die die Klimamodelle treiben. Und wie wir sehen werden, die gemessenen Temperaturen reagieren nicht auf die von den Modellen simulierten Antriebe.

Vergleich Modell mit Daten

Infolge der Unterschiede zwischen den neueren (BEST) und den älteren (GISS und NCDC) Schätzungen der absoluten globalen Mitteltemperatur, werden sie separat präsentiert. Und weil die GISS- und NCDC-Daten so ähnlich sind, verwenden wir deren Mittelwert. Außerdem werden wir für die Vergleiche nicht alle der Ensemble-Mitglieder als Spaghetti-Graphik präsentieren. Wir zeigen das Maximum, den Mittelwert und das Minimum.

Mit diesen Festlegungen werden in Abbildung 9 das Mittel der Schätzungen der absoluten globalen Mitteltemperatur aus GISS und NCDC mit den Maxima, Minima und Mittelwerten der modellierten Temperaturen verglichen. Der Modellmittelwert liegt ausreichend nahe bei den GISS- und NCDC-Schätzungen der absoluten globalen Mitteltemperaturen, wobei das Modell im Mittel etwa 0,37°C niedriger liegt als die Daten im Zeitraum von 1880 bis 2013.

Abbildung 9

Abbildung 10 zeigt die BEST-Schätzung (neuer = besser?) der absoluten globalen Mitteltemperaturen von 1880 bis 2013 im Vergleich zu Maximum, Minimum und Mittelwert der modellierten Temperaturen. In diesem Falle liegt die BEST-Schätzung näher am Maximum und weiter vom Modellmittel entfernt als bei den Schätzungen von GISS und NCDC. Das Modellmittel liegt etwa 1,14°C niedriger als die BEST-Schätzung für den Zeitraum 1880 bis 2013.

Abbildung10

Differenz zwischen Modell und Daten

In den nächsten beiden Graphiken werden wir die datenbasierten Schätzungen der absoluten globalen Mitteltemperaturen der Erde vom Mittelwert der CMIP5-Modellsimulationen subtrahieren. Man beachte dies bei der Betrachtung der folgenden beiden Graphiken: Falls das Modellmittel die dekadischen und multidekadischen Variationen der Temperatur auf der Erde angemessen simuliert und einfach nur die Marke des absoluten Wertes verfehlt worden ist, wäre der Unterschied zwischen den Modellen und den Daten eine gerade horizontale Linie, bestimmt durch die Differenz.

Abbildung 11 zeigt die Differenz zwischen dem Modellmittel der Temperatursimulationen und das Mittel der Schätzungen von GISS und NCDC, wobei die Daten von den Modellwerten subtrahiert worden sind. Bei der folgenden Diskussion dreht es sich um das 10-Jahres-Mittel, das in rot ebenfalls eingezeichnet ist.

Abbildung 11

Der größte Unterschied zwischen Modellen und Daten tritt in den achtziger Jahren des 19. Jahrhunderts auf. Der Unterschied verringert sich drastisch während der folgenden rund 30 Jahre. Grund: Die Modelle simulieren nicht angemessen die zu jener Zeit stattgefunden habende Abkühlung. Die Differenz zwischen Modell und Daten nimmt dann von 1910 bis 1940 wieder zu. Dies zeigt, dass die Modelle nicht nur die Abkühlung zuvor, sondern auch die Erwärmung von 1910 bis 1940 nicht angemessen simulieren konnten. Der Unterschied durchläuft einen Zyklus bis zu den neunziger Jahren, wobei der Unterschied graduell wieder zunimmt. Und von den neunziger Jahren bis heute hat der Unterschied wegen des Stillstands zum geringsten Wert seit 1880 abgenommen.

Abbildung 12 zeigt den Unterschied zwischen der BEST-Schätzung der Temperatur und das Modellmittel der Simulationen. Die Kurve verläuft ähnlich der in Abbildung 11 bzgl. der GISS- und NCDC-Daten. Die BEST-Daten der globalen Temperatur zeigen weniger Abkühlung von 1880 bis 1910, und als Folge ist der Unterschied nicht so groß zwischen Modellen und Daten. Aber es gibt immer noch eine starke Zunahme der Differenz von 1910 bis etwa 1940 mit dem Scheitern der Modelle bei der angemessenen Simulation der damals eingetretenen Erwärmung. Und natürlich hat auch hier der jüngste Stillstand zu einer weiteren Abnahme der Temperaturdifferenz geführt.

Abbildung 12

Zusammenfassung dieses Kapitels

Es gibt eine Spanne von etwa 0,8°C bei den Schätzungen der absoluten globalen Mitteltemperatur, wobei die wärmere Schätzung von der neueren Schätzung stammt auf der Grundlage einer aktuelleren Datenbasis der globalen Temperatur. Mit anderen Worten, die BEST-Schätzung scheint wahrscheinlicher zu sein als die GISS- und NCDC-Werte.

Die Klimamodellsimulationen der absoluten globalen Temperaturen zeigen eine viel größere Spanne, die von 1880 bis 2013 im Mittel bei etwa 3,15°C liegt. Um das in die richtige Perspektive zu rücken, haben Politiker vorgeschlagen, dass wir die Erwärmung der globalen Temperatur auf 2,0°C begrenzen. Ein anderer Weg, jene 3,15°C Modellspanne in die richtige Perspektive zu setzen: Man betrachte, dass das IPCC in seinem 4. Zustandsbericht im Grunde behauptet hat, dass die gesamte Erwärmung von 1975 bis 2005 anthropogenen Treibhausgasen geschuldet ist. Diese Behauptung basierte auf Klimamodellen, die die natürliche Variabilität nicht angemessen simulieren können. Also war die Behauptung bedeutungslos. Unabhängig davon, die globalen Temperaturen sind zwischen 1975 und 2005 nur um etwa 0,55°C gestiegen, basierend auf dem Mittel der linearen Trends in den Daten von BEST, GISS und NCDC.

Und der Unterschied zwischen der modellierten und der gemessenen absoluten globalen mittleren Temperatur war nur ein anderer Weg zu zeigen, wie schlecht die globalen Temperaturen von den jüngsten und größten Klimamodellen simuliert werden können, die das IPCC in seinem 5. Zustandsbericht herangezogen hat.

ABER

Manchmal können wir etwas anderes erkennen, wenn wir Daten als Anomalien zeigen. In den Abbildungen 13 und 14 habe ich die Differenzen zwischen Modellen und Daten ersetzt durch ihre jeweiligen Mittelwerte von 1880 bis 2013. Das konvertiert die absoluten Differenzen in Anomalien. Wir verwenden die Gesamtmenge der Daten als eine Referenz um sicherzustellen, dass wir die Ergebnisse nicht verzerren durch die Wahl des Zeitraumes. Mit anderen Worten, niemand kann sich darüber beschweren, dass wir hinsichtlich der Referenzjahre Rosinenpickerei betrieben haben. Die Konzentration auf 10-Jahres-Mittel (rote Kurven) hilft, die Auswirkungen des gegenwärtigen Stillstands in die richtige Perspektive zu setzen.

Man behalte im Hinterkopf: Falls die Modelle die dekadischen und multidekadischen Variationen der Temperaturen der Erde angemessen simulieren würden, wäre die Differenz eine flache Linie, und in den folgenden beiden Fällen würde jene flache Linie bei der Null-Anomalie liegen.

Für die Mittelwerte der GISS und NCDC-Daten: Abbildung 13 zeigt, dass die Divergenz zwischen Modellen und Daten heute wegen des derzeitigen Stillstands die größte (und schlimmste) ist seit etwa 1890 ist.

Abbildung 13

Und betrachtet man die Differenz zwischen den Modellsimulationen der globalen mittleren Temperatur und der BEST-Daten, ist das Modellverhalten wegen des Stillstands das schlechteste jemals während der jüngsten 10-Jahres-Periode, seit man globale Temperaturen simuliert, wie Abbildung 14 zeigt.

Abbildung 14

Falls man al zu Abbildung 7 zurückgeht, erkennt man, dass es eine kleine Untermenge von Modellläufen gibt, die der Berkeley Earth-Schätzung der absoluten globalen Mitteltemperatur zugrunde liegt. Sie liegen so dicht beieinander, dass es sehr wahrscheinlich so aussieht, als wären jene Modelle am jene Temperaturen angepasst worden.

Nun dachte ich mir, dass man daran interessiert sein könnte zu wissen, um welche Modelle es sich handelt. Siehe Abbildung 15. Sie sind 3 Ensemble-Mitglieder des MIROC5-Modells von der International Centre for Earth Simulation (ICES Foundation) und die 3 Ensemble-Mitglieder des GISS ModelE2 with Russell Ocean (GISS-E2-R).

Abbildung 15

Das heißt nicht, dass die Modelle MIROC5 und GISS-E2-R besser sind als irgendwelche anderen Modelle. So weit ich weiß, können auch diese Modelle wie alle anderen immer noch nicht die gekoppelten Ozean-Atmosphäre-Prozesse simulieren, die dazu führen können, dass sich die globalen Temperaturen über multidekadische Zeiträume erwärmen oder diese Erwärmung zum Stillstand bringen können wie die AMO und ENSO. Wie oben schon erwähnt, dass sie näher an der aktualisierten Schätzung der absoluten Temperatur der Erde liegen, zeigt einfach, dass jene Modelle dahingehend getunt worden sind. Vielleicht sollte man beim GISS in Betracht ziehen, ihre Schätzung von 14,0°C als absolute globale Temperatur für ihre Basisperiode zu aktualisieren.

Wir haben die vielfältigen Fehlleistungen der Modelle während der letzten Jahre gezeigt. Unter den besprochenen Themen waren:

* Global Precipitation

* Satellite-Era Sea Surface Temperatures

* Global Surface Temperatures (Land+Ocean) Since 1880

* Global Land Precipitation & Global Ocean Precipitation

Alle Beiträge waren auch bei WattsUpWithThat gepostet.

Link: http://wattsupwiththat.com/2014/11/10/on-the-elusive-absolute-global-mean-surface-temperature-a-model-data-comparison/

Übersetzt von Chris Frey EIKE




Endlich ein wenig Realität von RealClimate – aber unglücklicherweise blieben sie bei Einigem irreal

Dieser Beitrag durch den Begründer von RealClimate Stefan Rahmstorf war eine Erwiderung auf den im Journal Nature veröffentlichten Kommentar „Climate policy: Ditch the 2 °C warming goal“ von Victor und Fennel (2014). Konfrontiert mit den Realitäten einer immer langsameren Zunahme der Temperatur brachten Victor und Fennel eine Anzahl anderer Komplexe ins Spiel einschließlich des ozeanischen Wärmegehaltes.

Ich bin mir nicht sicher, ob Rahmstorf wusste, was er da tat. Sein Beitrag auf RealClimate wird viele Jahre lang enthusiastisch von Skeptikern verwendet werden. Rahmstorfs Beitrag wird immer dann fröhliche Urständ‘ feiern, wenn Alarmisten wie die bei SkepticalScience versuchen, einen fortgesetzten Anstieg des ozeanischen Wärmegehaltes als Grund für die fortgesetzte Divergenz zwischen Klimamodellen und Temperatur anzuführen. Beispiel: Der Beitrag What has global warming done since 1998? bei SkepticalScience kann jetzt getrost verworfen werden.

Weil der Beitrag von Stefan Rahmstorf wichtig ist, habe ich ihn hier archiviert.

1.) Falls man einmal durch die Kommentare bei RealClimate geht, wird man einige wenige von Roger Pielke Jr. finden. Pielke Sr. hat seit Jahren argumentiert, dass der ozeanische Wärmegehalt der ideale Komplex zur Messung der globalen Erwärmung ist. Ich stimme dem zu… der ozeanische Wärmegehalt wäre die auszuwählende Größe, FALLS (großes falls) es die Absicht ist zu quantifizieren, wie viel Wärme tatsächlich in den Ozeanen gespeichert wird und dann diese Beobachtungen zu vergleichen mit der Theorie und den Ergebnissen der Klimamodelle. Aber hier handelt es sich nicht um eine Diskussion über die globale Erwärmung, damit die Wissenschaftler die Fehler in den Klimamodellen dingfest machen können. Hier geht es um eine Diskussion um Größen, die für politische Entscheidungen wertvoll sind und die natürlich die große Hypothese befeuern, die die Politik braucht, um die Erwärmung zu bekämpfen, was Viele in Frage stellen.

Wir leben auf der Oberfläche. Daher ist die Erwärmung der Oberfläche oder das Fehlen derselben die maßgebliche Größe. Lufttemperaturen auf dem Festland imitieren und übertreiben die Temperatur über den Ozeanen, nicht in den Tiefen der Ozeane. Die Verdunstung an der Ozean-Oberfläche ist die große Hauptquelle von Feuchtigkeit in der Atmosphäre, und die Verdunstung findet an der Wasseroberfläche statt und nicht in den Tiefen der Ozeane.

2.) Ja, der Wärmegehalt der Ozeane beeinflusst wirklich die Rate des Meeresspiegel-Anstiegs, aber selbst dieser Einfluss ist minimal. Levitus et al (2012) zufolge beläuft sich der Trend der thermisch bedingten Volumenänderung beim Anstieg des Meeresspiegels auf nur 0,54 mmpro Jahr für die Tiefen zwischen 0 und 2000 Metern im Zeitraum 1955 bis 2010. Und noch einmal, falls der Meeresspiegel auf das Niveau steigen sollte, dass er während der letzten Zwischeneiszeit eingenommen hat, läge der Meeresspiegel heute 6 bis 9 Meter über dem heutigen Niveau. Siehe dazu auch Kopp et al. (2013) Probabilistic assessment of sea level variations during the last interglacial stage, und Dutton & Lambeck (2012) Ice volume and sea level during the last interglacial.

Keine Politik bzgl. Kohlendioxid wird den Landeinwärts-Marsch [inland march, ?] der Ozeane aufhalten.

Eine Erwärmung der Ozeane um 250000000000000000000000 Joule „würde im Wesentlichen Null Einfluss“ auf die Oberfläche haben, auf der wir leben.

Wir haben in zahlreichen Beiträgen die vertikal zwischen 0 und 2000 m Tiefe gemittelten Temperaturdaten vom NODC präsentiert und diskutiert. Wir haben besprochen, wie die Daten des ozeanischen Wärmegehaltes mit einem sehr ausdrucksvollen Term (1022 Joule) beschrieben werden. Aber mit uns vertrauteren Termen zur Beschreibung der Temperatur wird die Erwärmung lediglich in Hundertstel Grad Celsius ausgedrückt. In dem Beitrag Rough Estimate of the Annual Changes in Ocean Temperatures from 700 to 2000 Meters Based on NODC Data haben wir sogar die Erwärmung an der Oberfläche gezeigt bis zu einer Tiefe von 700 Metern, zusammen mit einer groben Schätzung der Verhältnisse in den Tiefen zwischen 700 und 2000 Metern. Siehe Abbildung 1, also der Abbildung 3 aus dem o. g. Beitrag:

Abbildung 1

Unter der Überschrift „2. Der ozeanische Wärmegehalt hat keine direkte Beziehung zu irgendwelchen Auswirkungen“ schreibt Stefan Rahmstorf (Fettdruck von mir, Tisdale):

Der ozeanische Wärmegehalt hat um etwa 2,5 X 10↑23 Joule seit 1970 zugenommen (IPCC AR5). Welche Auswirkungen könnte dies haben? Die Antwort lautet: Das hängt davon ab. Falls diese Wärme völlig gleichmäßig im gesamten Ozean verteilt wäre, wäre die Wassertemperatur um weniger als 0,05°C gestiegen (globale Ozean-Masse 1,4 X 10↑21 kg; Wärmekapazität 4 J/gK). Diese geringe Erwärmung hätte im Wesentlichen Null Auswirkungen.

Das heißt, ist die hypothetische Wärme der vom Menschen verursachten globalen Erwärmung erst einmal von den Ozeanen absorbiert, ist sie für Landbewohner nicht mehr von Belang. Skeptiker sagen dies schon seit Jahren. Die Zufuhr „geringer Erwärmung“ in den Tiefen der Ozeane erzeugt eine geringe Hintergrund-Erwärmung, die im Wesentlichen „Null Auswirkung“ auf dem Festland hat.

Aber die Ozeanoberfläche erwärmt sich mit einer viel höheren Rate

Unter dieser Überschrift schreibt Stefan Rahmstorf (Fettdruck von mir, Tisdale):

Der einzige Grund, warum die Wärmeaufnahme der Ozeane einen Einfluss hat, ist die Tatsache, dass sich dies in hohem Maße an der Oberfläche konzentriert, wo die Erwärmung daher sichtbar ist (siehe Abbildung 1). Hinsichtlich Auswirkungen ist also das Problem die Erwärmung der Oberfläche – welche viel besser beschrieben wird durch Messungen der Wassertemperatur an der Oberfläche als mit dem ozeanischen Gesamt-Wärmeinhalt. Die Erwärmung der Oberfläche steht nicht in einfacher Beziehung zur Gesamt-Wärmeaufnahme, weil diese Verbindung durch Meeresströme und Änderungen der Durchmischung gestört wird. (Übrigens, dies gilt auch für den Meeresspiegel-Anstieg infolge thermischer Ausdehnung, weil der Koeffizient der thermischen Ausdehnung bei warmem Oberflächenwasser viele Male größer ist als bei den kalten Tiefenwassern – erneut ist es die Erwärmung an der Oberfläche, die zählt, während uns der ozeanische Gesamt-Wärmeinhalt wenig über die Stärke des Meeresspiegel-Anstiegs sagt).

(Hinweis an Stefan Rahmstorf: In Ihrer Abbildung 1 geht es nicht um die Oberflächen-Erwärmung!)

Aber was Stefan Rahmstorf nicht erwähnt, ist die Tatsache, dass die Ozean-Oberflächen nicht kooperieren mit den vom IPCC im 5. Zustandsbericht verwendeten Klimamodellen. Während der letzten über drei Jahrzehnte hat sich die Ozeanoberfläche mit einer Rate erwärmt, die nur etwa halb so groß ist wie die von den Klimamodellen simulierte. Siehe Abbildung 2:

Abbildung 2

Diese Abbildung war als Abbildung 3 enthalten in dem Beitrag On The Recent Record-High Global Sea Surface Temperatures – The Wheres and Whys.

Nicht rein zufällig… die gemessene Ozean-Erwärmung in der Tiefe ist nur etwas halb so groß wie von den Klimamodellen vorhergesagt. Das heißt, es gibt immer noch eine große Menge fehlender hypothetischer Wärme. Vielleicht sind die Rückkopplungen, die die zusätzliche hypothetische Wärme der Ozeane in den Klimamodellen treiben, doch nicht so positiv wie die Klimawissenschaftler glauben. Es wird jedoch noch Jahrzehnte dauern, bis die klimawissenschaftliche Gemeinde diesen Tatbestand einräumen wird.

Probleme bei der Messung des ozeanischen Wärmegehaltes … und die Wassertemperatur der Ozeane unterhalb der Oberfläche

Wir haben die Probleme mit den Daten des ozeanischen Wärmegehaltes und mit den Referenzmessungen der Temperatur unter der Wasseroberfläche in zahlreichen Beiträgen während der letzten Jahre aufgedeckt. Beispielhaft seien hier genannt:

Is Ocean Heat Content Data All It’s Stacked Up to Be?

AMAZING: The IPCC May Have Provided Realistic Presentations of Ocean Heat Content Source Data

Und es gibt zusätzliche Beiträge unter der Kategorie Ocean Heat Content Problems.

Unter der Überschrift „3.) Ozeanischer Wärmegehalt ist schwierig zu messen“ schreibt Stefan Rahmstorf weiter in seinem Beitrag:

Grund hierfür ist, dass man kleine Temperaturänderungen über ein riesiges Volumen messen muss, die viel kleiner sind als Änderungen an der Wasseroberfläche. Schätzungen des ozeanischen Wärmegehaltes haben eine Reihe von Begutachtungen durchlaufen, Instrumenten-Kalibrierungen usw. Falls wir um nur 0,05°C systematisch falsch liegen im gesamten Ozean infolge des Abdriftens von Instrumenten, wäre der Fehler größer als die gesamte Wärmeaufnahme der Ozeane seit 1970. Falls die Oberflächen-Messungen systematisch um 0,05°C abweichen würden, wäre dies eine vernachlässigbare Korrektur im Vergleich zu der seit 1950 beobachteten Erwärmung um 0,7°C.

Danke, Stefan!

Unter dem Strich

Wie wir schon seit Jahren sagen, die Daten des ozeanischen Wärmegehaltes (und die Temperaturmessungen bis in die Tiefe der Ozeane, auf denen sie basieren), sind ein problematischer Datensatz. Selbst während der ARGO-Ära. Siehe den Artikel von Paul Voosen vom Oktober 2011 mit dem Titel Provoked scientists try to explain lag in global warming. Er enthält Zitate von einer Handvoll sehr bekannter Klimawissenschaftler – einschließlich Kevin Trenberth. Voosen sagte zu Trenberths Meinung über ARGO Folgendes:

Trenberth stellt in Frage, ob die ARGO-Messungen ausgereift genug sind, um so deutliche Aussagen machen zu können, wie Hansen es tut. Er hat viele Diskrepanzen gesehen unter den Analysen der Daten, und immer noch gibt es „Probleme hinsichtlich fehlender und falscher Daten und Kalibrierung“, sagte er. Die ARGO-Bojen sind wertvoll, fügte er hinzu, aber „sie sind noch nicht da“.

Und sie stützen nach wie vor nicht die hypothetische, vom Menschen verursachte globale Erwärmung. In einem offenen Brief an Kevin Trenberth – NCAR (hier) habe ich eine aktualisierte Graphik der vertikalen mittleren Temperatur-Anomaliedaten von NODC für den Indischen, den Pazifischen, den Nord- und Südatlantischen Ozean präsentiert, und zwar in Tiefen zwischen 0 und 2000 Metern aufgrund der ARGO-Messungen (die 2003 begonnen haben). Siehe Abbildung 3 unten (= Abbildung 5 im verlinkten Beitrag). Der flache Verlauf des Trends im Pazifik zeigt, dass es keinen substantiellen Anstieg der Wassertemperatur unterhalb der Oberfläche des Pazifiks gegeben hat, und zwar bis zu einer Tiefe von 2000 Metern während der letzten 11 Jahre. Im Nordatlantik war es genauso. Anthropogene Treibhausgase können die Erwärmung im Südatlantik und dem Indischen Ozean nicht erklären, wenn sie offensichtlich keinerlei Einfluss auf die Erwärmung des Nordatlantiks und des Pazifiks bis zu 2000 Metern während der letzten 11 Jahre hatten.

Abbildung 3

Sind sie neu bei den Diskussionen zur Erwärmung der Ozeane?

Seit nunmehr fast 6 Jahren habe ich gezeigt, wie die Daten des ozeanischen Wärmegehaltes und die Daten aus der Satelliten-Ära belegen, dass natürlich auftretende gekoppelte Ozean-Atmosphäre-Prozesse verantwortlich waren für deren Erwärmung. Siehe den illustrierten Essay The Manmade Global Warming Challenge (42mb). Er ist gratis. Und lassen Sie sich nicht von den „ natürlich auftretenden gekoppelten Ozean-Atmosphäre-Prozessen“ ängstigen. Sie sind nicht schwer zu verstehen.

Link: http://wattsupwiththat.com/2014/10/23/finally-some-reality-from-realclimate-but-unfortunately-they-remained-unreal-about-some-things/

Übersetzt von Chris Frey EIKE




ARGO: Große Bandbreite von Erwärmungs- (und Abkühlungs-)Raten der Ozeane bis zu einer Tiefe von 2000 Metern

Bemerkung: KNMI hat ihrem Climate Explorer auch die Daten des ozeanischen Wärmegehaltes der Japanese Meteorological Agency (JMA) hinzugefügt für Tiefen von 0 bis 700 Metern. Wir werden sie in einem späteren Beitrag mit den NODC-Daten vergleichen.

In diesem Beitrag wollen wir einen kurzen Blick auf die vertikal gemittelte Temperaturanomalie von 0 bis 2000 Metern werfen. Das ist der Zeitraum, in dem Temperaturmessungen unter der Wasseroberfläche mit ARGO-Bojen durchgeführt worden sind, welche eine einigermaßen vollständige Übersicht der Ozeantemperatur von 0 bis 2000 Metern vermittelt. Die anderen Tiefenbereiche werden wir in späteren Beiträgen beleuchten.

Vorbemerkung

Das NODC präsentiert seine Daten auf vierteljährlicher Basis. KNMI hat diese in monatliche Daten konvertiert, indem die vierteljährlichen Werte jedem der jeweiligen Monate zugeordnet wurden. Als Folge zeigen die monatlichen Daten einen stufenartigen Verlauf mit vielen kleinen Plateaus. Wir könnten diese Daten mit 3-Monats-Filtern glätten, um diese kleinen Stufen zu eliminieren, aber in diesem Beitrag würde das kaum etwas bringen, weil wir vor allem Erwärmungs- (und Abkühlungs-)Raten betrachten.

Globale hemisphärische Erwärmungsraten

Abbildung 1 zeigt die vertikal gemittelten NODC-Temperaturanomalien für Tiefen zwischen 0 und 2000 Metern vom 1. Quartal 2005 bis zum 2. Quartal 2014. Seit dem 1. Quartal 2005 haben sich die Ozeane der südlichen Hemisphäre in Tiefen zwischen 0 und 2000 Metern mit einer Rate von etwa +0,05°C pro Dekade erwärmt, basierend auf dem linearen Trend. Andererseits ist der lineare Trend der nördlichen Hemisphäre bemerkenswert geringer, erfolgt doch die Erwärmung nur mit etwa 10% der Rate auf der Südhemisphäre. Dies ist ein ziemlicher Unterschied in einer Welt, wo anthropogene Treibhausgase vermeintlich für die Erwärmung verantwortlich sind und in der man sagt, dass anthropogene Treibhausgase gut durchmischt sind.

Abbildung 1

Vergleich der Ozeanbecken

Ich habe die Ozeanbecken in Teildatensätze aufgeteilt, und zwar mit den gleichen Koordinaten, die ich für die Aktualisierungen der Wasser-Oberflächentemperatur verwendet habe (hier):

● Arktischer Ozean (65N-90N)

● Nordatlantik (0-70N, 80W-0)

● Nordpazifik (0-65N, 100E-90W)

● Indischer Ozean (60S-30N, 20E-120E)

● Südatlantik (60S-0, 70W-20E)

● Südpazifik (60S-0, 120E-70W)

● Südlicher Ozean (um die Antarktis) (90S-60S)

Abbildung 2

Den Arktischen Ozean habe ich aus Abbildung 3 entfernt. Wie man sieht, gibt es eine große Bandbreite von Erwärmungsraten für alle anderen Ozeanbecken bis zu einer Tiefe von 2000 Metern. Im Indischen Ozean wurde die stärkste Erwärmung der ARGO-Ära verzeichnet, die mehr als doppelt so hoch liegt wie die Erwärmungsraten des Südatlantiks und des Südpazifiks und etwa dreimal so hoch wie die Rate im Nordatlantik. Und doch, in Tiefen zwischen 0 und 2000 Metern zeigen der Nordpazifik und der Südliche Ozean um die Antarktis praktisch keine Erwärmung im vorigen Jahrzehnt.

Abbildung 3

Welche Breiten haben sich erwärmt, welche haben sich abgekühlt?

Abbildung 4 zeigt die Erwärmungs- und Abkühlungsraten (°C pro Dekade) der globalen Ozeane auf der Basis zonaler Mittelwerte in verschiedenen Breiten. Die vertikale Y-Achse ist in °C skaliert. Die horizontale X-Achse ist nach Breitengraden skaliert, wobei der Südpol links (bei -90 oder 90 S) liegt, der Nordpol rechts bei +90 (oder 90 N) und der Äquator in der Mitte bei Null Grad Breite.

Abbildung 4

Während der ARGO-Ära zeigte sich die größte Erwärmung in Tiefen bis 2000 Metern in den niedrigen mittleren Breiten der Nordhemisphäre und den mittleren Breiten der Südhemisphäre. Die stärkste Abkühlung ereignete sich in den mittleren und hohen Breiten der Nordhemisphäre und im Südlichen Ozean. Man beachte auch, dass die Abkühlung auf der Nordhemisphäre mehr als nur den Arktischen Ozean umfasst.

Regionale Ozeanabkühlung bis zu Tiefen von 2000 Metern sind schwierig voneinander abzugrenzen in einer Welt, in der Treibhausgase vermeintlich das Klima dominieren. Falls natürliche Faktoren dafür sorgen können, dass der Ozean abkühlt, können sie auch zu dessen Erwärmung beitragen.

Abschließender Kommentar

Bereits seit einigen Jahren haben wir illustriert, wie entsetzlich schlecht die jüngsten und größten Klimamodelle die Wassertemperatur der globalen Ozeane simulieren. Siehe dazu die beiden jüngsten Beiträge:

●Vielleicht sollten die IPCC-Modellierer mal versuchen, die Ozeane der Erde zu simulieren (hier) oder

●Das IPCC macht sich immer noch Illusionen hinsichtlich des Kohlendioxids (hier).

Einige Leser könnten argwöhnen, dass falls die Modelle die Wassertemperatur der Ozeane nicht simulieren können, sie auch nicht besser sind, wenn sie versuchen, Erwärmung und Abkühlung bis zu einer Tiefe von 2000 Metern zu simulieren. Unglücklicherweise werden die Ergebnisse der Klimamodelle für Ozeantemperaturen unter der Wasseroberfläche nicht in Formaten präsentiert, die geeignet sind, sie einfach dem KNMI Climate Explorer hinzuzufügen. Und es ist unwahrscheinlich, dass die klimawissenschaftliche Gemeinschaft jenes Scheitern der Modelle präsentieren wird.

Link: http://wattsupwiththat.com/2014/10/17/with-argo-there-is-a-wide-range-warming-and-cooling-rates-of-the-oceans-to-depths-of-2000-meters/

Übersetzt von Chris Frey EIKE




Das offensichtliche Scheitern der Klimawissenschaft, das von den Mainstream-Medien ignoriert wird

Ich werde später etwas zu dieser Studie schreiben. In diesem Beitrag geht es aber um etwas anderes, nämlich:

Die Dürre in Kalifornien – wer ist verantwortlich für fehlende Vorbereitungen

Bei der Lektüre des exzellenten Beitrags von Anthony Watts über Swain et al. (2014) mit dem Titel „Behauptung: kalifornische Dürre hängt mit Klimawandel zusammen – nicht ein einziges Mal wurden ENSO oder El Nino erwähnt (hier)“ wurde wieder einmal eine Anzahl von Gedanken dazu wiederholt, die mir schon oft aufgestoßen sind, als sich die Dürre in den Westlichen Staaten im vorigen Jahr einstellte und sich in diesem Jahr intensivierte.

War Kalifornien auf eine Dürre vorbereitet?

Offensichtlich war Kalifornien auf eine derartig intensive Dürre nicht vorbereitet, und die Auswirkungen dieser fehlenden Vorbereitung auf die Bewohne Kaliforniens werden noch viel schlimmer werden, sollte sich die Dürre fortsetzen.

Warum war Kalifornien nicht auf eine kurzfristige (vieljährige) Dürre dieser Intensität vorbereitet?

Die realistische Schuldzuweisung sollte den Brennpunkt auf die Klimawissenschaft unter der Herrschaft des IPCC allgemein legen. Im Einführungsabsatz der Website über die Geschichte des IPCC wird festgestellt (Fettdruck von mir):

Die heutige Rolle des IPCC wird definiert in den Principles Governing IPCC Work: „…in umfassender Weise, objektiv, offen und transparent die wissenschaftlichen, technischen und sozioökonomischen Informationen einzuschätzen, die relevant sind für die wissenschaftliche Basis der Risiken einer VOM MENSCHEN VERURSACHTEN Klimaänderung, dessen potentielle Auswirkungen und Optionen für Anpassung und Abschwächung“.

Die Tatsache, dass das IPCC all seine Bemühungen darauf konzentrieren muss, „die wissenschaftliche Basis der Risiken einer vom Menschen verursachten Klimaänderung zu verstehen“, ist sehr wichtig. Das IPCC hat niemals ernsthaft versucht zu bestimmen, ob natürliche Faktoren nicht für den größten Teil der Erwärmung verantwortlich waren, die es auf der Erde im vorigen Jahrhundert gegeben hat. Jahrzehnte lang hat man beim IPCC Augenklappen getragen, die die Sichtweise auf alle anderen Dinge außer Kohlendioxid blockiert haben. Die Rolle des IPCC ist es immer gewesen, Berichte vorzubereiten, die die Reduktion von Treibhausgasen als Folge des Verbrennens fossiler Treibstoffe unterstützen sollen. Folgerichtig fließen auch sämtliche Forschungsgelder in diesen Bereich. Die Entscheidung, ausschließlich eine vom Menschen verursachte globale Erwärmung zu untersuchen, ist eine politische Entscheidung und nicht eine wissenschaftliche. In dem Bemühen, ihre Agenden zu rechtfertigen, sind die Politiker auf der ganzen Welt auf den Klimawandel-Zug aufgesprungen und finanzierten modellbasierte Studien einer anthropogenen globalen Erwärmung … und verbrannten dabei jedes Jahr viele Milliarden Dollar.

Wegen dieser politischen Agenda können die jüngsten und größten Klimamodelle immer noch nicht die zugrunde liegenden Prozesse simulieren, also die natürlich regelmäßig wiederkehrenden, gekoppelten Ozean-Atmosphäre-Prozesse wie ENSO (El Niños und La Niñas), wie die Pazifische Dekadische Oszillation… Prozesse, die starken Einfluss auf Temperatur und Niederschlag in den US-Staaten der US-Westküste haben. Es gibt also keine Möglichkeit für die Klimamodelle, so wie sie sich heute darbieten, vorherzusagen, wie die Niederschlagsverteilung in Zukunft dort aussieht. Und dieses grundlegende Problem wird bestehen, bis die Finanzierung der Klimaforschung auf andere Wege gelenkt wird. Ja, Finanzierung. Die Forschung folgt dem Gelde.

Welchen Wert bieten Studien auf der Grundlage von Klimamodellen?

Überhaupt keinen.

Die Studie von Pierce et al. (2013) mit dem Titel [übersetzt] „Die Schlüsselrolle von Starkniederschlägen bei nicht mit den Klimamodellen übereinstimmenden Änderungen der jährlichen Regenmenge in Kalifornien“ (hier) bietet eine Übersicht, warum die Klimamodelle wertlos sind, wenn es um Vorhersagen wie der kalifornischen Dürre geht. Im Abstract schreiben Pierce et al. (Hervorhebung und Großschreibung von mir):

Von den hier untersuchten herabgestuften 25 Modellprojektionen stimmen 21 überein, dass die Häufigkeit von Niederschlag ABNEHMEN wird bis zu den sechziger Jahren dieses Jahrhunderts, was einen Rückgang von 6 bis 14 Tagen pro Jahr bedeutet. Dies reduziert die mittlere jährliche Regenmenge in Kalifornien um 5,7%. Teilweise im Widerspruch hierzu stimmen 16 der 25 Projektionen überein, dass die tägliche Niederschlagsintensität ZUNEHMEN wird, was auf ein Modellmittel der Zunahme um 5,3% hinausläuft. Zwischen diesen kontrastierenden Tendenzen zeigen 12 Projektionen trockener als normale Bedingungen und 13 nasser als normale Bedingungen, jeweils bis zu den sechziger Jahren dieses Jahrhunderts.

Fazit: Einige Klimamodelle sagen, dass die tägliche Niederschlagsintensität zunehmen wird, während andere sagen, dass diese abnehmen wird. Mit anderen Worten, die klimawissenschaftliche Gemeinschaft ist völlig ahnungslos hinsichtlich der zukünftigen Niederschlagsmenge an der US-Westküste.

Nun könnten Einige sagen, dass Klimatologen des Staates Kalifornien und aus anderen Westküstenstaaten von der Klimawissenschaft behindert worden seien. Es ist schwierig, staatlichen und lokalen Behörden Vorschläge für die langfristige Planung zu unterbreiten, wenn die klimawissenschaftliche Gemeinde ihnen nichts zur Verfügung stellt, mit dem man arbeiten kann.

Ist Kalifornien auf eine Dürre vorbereitet, die viele Jahrzehnte oder sogar Jahrhunderte andauern kann?

Im Beitrag von Anthony Watts war auch eine Graphik einer paläoklimatologischen Studie der Dürre an der Westküste (hier) enthalten, die zeigte, dass Dürren in der Vergangenheit hunderte von Jahren gedauert haben. Zur Originalgraphik und Diskussion darüber siehe Abbildung 10 von Cook et al. (2007) aus der Studie „Dürre in Nordamerika: Rekonstruktionen, Gründe und Konsequenzen“ (hier). (Hinweis: Es handelt sich nicht um den John Cook von SkepticalScience).

Nun hasse ich es, schlechte Nachrichten zu verbreiten. Aber wenn es in der Vergangenheit vorgekommen ist, kann es wieder vorkommen?

Warum plappern die Mainstream-Medien Presseerklärungen einfach nur nach?

Nachrichten über den Klimawandel wurden zu Echoräumen der Presseerklärungen, die von Kollegen, Universitäten und Forschungsagenturen der Regierung ausgestreut wurden. Individuelle Reporter könnten einen tiefer gehenden Bericht erstellen, indem sie die Wissenschaftsautoren nach ein paar zusätzlichen Worten der Weisheit fragen.

Aber warum stellen die Medien keine bohrenden Fragen wie:

• Warum hat man die Bewohner der Westküste nicht schon vor 10 oder 15 Jahren gewarnt, dass eine schwere Dürre nur eine Wetteranomalie entfernt auftreten wird?

• Warum gibt es nicht genügend Entsalzungs-Werke, um Regendefizite auszugleichen?

• Warum demonstrieren die Menschen an der Westküste für mehr Wind- und Solarparks, wenn sie etwas viel Dringenderes für ihr Leben brauchen, nämlich Wasser? Und warum finanziert die Regierung diese Parks?

Es scheint mir, dass wir sehr bald eine Umkehr von Steinbecks The Grapes of Wrath [etwa: Die Trauben der Wut] erleben, wobei eine große Anzahl von Bewohnern Kaliforniens zurück in die Staaten des Mittleren Westens emigriert, wo ebenfalls periodisch Dürren auftreten.

Eine armselige Planung einiger Weniger – basierend auf politisch motivierter, unseriöser Wissenschaft – kann zu Notlagen für Millionen führen.

Link: http://wattsupwiththat.com/2014/09/30/the-obvious-failures-of-climate-science-that-mainstream-media-ignores/

Übersetzt von Chris Frey EIKE

An sich schreibt Tisdale hier nichts Neues – aber ich denke, man kann es nicht oft genug betonen. Darum habe ich das hier übersetzt.

C. F.




Offener Brief an Kevin Trenberth – NCAR

Nun könnte man denken, dass Sie Ihre Zeit besser damit zugebracht hätten, den Skeptikern der globalen Erwärmung zu erklären, warum wir uns über die globale Erwärmung Sorgen machen sollten … vor allem vor dem Hintergrund, dass Sie in ihren letzten Studien die natürliche Variabilität als eine bei der Erwärmung unseres Planeten wesentliche Rolle spielende Tatsache anerkannt haben. Daran denkend ist dies eine offene Einladung an Sie, einen Beitrag oder einer Serie von solchen für WattsUpWithThat zu schreiben (oder so etwas als Ko-Autor zusammen mit Skeptikern… wie ich zum Beispiel) auf die Beine stellen.  Es gibt eine ganze Reihe von Punkten, die Sie ansprechen wollen könnten, und sie werden über weite Teile dieses Beitrags diskutiert.

WattsUpWithThat hat eine sehr viel größere Internet-Leserschaft als SkeptikalScience. Schauen Sie die jüngste Statistik von Alexa hier. Wenn Ihnen die Rangfolgen bei Alexa nicht vertraut sind: je geringer der Rang, umso besser. Referenzpunkt: Google rangiert an erster Stelle. Beachten Sie auch die Verweildauer von Lesern auf beiden Websites. Deutlich mehr Menschen klicken nach WattsUpWithThat als nach SkepticalScience und verweilen dort viel länger, wenn sie erst einmal dort sind. Dies zeigt natürlich, wenn Sie einen Beitrag für WattsUpWithThat schreiben, werden wahrscheinlich sehr viel mehr Menschen diesen lesen.

Kommentar zu Ihrem Beitrag auf SkepticalScience

Gehen wir mal davon aus, dass Sie recht haben und sich anstelle der Erdoberfläche die Tiefen der Ozeane erwärmen. Dann jedoch ist Ihr Beitrag bei SkepticalScience für viele Leser nicht viel mehr als eine Ablenkung – weil es die Aufmerksamkeit von den Modellen abzieht, die Schwierigkeiten haben, die globalen Temperaturen an der Erdoberfläche zu simulieren. Weder die vorherige (CMIP3) noch die jetzige Generation von Klimamodellen (CMIP5) können den gegenwärtigen Stillstand der Erwärmung außerhalb der Arktis erklären. Ebenfalls unter der Annahme, dass Sie recht haben – die behauptete Zunahme der Temperatur im tieferen Ozean (während der Stillstand an der Oberfläche auftritt) ist so gering, so minimal, dass die zusätzliche Erwärmung der Ozeane nicht dazu taugt, irgendjemanden zu irgendeiner Zeit zu bedrücken.

Während die Themen Ozeanwärme und Energiegleichgewicht in technischen Diskussionen ihren Platz haben, sind sie völlig unwichtig für die Menschen und die Politiker, die wissen wollen, wie hoch die globalen Temperaturen an der Erdoberfläche steigen könnten und warum die Klimamodelle nicht in der Lage waren, den Stillstand der globalen Erwärmung vorherzusagen.

Frühere Kommentare

Bei WattsUpWithThat haben wir bereits viele Ihrer Argumente diskutiert … und zwar viele Male. Sehen Sie diese Beiträge auf meinem Blog Climate Observations (und die bei WUWT in Klammern):

Trenberth Still Searching for Missing Heat (WUWT cross post here)

More on Trenberth’s Missing Heat (WUWT cross post here)

A Different Perspective on Trenberth’s Missing Heat: The Warming of the Global Oceans (0 to 2000 Meters) in Deg C (WUWT cross post here)

Even More about Trenberth’s Missing Heat – An Eye Opening Comment by Roger Pielke Sr. (WUWT cross post here)

Open Letter to the Royal Meteorological Society Regarding Dr. Trenberth’s Article “Has Global Warming Stalled?” (WUWT cross post here)

A Couple of Comments about the Oppenheimer and Trenberth Op-Ed in the Washington Post (WUWT cross post here)

Meehl et al (2013) Are Also Looking for Trenberth’s Missing Heat (WUWT cross post here)

Trenberth and Fasullo Try to Keep the Fantasy Alive (WUWT cross post here)

More on Trenberth and Fasullo (2013) “An Apparent Hiatus in Global Warming?” (WUWT cross post here)

Comments on the Nature Article “Climate Change: The Case of the Missing Heat” (WUWT cross post here.)

Was bei Ihren Argumenten fehlt

Kern Ihrer Argumentation ist, dass es um die Jahrhundertwende eine Änderung des ENSO-Zustandes von einer Periode mit vorherrschendem El Niño in eine Periode gegeben hat, in der La Niña dominiert. Diese Phasenänderung um das Jahr 1999 hätte Ihren Argumenten zufolge dazu geführt, dass der Pazifik weniger Wärme in die Atmosphäre freigesetzt hätte als normal, und dass weniger warmes Wasser aus den tropischen Regionen des Pazifik in angrenzende Meeresgebiete gelangt ist. Sie haben auch gesagt, dass verstärkte Passatwinde in Verbindung mit La Niña dazu führen, dass sich mehr warmes Wasser im westlichen tropischen Pazifik ansammelt. Als Folge hätte sich eine substantielle Abnahme der Erwärmungsrate auf der Erdoberfläche ergeben (außerhalb der Arktis).

Dies zeigt doch aber, dass die ENSO auch verantwortlich war für einen großen Teil der Erwärmung zu Zeiten der Dominanz von El Niño-Ereignissen von Mitte der siebziger Jahre bis Ende der neunziger Jahre. Ich kann mich nicht erinnern, dass Sie dies mit so vielen Worten in irgendeiner Ihrer jüngsten Studien festgestellt hatten, und im Licht ihrer neuen Einsichten glaube ich nicht, dass Sie in letzter Zeit versucht haben, den Beitrag der ENSO zu der Erwärmungsperiode zum Ende des 20. Jahrhunderts zu quantifizieren.

Meinen Forschungen zufolge war die ENSO – agierend als ein chaotischer, natürlicherweise auftretender, vom Sonnenlicht gesteuerter Oszillator, der aufgeladen und entladen wird – tatsächlich verantwortlich für den weitaus größten Teil der Erwärmung der Wassertemperatur außerhalb des Nordatlantiks während der letzten 32 Jahre (die Zeit der Satellitenbeobachtungen) … Und die ENSO war auch verantwortlich für den weitaus größten Teil der Erwärmung des tropischen Pazifiks bis in größere Tiefen … und die ENSO war verantwortlich für den größten Teil der langzeitlichen Erwärmung des außertropischen Pazifiks bis zu einer Tiefe von 700 Metern – zusammen mit einer Verschiebung der Luftdruckverteilung (und der damit zusammenhängenden Winde; beschrieben durch den North Pacific Index, den Sie, Kevin, für diese Zwecke entwickelt haben). Dazu kommen noch die Ergebnisse von Lozier et al. (2008) The Spatial Pattern and Mechanisms of Heat-Content Change in the North Atlantic. Sie entdeckten, dass die gesamte Erwärmung des Nordatlantiks bis in die Tiefe mit natürlichen Faktoren erklärt werden konnte. Siehe dazu auch den Artikel vom Januar 2008 in ScienceDaily mit dem Titel North Atlantic Warming Tied to Natural Variability über Lozier et al. (2008). In diesem Artikel heißt es u. A.:

„Wir zeigen, dass die großräumigen dekadischen Änderungen … in Verbindung mit der NAO (= Nordatlantische Oszillation) primär für die Änderungen des ozeanischen Wärmegehaltes im Nordatlantik während der letzten 50 Jahre verantwortlich sind“.

All diese Punkte wurden auch in den o. g. Links angesprochen. Sie sollten darauf eingehen, wenn Sie sich entschließen, einen Beitrag dazu für WattsUpWithThat zu schreiben.

Daten, die Ihre Argumente bestätigen und widerlegen

Ihrer Argumentation zufolge sollte der ozeanische Wärmegehalt des westlichen tropischen Pazifiks während der Periode des Stillstandes zunehmen. In einer Ihrer jüngsten Studien schreiben Sie, dass der Stillstand im Jahre 1999 begonnen hatte, und zwar mit dem Übergang der Pazifischen Dekadischen Oszillation von der positiven in die negative Phase. Sie haben das als Proxy für die ENSO-Zustände verwendet. Abbildung 1 zeigt den NOCD-Wärmegehalt des Ozeans im westlichen tropischen Pazifik (24°S – 24°N; 120°E – 180°); Wassertiefe 0 bis 700 m, Zeitraum Januar 1999 bis Dezember 2013. Man erkennt, dass sich der westliche tropische Pazifik tatsächlich bis zu einer Tiefe von 700 m erwärmt hat.

Abbildung 1

Wie Sie sehr wohl wissen, haben die Bojen des TAO-Projektes im tropischen Pazifik seit Anfang der neunziger Jahre Wassertemperaturen unter der Oberfläche gemessen, so dass man die NODC-Daten von dort als zuverlässig ansehen kann. Während des vorigen Jahrzehnts haben die ARGO-Bojen die TAO-Bojen verstärkt. Und die Daten des ozeanischen Wärmegehaltes im tropischen Pazifik in Tiefen zwischen 0 und 700 m bzw. 0 bis 2000 m während des TAO-Projektes und der ARGO-Ära sind genau gleich, wie Abbildung 2 zeigt. Das zeigt, dass die gesamte Variabilität im Wärmegehalt des tropischen Pazifik in den oberen 700 m stattfindet.

Abbildung 2

Die NODC-Daten des ozeanischen Wärmegehaltes (0 bis 700m) des östlichen tropischen Pazifiks, einer viel größeren Region, zeigen von 1999 bis 2013 eine Abkühlung, siehe Abbildung 3.

Abbildung 3

Als Ergebnis zeigt sich alles in allem eine Abnahme des ozeanischen Wärmegehaltes im tropischen Pazifik seit 1999, siehe Abbildung 4, sowie eine substantielle Abnahme des ozeanischen Wärmegehaltes des tropischen Pazifiks insgesamt seit einem Höchstwert um das Jahr 2004.

Abbildung 4

Auf der Grundlage dieser Daten ergibt sich eine Umverteilung der Wärme innerhalb des tropischen Pazifiks und nicht das Hinzufügen neuer Wärme, wie Sie in Ihren Studien schreiben.

Auch habe ich in meinem letzten Beitrag If Manmade Greenhouse Gases Are Responsible for the Warming of the Global Oceans… die vertikalen mittleren NODC-Temperaturanomalien gezeigt für den Indischen, Pazifischen, Nord- und Südatlantischen Ozean für Tiefen zwischen 0 und 2000 m während der ARGO-Ära (Beginn 2003). Abbildung 5 ist eine Aktualisierung dieser Illustration, die auch die vor kurzem veröffentlichten Daten für 2013 enthält. Der flache Verlauf des pazifischen Trends zeigt, dass es dort nicht zu einer substantiellen Zunahme der Temperatur unterhalb der Oberfläche des Pazifiks bis zu einer Tiefe von 2000 m während der letzten 11 Jahre gekommen war… und das gilt auch für den Nordatlantik. Menschliche Treibhausgase können die Erwärmung im Südatlantik und dem Indischen Ozean nicht erklären, hat diese doch offensichtlich keinen Einfluss auf die Erwärmung im Nordatlantik und Pazifik bis 2000 m Tiefe während der letzten 11 Jahre.

Abbildung 5

Nun könnten Sie geltend machen, dass die jüngste Erwärmung des Indischen Ozeans der ENSO geschuldet ist. Da würde ich zustimmen. Ich habe eine Reihe von Punkten hierzu in meinem Beitrag Is Ocean Heat Content All It’s Stacked Up to Be? besprochen. Einer davon war der Einfluss der ENSO auf die Erwärmung des Indischen Ozeans bis zu einer Tiefe von 700 m. Das Folgende spiegelt diese Diskussion. Man beachte, dass ich die Animationen verlinkt und die Nummerierung der Abbildungen für diesen Beitrag überarbeitet habe.

Beginn des Auszugs aus „Is Ocean Heat Content All It’s Stacked Up to Be?”:

Warum hat sich der Indische Ozean während der ARGO-Ära erwärmt? In Abbildung 6 werden die Daten des ozeanischen Wärmegehaltes im Indischen Ozean (90S-90N, 20E-120E) mit den skalierten Wassertemperatur-Anomalien des NINO3.4-Gebietes im äquatorialen Pazifik verglichen. Beide Datensätze wurden mit einem 12-monatigen laufenden Filter geglättet. Die NINO3.4-Daten sind ein allgemein gebräuchlicher Index für Zeit, Stärke und Dauer von El Niño- und La Niña-Ereignissen. Der Wärmegehalt des indischen Ozeans nimmt als Folge von El Niño-Ereignissen zu, kühlt sich aber offenbar nicht in gleicher Weise ab bei La Niña-Ereignissen.

Warum?

Ganz einfach: wie ich schon seit Jahren sage, La Niñas sind nicht das Gegenteil von El Niños.

Abbildung 6

In den folgenden Animationen kann man beobachten, wie warmes Wasser, das nach El Niño-Ereignissen hinterlassen worden ist, während der folgenden La Niñas durch eine Strömung mit der Bezeichnung Indonesian Throughflow aus dem tropischen Pazifik in den Indischen Ozean strömt. Dieses Warmwasser kompensiert jede Abkühlung, die es sonst durch La Niñas geben würde, und zwar infolge Änderungen der atmosphärischen Zirkulation.

ANIMATION 1 zeigt Karten mit den NODC-Daten des ozeanischen Wärmegehaltes während der ARGO-Ära unter Verwendung von 12-Monats-Mittelwerten. Die ersten Zellen zeigen den mittleren Wärmegehalt von Januar bis Dezember 2003. Dem folgen Zellen für den Zeitraum Februar 2003 bis Januar 2004, dann März 2003 bis Februar 2004 und so weiter. Die letzte Zeitperiode in der letzten Zelle gilt für den Zeitraum Januar bis Dezember 2012. Die 12-Monats-Mittel reduzieren das sichtbare Rauschen und jedwede saisonale Komponente in den Daten. Das ist genauso wie die Glättung der Daten mit einem 12-Monats-Filter in einer Zeitreihe.

Wegen der Auflösung der Daten des ozeanischen Wärmegehaltes könnte es schwierig sein, die Prozesse zu erkennen, die dazu führen, dass das Restwarmwasser der El Niño-Ereignisse der Jahre 2006/07 und 2009/10 in den Indischen Ozean fließen. ANIMATION 2 ist eine gif-Animation der Meeresspiegel-Karten für den tropischen Pazifik von der AVISO altimetry website. Die Karten zeigen auch den östlichsten Teil des Indischen Ozeans. Ich habe die Animation im Januar 2003 beginnen lassen, übereinstimmend mit der Diskussion der Wärmegehalts-Daten in der ARGO-Ära. Es gab eine Reihe kleinerer El Niño-Ereignisse vor dem Ereignis 2006/07. Am Ende des El Niño von 2006/07 teilt eine (kühle) Kelvin-Welle [?] die (warmen) Anomalien des Meeresspiegels entlang des Äquators. Das restliche Warmwasser wurde durch Rossby-Wellen nach Indonesien verfrachtet, und die stärker als normal wehenden Passatwinde im Pazifik während des folgenden La Niña halfen, dieses Warmwasser über Indonesien hinaus in den Indischen Ozean strömen zu lassen. Zusätzlich zu dem Indonesian Throughflow gelangt warmes Wasser aus dem südlichen tropischen Pazifik in den östlichen Indischen Ozean durch die Torres-Straße zwischen Australien und Neuguinea. Das Gleiche geschah nach dem El Niño von 2009/10. (Ich entschuldige mich für die Verschiebung in der Animation im Jahre 2011. Aviso hat das Kartenformat geändert).

 (Ende des Auszugs aus „Is Ocean Heat Content All It’s Stacked Up to Be?”)

Einige kurze Kommentare zu Trenberth et al. (2014)

Danke für das Verlinken eines Vorabdrucks von Trenberth et al. (2014) “Earth’s Energy Imbalance” in ihrem Beitrag auf SkepticalScience. Leider hatte ich keine Gelegenheit, ihn im Detail zu studieren. Aber ich habe ihn überflogen. Danke auch für die Nennung einer Anzahl von Datensätzen des Wärmegehaltes zusätzlich zu den Daten von ECMWF ORA-S4. Wir haben die Probleme dieser Re-Analyse in vielen Beiträgen diskutiert, die am Beginn dieses Beitrags gelistet sind, so dass ich hier damit jetzt nicht fortfahre… obwohl ich bemerke, dass Sie immer noch versuchen, die Verwendung der ORA-S4-Reanalyse zu rechtfertigen, indem Sie zeigen, dass sie auf vulkanische Aerosole reagieren, während dies bei anderen Datensätzen nicht der Fall ist. (Das ist keine Überraschung, ist doch die ORA-S4-Reanalyse das Ergebnis eines Computermodells, das man so programmiert hatte, dass es eine Abkühlung durch vulkanische Aerosole erzeugen soll).

Auch weise ich darauf hin, dass in Ihrer Abbildung 11, die ich hier als meine Abbildung 7 zeige, ein La Niña-Ereignis fehlt.

Abbildung 7

Der Studie zufolge haben Sie die alte Version des ONI-Index’ (hier; Vergleichsperiode 1971 bis 2000) als Referenz für offizielle El Niño- und La Niña-Ereignisse verwendet. Dabei haben Sie eindeutig den starken El Niño von 2010/11 übersehen, der dem El Niño von 2009/10 folgte. Auch gab es mäßig starke la Niña-Bedingungen während der ENSO 2009/10-Saison, aber sie dauerten nicht lange genug, um als „offizielles“ La Niña-Ereignis basierend auf der alten ONI-Klimatologie betrachtet zu werden. Ich bin mir nicht sicher, ob Ihnen das für 2008/09 oder in 2010/11 hilft.

Auch hier hatte ich leider keine Gelegenheit, Ihre Studie detailliert zu betrachten.

Ihnen zufolge, Kevin, wird ENSO durch Sonnenlicht getrieben

In Ihrer viel zitierten Studie Trenberth et al. (2002) mit dem Titel The evolution of ENSO and global atmospheric surface temperatures haben Sie festgestellt:

Die negative Rückkopplung zwischen der SST [Wassertemperatur] und Flüssen an der Oberfläche können als die Bedeutung interpretiert werden, die der Wärmeabfluss während El Niño-Ereignissen und der Wärmezufluss bei La Niñas hat. Relativ klarer Himmel im zentralen und östlichen tropischen Pazifik erlauben es der Solarstrahlung, in den Ozean einzudringen, was die unternormalen SSTs kompensiert, aber die Wärme wird durch die Ekman-Strömung, ozeanische Ströme und Wechselwirkungen zwischen Kelvin- und Rossby-Wellen davon getragen. Sie wird im westlichen tropischen Pazifik gespeichert. Dies ist nicht einfach eine Umverteilung ozeanischer Wärme, sondern auch eine Restaurierung der Wärme im Ozean. Genauso sorgt während eines El Niño der Wärmeverlust in die Atmosphäre vor allem durch Verdunstung für eine Abschwächung des Wärmegehaltes, und beides trägt zum Lebenszyklus einer ENSO bei.

Folglich [gilt] meine frühere Beschreibung der ENSO als ein chaotischer, natürlich vorkommender, von Sonnenlicht getriebener Erwärmungs-/Abkühlungs-Oszillator … wobei El Niños als Aufwärm- und La Niñas als Abkühlungsphase agieren. Aber La Niñas helfen auch bei der Umverteilung warmen Wassers durch ein El Niño – was in den oben verlinkten Animationen eindeutig zum Ausdruck kommt.

Dieses Zitat aus dem Jahr 2002 wirft eine sehr grundlegende Frage auf: wie können Sie zeigen, dass die Dominanz von La Niña-Ereignissen während der letzten Jahre eine stärkere Erwärmung des Pazifiks bis in größere Tiefen durch Treibhausgase verursacht hat, wenn diese La Niña-Ereignisse durch Sonnenlicht angetrieben werden?

Vor diesem Hintergrund: Falls Sie sich dazu entschließen, einen Beitrag für WUWT vorzubereiten, dann dokumentieren Sie bitte die einfallende kurzwellige Strahlung  und die ausgehende langwellige Strahlung, beide an der Oberfläche des tropischen Pazifiks, und zwar aus der ECMFW ORA-S4-Reanalyse, auf die Sie sich in so vielen Ihrer Studien aus letzter Zeit verlassen.

Große Sprünge

Gelegentlich beschreiben Sie „große Sprünge” der globalen Temperaturen. Ihre großen Sprünge werden diskutiert in einem offenen Brief an die Royal Meteorological Society hinsichtlich des Artikels von Dr. Trenberth mit dem Titel „Has Global Warming Stalled?“ [hier]. Danach haben Sie noch mehr zu diesen großen Sprüngen gesagt. Zum Beispiel haben Sie sich auch darauf bezogen in ihrem Interview im August 2013 beim Sender NPR [hier] (Fettdruck von mir):

Zeitweise können die Ozeane sehr viel Wärme aufnehmen. Einiges davon geht in die Tiefe, wo es Jahrhunderte lang lagern kann. Aber Wärme, die näher an der Oberfläche absorbiert wird, kann leicht wieder an die Luft abgegeben werden. Das geschah 1998, was dieses Jahr zu einem der wärmsten Jahre jemals machte.

Seitdem sagt Trenberth, dass sich der Ozean zumeist wieder im Wärmeaufnahme-Stadium befindet.

Er sagt: „Das kann nicht mehr viel länger als höchstens 20 Jahre lang der Fall sein, und was nach dem Ende dieses Stillstands passiert, wird ein plötzlicher großer Sprung (der Temperatur) auf ein ganz neues Niveau sein, und niemals wieder wird das vorangegangene Niveau erreicht“.

Man kann sich das wie eine Treppe vorstellen. Der Temperaturverlauf ist flach, wenn ein natürlicher Kaltrhythmus den graduellen, vom Menschen verursachten Temperaturanstieg ausbremst. Aber wenn es wieder zu einem Erwärmungs-Rhythmus zusätzlich zu dem langzeitlichen Erwärmungstrend gibt, ist das dramatisch anders.

„Wenn die natürliche Variabilität oder das Wetter in die gleiche Richtung geht wie die globale Erwärmung, werden wir plötzlich Rekorde brechen, wir werden außerhalb der Bandbreite bisheriger Erfahrungen liegen, und dann findet die wirkliche Schädigung statt“, sagt Trenberth.

Zunächst einmal versuchen Sie wieder einmal zu zeigen, dass El Niño-Ereignisse einen Teil der Erwärmung zum Ende des 20. Jahrhunderts verursacht haben. Das muss ein sehr großer Teil gewesen sein, wenn der Übergang zu einem La Niña die Erwärmung anhalten konnte. Warum sagen Sie das nicht einfach? Liegt es daran, dass die Leute dann bemerken werden, dass die Erkenntnis, dass eine Reihe starker El Niños zur Erwärmung von den siebziger bis zu den neunziger Jahren beigetragen hatte, auch zu der Erkenntnis führt, dass die Modelle die zukünftige Erwärmung überschätzt haben? Wir verstehen das schon … nun, die meisten von uns jedenfalls. Oder kann es daran liegen, dass die Leute auch bemerken, dass Sie den Einfluss der Atlantischen Multidekadischen Oszillation, die ebenfalls zur Erwärmung zum Ende des 20. Jahrhunderts beigetragen hat, außen vor gelassen haben? Warum stellen Sie nicht einfach fest, dass die Modellvorhersagen zu hoch sind, und zwar mindestens um einen Faktor zwei?

In dem von mir angesprochenen Teil Ihres NPR-Interviews haben Sie gesagt, dass ein starker El Niño einen großen Sprung bei den Temperaturen auslösen kann. Das verstehen wir. Ich selbst habe diese „großen Sprünge“ der Wassertemperatur bereits vor über 5 Jahren angesprochen. Wir stimmen Ihnen auch zu, dass El Niños von Sonnenlicht getrieben werden … welches Bestandteil des „Lebenszyklus‘ der ENSO“ ist, wie vor über einem Jahrzehnt festgestellt hatten. Aber ich bin sehr begierig zu erfahren, warum Sie sich darüber Sorgen machen, dass wir „niemals wieder das vorangegangene Niveau erreichen werden“ nach einem solchen durch ein El Niño ausgelösten Sprung. Genau das würden wir erwarten in einer Welt, in der natürlicher Prozesse für den größten Teil der Erwärmung sorgen … eine Welt, in der die Ozeane nur geringe Auswirkungen der zunehmenden menschlichen Treibhausgase zeitigen.

Der La Niña von 1995/96 erzeugte das warme Wasser für den El Niño von 1997/98 mittels einer Reduktion der Wolkenbedeckung und vermehrter Sonneneinstrahlung im tropischen Pazifik. Der 1997/98-El Niño hat dieses warme Wasser von unter der Oberfläche des westlichen tropischen Pazifiks nach oben befördert… und in der Folge eine substantielle Wärmemenge an die Atmosphäre abgegeben. Eine unermessliche Menge warmen Wassers wurde dann in den globalen Ozeanen verteilt nach dem El Niño 1997/98. Dieses Warmwasser verhinderte die Abkühlung proportional zum nachfolgenden La Niña 1998-01. Dieser sorgte auch für die Ersetzung des Warmwassers im tropischen Pazifik, das vom El Niño 1997/98 freigesetzt und umverteilt worden war. Alles passt zu einer sich natürlich erwärmenden Welt … einer Welt, die längst nicht so sensitiv auf menschliche Treibhausgase reagiert wie von den Klimamodellen simuliert (von Klimamodellen, die immer noch nicht grundlegende ENSO-Prozesse simulieren können).

„Der Stillstand ist Fiktion; die Erwärmung der Ozeane Fakt“???

Ich habe den Verdacht, dass Ihre Mitautoren Dana Nuticelli und Rob Painting diese Überschrift für den Schlussteil des Beitrags auf SkepticalScience geschrieben haben, Kevin. Sie ist komisch und irreführend. Die Daten zeigen, dass sich die Ozeane bis in eine gewisse Tiefe erwärmen, aber diese Erwärmung findet nicht in allen Ozeanbecken statt. Außerdem würden Sie, Kevin, bestimmt nicht so viel Zeit damit aufgewendet haben während der letzten paar Jahre, die Abschwächung der globalen Erwärmung außerhalb der Arktis zu erklären, falls der Stillstand wirklich „Fiktion“ wäre.

Angesichts der Rate, mit der sich die globalen Ozeane bis in eine Tiefe von 2000 m während der ARGO-Ära erwärmt haben (Abbildung 8), sollte man sich wirklich nicht zu viele Sorgen machen über die Erwärmung dieser Ozeane, vor allem, wenn die Daten zeigen, dass diese Erwärmung natürlichen Prozessen geschuldet ist.

Abbildung 8

Und niemand sollte sich Sorgen machen über die beobachtete Erwärmung der Ozeane, wenn wir bedenken, dass sich die Erwärmung der globalen Ozeane der ORA-S4-Reanalyse zufolge, die Sie immer präsentieren, fast ein Jahrzehnt lang abschwächen kann. Siehe meine Abbildung 9, welche eine kommentierte Version der ersten Graphik ist, die Sie in Ihrem Blogbeitrag zeigen.

Abbildung 9

Der folgende Auszug stammt aus dem oben verlinkten NPR-Interview:

Werden die Ozeane uns also retten?

„Das ist eine gute Frage, und die Antwort lautet, teils ja, aber teils auch nein“, sagt er.

Zeitweise können die Ozeane sehr viel Wärme aufnehmen. Einiges davon geht in die Tiefe, wo es Jahrhunderte lang lagern kann. Aber Wärme, die näher an der Oberfläche absorbiert wird, kann leicht wieder an die Luft abgegeben werden. Das geschah 1998, was dieses Jahr zu einem der wärmsten Jahre jemals machte.

Aber, noch einmal, das warme Wasser des El Niño von 1997/98 wurde durch eine zeitweilige Zunahme der Sonneneinstrahlung im tropischen Pazifik ausgelöst als  Teil „des Lebenszyklus‘ einer ENSO“.

Schluss

Danke für die Überlegung, eventuell einen Beitrag oder mehrere für uns hier bei WUWT zu schreiben. Viele von uns applaudieren Ihnen wegen Ihrer Bemühungen, die Verlangsamung und den Stillstand der Erwärmung zu erklären, aber es bleiben noch viele offene Fragen.

Außerdem begrüßen wir es, wenn Autoren von Blogbeiträgen Fragen beantworten, und Sie sollten einen weiteren Austausch erwarten.

Und zuletzt: Wenn diese Aufforderung Sie interessiert, können Sie gerne einen Kommentar bei WUWT schreiben. Wenn Sie gerne die Ursprungsdiskussion entfernt haben möchten, schreiben Sie bitte einen Kommentar auf meinem eigenen Blog Climate Observations, wo ich immer noch Kommentare moderiere. Wir können dann via E-Mail weiter diskutieren.

Mit freundlichen Grüßen

Bob Tisdale

Link: http://wattsupwiththat.com/2014/01/31/open-letter-to-kevin-trenberth-ncar/