1

Kommentare zum Nature-Artikel ,,Climate Change: The Case of the Missing Heat”

Der Artikel in Nature Climate Change: The Case of the Missing Heat von Jeff Tollefson bekam bei WUWT und in der gesamten Blogosphäre sehr viel Aufmerksamkeit. Vieles in Tollefsons Artikel war eine vereinfachte Erklärung der Ergebnisse von Trenberth und Fasullo (2013) An apparent hiatus in global warming? Darüber haben wir bereits gesprochen. Siehe die Beiträge Trenberth and Fasullo Try to Keep the Fantasy Alive und More on Trenberth and Fasullo (2013) “An Apparent Hiatus in Global Warming?”

Anthony hatte völlig recht, als er die Aufmerksamkeit auf Tollefsons Artikel lenkte, zeigt dieser doch Argumente und Illustrationen, die schon vor Jahren von Skeptikern präsentiert worden waren; Argumente und Illustrationen, die von den Enthusiasten der globalen Erwärmung verworfen worden waren. Und Tollefson verlinkt ihn mit Trenberth und Fasullo.

Einen Punkt möchte ich von vornherein klarstellen. So weit ich das sagen kann hat niemand der von Nature interviewten Personen den Stillstand hinsichtlich der Erwärmung bestritten. Dieser Artikel ist ein Versuch, die zunehmenden Diskrepanzen zwischen den Modellsimulationen und den gemessenen globalen Temperaturen zu erklären. Und je mehr ich mich damit befasse, umso stärker gewinne ich den Eindruck, dass Tollefson manchmal ein wenig skeptisch ist.

Ein Problem bei Tollefsons Artikel: es geht darin nur um den Stillstand der Erwärmung. Er spricht nicht das Fehlen der Erwärmung im Pazifik und Nordatlantik bis zu Tiefen um 2000 m an, und zwar im Zeitraum 2003 bis 2012. Siehe Abbildung 1. Nur der Südatlantik und der Indische Ozean zeigen Erwärmung bis in die Tiefe. Abbildung 1 stammt aus diesem Beitrag:

Abbildung 1: Vom Menschen verursachte Treibhausgase können sich nicht entscheiden, welches Ozeanbecken sie erwärmen sollen. Und Tollefson vermittelt in seinem Artikel leider genauso viel Fehlinformationen wie Informationen.

Wie eben schon erwähnt, bestand das erste Problem des Artikels darin, dass er nicht die „fehlende Wärme“ in den Tiefen des Pazifiks während des letzten Jahrzehnts angesprochen hat. Genau dorthin sollte sich nämlich Trenberth und Fasullo (2013) zufolge die Wärme hin verzogen haben.

Das zweite Problem hat mit den PDO-Daten zu tun als Maßstab für die Stärke, Häufigkeit und Dauer von El Niño und La Niña-Ereignissen. Es ist der falsche Datensatz.

El Niño and La Niña-Ereignisse stehen im Brennpunkt des Artikels. Tollefson räumt das auch ein mit seinem Statement:

Und hier steht der äquatoriale Pazifik im Scheinwerferlicht.

Aber dann präsentiert er die PDO-Daten als das Maß aller Dinge für El Niño and La Niñas. Wahrscheinlich hat er das von Trenberth und Fasullo (2013) übernommen.

Zu El Niño und La Niña-Ereignissen kommt es im tropischen Pazifik, aber der PDO-Datensatz ist ein Abstraktum der Wassertemperaturdaten, abgeleitet aus dem außertropischen Nordpazifik und nicht aus dem tropischen Pazifik. Siehe Abbildung 2:

Abbildung 2

Die PDO-Daten repräsentieren im Grunde, wie eng die räumliche Verteilung der Wassertemperatur-Anomalien im Nordpazifik (nördlich von 20°N) die Verteilung während ENSO-Ereignissen durchmischt (wobei die räumliche Verteilung so aussieht, dass es während eines El Niño im Osten wärmer und in den zentralen und westlichen Gebieten kälter ist, während es bei einem La Niña genau umgekehrt ist). Weil diese räumliche Verteilung der Wassertemperatur im Nordpazifik auch noch auf den Luftdruck (und die damit zusammenhängende Verteilung der Windvektoren) reagiert, sind die PDO-Daten keine wahre Repräsentation der Häufigkeit, Größenordnung und Dauer von El Niño und La Niña-Ereignissen.

Weitere Informationen zur PDO, was sie repräsentiert und – noch wichtiger – nicht repräsentiert, gibt es in den Beiträgen hier, hier und hier.

Abbildung 3

Die große Überraschung des Nature-Artikels war die Abbildung, in der die PDO-Daten mit der globalen Temperatur verglichen worden waren. Dieser hatte man die Bezeichnung „The Pacific’s Global Reach” [etwa: Die globale Reichweite des Pazifiks] gegeben. Diese Abbildung zeige ich hier als Abbildung 3. Darin werden die JISAO PDO-Daten mit den globalen Temperaturanomalien verglichen. Im Text der Abbildung heißt es eindeutig:

Während der Perioden, in denen der PDO-Index positiv und der östliche Pazifik warm ist, sind die globalen Temperaturen rasch gestiegen. Während negativer Indexwerte hat die Erwärmung stagniert.

Außerdem heißt es in dem Artikel unter Verweis auf diese Abbildung:

Eine Analyse historischer Daten stützt diese Ergebnisse, zeigt doch eine solche, dass die Kaltphase der PDO zusammengefallen war mit einigen Jahrzehnten kühlerer Temperatur nach dem Zweiten Weltkrieg (siehe ‚The Pacific’s global reach’) und dass die Warmphase auf einer Linie mit einer starken Temperaturspitze der globalen Temperaturen zwischen 1976 und 1998 liegt.

Dies zeigt natürlich eindeutig, dass die Warmphase der PDO teilweise für die Erwärmung von 1976 bis 1998 verantwortlich ist. Wenn die PDO die Erwärmung anhalten kann, muss die PDO zur Erwärmung beigetragen haben. Das war jahrelang ein skeptisches Argument. Ich kann mich an ähnliche Graphiken schon vor 5 Jahren erinnern. Tatsächlich war diese Ansicht so populär, dass es bereits im Jahre 2008 bei SkepticalScience einen Artikel dazu gab.

Unglücklicherweise sind keine Mechanismen bekannt, mittels derer die PDO (wie sie durch den JISAO-Datensatz definiert wird) die globalen Temperaturen variieren kann. Die Wassertemperaturen des Nordpazifiks nördlich von 20°N sind umgekehrt proportional im Vergleich mit den PDO-Daten.

Jene Mechanismen existieren im tropischen Pazifik und zeigen sich in Gestalt von El Niños und La Niñas. Es gibt Indizes auf der Grundlage der Wassertemperatur hinsichtlich Stärke, Dauer und Häufigkeit von El Niños und La Niñas. Tatsächlich fordern Trenberth und Stepaniak (2001) in ihrem Artikel Indices of El Niño Evolution (online Ausgabe hier) die Verwendung der Wassertemperatur-Anomalien der NINO 3.4-Region des äquatorialen Pazifiks (in der Studie bezeichnet als N3.4). Siehe diese Abbildung für die genaue Örtlichkeit der N3.4-Region. Trenberth und Stepaniak (2001) haben den HadISST-Datensatz verwendet mit einem Anomalie-Vergleichszeitraum von 1950 bis 1979. Unglücklicherweise haben Trenberths und Stepaniak niemals eine Rechtfertigung für diese Basisperiode geliefert. Also wird es wohl besser sein, die gesamte Zeitspanne der Daten (1923 bis 2013) als Vergleichsbasis für die Temperaturanomalien in der N3.4-Region heranzuziehen.

Die Wassertemperaturdaten aus dem Gebiet NINO3.4 sind ein realistischer Index für Stärke, Häufigkeit und Dauer von El Niño und La Niña-Ereignissen. Daher wollen wir die mittleren Anomalien der Wassertemperatur in diesem Gebiet betrachten, und zwar für die zwei Erwärmungs- und die zwei Stillstandsperioden. Siehe Abbildung 4! Wir wollen die von Trenberth und Stepaniak (2013) festgelegten Zeiträume heranziehen:

Die monatliche Zeitreihe zeigt deutlich die multidekadische Struktur der PDO (dargestellt durch die schwarze Linie) mit positiven Phasen von 1923 bis 1942 und 1976 bis 1998 sowie negative Phasen von 1943 bis 1976 und nach 1999.

Komischerweise stimmen die von Trenberth und Fasullo (2013) festgelegten Perioden nicht mit jenen von Tollefson überein in seiner Abbildung ‚The Pacific’s Global Reach‘. Unabhängig davon zeigt meine Abbildung 4, dass die mittleren Anomalien der Wassertemperatur im NINO3.4-Gebiet während der beiden o. g. Warmphasen deutlich über Null lagen. Das bedeutet, dass El Niño-Ereignisse während dieses Zeitraumes dominiert haben. Die globalen Temperaturen sollten sich während solcher Zeiträume erwärmen, weil der tropische Pazifik mehr Wärme als „normal“ freisetzt und mehr Wasser, das wärmer als „normal“ ist, in die benachbarten Ozeanregionen gelangen lässt. Und während der beiden Stillstandsperioden von 1943 bis 1976 sowie nach 1999 liegen die mittleren Wassertemperatur-Anomalien im NINO3.4-Gebiet unter Null. Das bedeutet natürlich, dass der tropische Pazifik weniger Wärme als „normal“ freisetzt und auch weniger warmes Wasser in benachbarte Ozeanbecken gelangt. Und während dieser Zeiträume ist die globale Temperatur flach verlaufen oder hat sich leicht abgekühlt.

Abbildung 4

Nun könnte man sich fragen, warum hat Tisdale das alles gesagt, wenn es doch im Grunde die gleichen Ergebnisse zeitigt wie der PDO-Graph von Tollefson?

Der NINO3.4-Datensatz ist der richtige und PDO der Falsche. Die PDO repräsentiert nicht das Auftreten sowie Stärke und Dauer von El Niño und La Niña-Ereignissen. Die PDO ist lediglich eine El Niño und La Niña-Ereignissen folgende Erscheinung, zusammen mit dem Einfluss des Bodenluftdrucks im Nordpazifik.

Aber jetzt müssen wir betrachten, dass die NINO3.4-Daten nur die ENSO-Auswirkungen in einem kleinen Gebiet des äquatorialen Pazifik überdecken. Sie repräsentieren nicht die Prozesse von ENSO oder deren Folgeerscheinungen. Und auf keinen Fall können die NINO3.4-Anomalien der Wassertemperatur das warme Wasser zeigen, das nach starken El Niño-Ereignissen übrig bleibt. Dieses wird nach solchen Ereignissen in den benachbarten Ozeanbecken verteilt.

Weitere Fehlinformationen

Im Artikel heißt es (Fettdruck von mir):

Unmittelbar vor Eintritt des Stillstands war es in diesem Gebiet ungewöhnlich warm während des El Niño-Ereignisses von 1997/1998. Dieses sorgte auf der ganzen Welt für Wetterextreme, von Überschwemmungen in Chile und Kalifornien bis zu Dürren und Buschbränden in Mexiko und Indonesien. Aber es endete genauso schnell wie es begonnen hatte, und Ende 1998 hat sich im östlichen äquatorialen Pazifik wieder kälteres Wasser ausgebreitet – ein Anzeichen für die Schwester eines El Niño, nämlich La Niña. Noch wichtiger, der gesamte östliche Pazifik ist danach in eine Kaltphase gegangen, die mehr oder weniger bis heute anhält.

Der gesamte östliche Pazifik? Die PDO-Daten repräsentieren nicht den „gesamten östlichen Pazifik“. Wenn er an die Anomalien der Wassertemperatur denkt, liegt er ebenfalls falsch. Seit 1999 gab es eine ganze Reihe von El Niño-Ereignissen, und zwar 2002/2003 … 2004/05 … 2006/07 … und 2009/10. Folge: die mittlere Anomalie der Wassertemperatur (des Ostpazifiks) von Januar 1999 bis Dezember 2013 betrug +0,06°C im Vergleich zur Standard-Bezugsperiode der NOAA von 1971 bis 2000 für deren ReynoldsOI.v2-Daten. Und das ist weit entfernt von „einer Kaltphase, die mehr oder weniger bis heute anhält“. Siehe Abbildung 5!

Abbildung 5

Unsinn der Modelle

Weiter aus dem Artikel:

Zweitens, viele Forscher haben in den Simulationen der Klimamodelle eine entgegen gesetzte Verteilung gefunden. Sie spiegeln die gesamte Palette der Wechselwirkungen zwischen Ozean und Atmosphäre über den äquatorialen Pazifik hinaus. Sie tendieren dazu, einen Trend hin zu mehr El Niño-Ereignissen zu zeigen al seine Folge der globalen Erwärmung.

Klimamodelle können ENSO nicht angemessen simulieren, sind also irrelevant. Siehe die Beiträge von Guilyardi et al. (2009) Understanding El Niño in Ocean-Atmosphere General Circulation Models: Progress and Challenges sowie Bellenger et al. (2013) ENSO Representation in Climate Models: From CMIP3 to CMIP5. Einen Vorabdruck gibt es hier.

Dinge, die man übersehen hat

Das Folgende ist geschrieben worden für den Beitrag Comments on Stefan Rahmstorf’s Post at RealClimate “What ocean heating reveals about global warming. Die Diskussion dazu gilt auch für hier. Ich habe die Nummerierung der Abbildungen verändert und kleinere Überarbeitungen für diesen Beitrag vorgenommen.

Der Graph auf der linken Seite der Abbildung 6 zeigt, dass sich die Wassertemperaturen des Ostapzifiks kaum erwärmt haben, wenn überhaupt, und zwar während fast der gesamten letzten 32 Jahre … seit Beginn des ReynoldsOI.v2-Datensatzes der Wassertemperatur im November 1981. Der Ostpazifik (90°S bis 90°N; 180°W bis 80°W) macht etwa 33% der globalen Ozeanoberfläche aus. Die von Jeff Tollefson vorgelegten Studien gehen nicht auf dieses Fehlen der Erwärmung ein, und die Klimamodelle simulieren das nicht.

Abbildung 6

Das Gleiche gilt auch für das, was der Graph zur Rechten zeigt, nämlich die Anomalien der Wassertemperatur im Südatlantik sowie des Indischen und Westpazifischen Ozeans. Die Koordinaten stehen in der Bildüberschrift. Sie machen über 50% der globalen Ozeanoberfläche aus. Aus dieser Graphik sind einige Dinge erkennbar: (1) deren langzeitliche Erwärmung hängt ab von den El Niño-Ereignissen von 1986/87/88 sowie 1997/98 (und möglicherweise vom El Niño 2009/10); (2) sie kühlen sich nicht proportional ab während der Übergangsphasen zu den La Niñas von 1988/89 und 1998/01; aber (3) sie kühlen sich leicht ab über Jahrzehnte lange Perioden zwischen den El Niño-Ereignissen von 1986/87/88 und 1997/98 sowie zwischen 1997/98 und 2009/10.

Für eine Einführung in die Prozesse der natürlichen Erwärmung der globalen Ozeane gibt es den bebilderten Beitrag The Manmade Global Warming Challenge (42 MB).

Die Wassertemperaturen im Nordatlantik werden von einer anderen natürlichen Variabilität dirigiert, nämlich der Atlantischen Multidekadischen Oszillation AMO, die von Jeff Tollefson vollkommen übersehen worden ist. Wegen der AMO hat sich die Wassertemperatur dort mit einer viel größeren Rate erwärmt als die übrigen globalen Ozeane von Mitte der siebziger Jahre bis zu Beginn dieses Jahrhunderts. Aber die Wassertemperaturen des Nordatlantik deuten darauf hin, dass die AMO ihren Höhepunkt bereits überschritten hat. Siehe Abbildung 7! Falls sich die Geschichte wiederholt – und es gibt keinen Grund anzunehmen, dass sie das nicht tut – werden die Wassertemperaturen im Nordatlantik keine Erwärmung zeigen und sich tatsächlich noch ein paar Jahrzehnte lang abkühlen.

Abbildung 7

Anmerkung: Für weitere Informationen zur AMO siehe hier und meinen Blogbeitrag hier. Außerdem gibt es von mir hier eine Einführung zur AMO.

Schlussbemerkungen

Der Artikel von Jeff Tollefson zeigt, dass sich die klimawissenschaftliche Gemeinschaft in die richtige Richtung bewegen könnte – KÖNNTE!

Aber sie muss zu den Grundlagen zurückkehren: ENSO wird durch Sonnenlicht angetrieben. Und dafür gibt es, wie ich schon etliche Male zuvor erwähnt habe, die Arbeit von Trenberth et al. (2002) Evolution of El Niño–Southern Oscillation and global atmospheric surface temperatures. Darin heißt es:

Die negative Rückkopplung zwischen der Wassertemperatur und Flüssen an der Oberfläche kann so interpretiert werden: Sie zeigt die Bedeutung der Wärmefreisetzung während El Niño-Ereignissen und die Wärmeanreicherung während der La Niña-Ereignisse. Relativ klarer Himmel im zentralen und östlichen tropischen Pazifik erlaubt es der Sonnenstrahlung, in den Ozean einzutreten, was offensichtlich die unternormalen Wassertemperaturen beseitigt, aber die Wärme wird abtransportiert durch die Ekman-Spirale, Meeresströme und Wechselwirkungen zwischen Rossby- und Kelvin-Wellen, und die Wärme wird im tropischen Westpazifik gespeichert. Das ist nicht einfach nur eine Umverteilung der Wärme in den Ozeanen, sondern eine Widerherstellung der Wärme dort.

Mit anderen Worten, stärkere Passatwinde reduzieren die Wolkenbedeckung, was wiederum das Eindringen mehr Sonnenlichtes ermöglicht und zur Erwärmung des tropischen Pazifiks führt. Wenn also die stärkeren Passatwinde vermehrt zur Ansammlung warmen Wassers im westlichen tropischen Pazifik führen, bildet eine Zunahme der Sonneneinstrahlung den Treibstoff dafür. Noch viel detaillierter wurde dies behandelt unter der Überschrift abwärts gerichtete kurzwellige Strahlung im Gegensatz zu abwärts gerichteter langwelliger Strahlung während La Niña-Ereignissen in dem Beitrag Open Letter to the Royal Meteorological Society Regarding Dr. Trenberth’s Article “Has Global Warming Stalled?”

Link: http://wattsupwiththat.com/2014/01/18/comments-on-the-nature-article-climate-change-the-case-of-the-missing-heat/

Übersetzt von Chris Frey EIKE




Falls anthropogene Treibhausgase für die Erwärmung der globalen Ozeane verantwortlich sind…

Oder, aus einem anderen Blickwinkel betrachtet, man hat uns gesagt, dass – während sich die Lufttemperaturen nicht mehr erwärmen – sich die Ozeane in der Tiefe weiterhin erwärmen… und doch findet diese Erwärmung nicht im größten Ozeanbecken statt, dem Pazifik. Der Nordatlantik zeigt sogar Beweise für eine Abkühlung.

Außerdem sagen Kevin Trenberth und seine Jünger, dass die jüngste Serie von La Niña-Ereignissen dafür sorgen, dass sich der Pazifik erst in Tiefen unter 700 Metern erwärmt und dass sich als Folge davon die globale Erwärmung fortsetzt. Siehe: Meehl et al (2013)Balmaseda et al. (2013)Trenberth and Fasullo (2013).

Warum aber haben sich dann die jährlichen vertikalen Mitteltemperaturen des Pazifiks (0 bis 2000 m) geweigert, überhaupt irgendeine Erwärmung während des letzten Jahrzehnts zu zeigen? Die Daten für den Pazifik (0 bis 700 m, 0 bis 2000 m und 700 bis 2000 m) in Abbildung 2 zeigen etwas ganz anderes als das, was Trenberth & Co. behauptet haben.

Die Daten des Pazifik zeigen, dass die Erwärmung in einer Tiefe zwischen 700 und 2000 Meter einfach die Abkühlung kompensiert hat, zu der es in den oberen 700 Metern gekommen war. (Anmerkung: Die Grundlage für Temperaturanomalien in Tiefen zwischen 700 und 2000 Metern werden in diesem Beitrag besprochen).

Kein Wunder, dass Trenberth auf eine Re-Analyse zurückgreifen musste (anstatt auf Daten) für seinen kürzlichen Jubelschrei ‚Hey, ich habe die fehlende Erwärmung gefunden‘.

Wenn die Daten nicht die auf Computermodellen basierenden Erwartungen der klimawissenschaftlichen Gemeinschaft erfüllen, passt diese Gemeinschaft die Daten einfach an die Modelle an. Wenn dann aber die angepassten Daten immer noch nicht die Erwartungen der klimawissenschaftlichen Gemeinschaft erfüllen, verwirft diese Gemeinschaft die Daten und benutzt stattdessen den Output eines anderen Computermodells, Re-Analyse genannt. Unter dem Strich: Anstatt zuzugeben, dass die Hypothese der vom Menschen verursachten globalen Erwärmung in Bausch und Bogen gescheitert ist, pflegen sie die Fortsetzung eines Mythos‘.

Eine kurze Bemerkung zu den vertikalen mittleren Temperaturdaten:

Die vertikalen mittleren Temperaturdaten des NODC ist die Temperatur-Komponente ihrer Daten zum ozeanischen Wärmegehalt. Die andere Komponente ist der Salzgehalt.

Weiterführende Literatur:

Die Daten des ozeanischen Wärmegehaltes und dessen Komponenten sind im besten Falle fragwürdig, im schlimmsten Falle frei erfunden. Weitere Informationen hier:

Link: http://wattsupwiththat.com/2013/12/19/if-manmade-greenhouse-gases-are-responsible-for-the-warming-of-the-global-oceans/

Übersetzt von Chris Frey EIKE




Video: Bemerkungen zur vom Menschen verursachten globalen Erwärmung – Episode 2: Einführung in den Stillstand bei der globalen Erwärmung

Ich habe an einem ziemlich großen Thanksgiving-Treffen teilgenommen. Anwesend waren etwa 18 Personen, hauptsächlich Erwachsene, die um 2 Tische verteilt saßen. Einer der grüneren Teilnehmer sagte etwas zur globalen Erwärmung, und meine Antwort lautete, dass diese sich verlangsamt habe und dass es seit über einem Jahrzehnt überhaupt keine Erwärmung der globalen Temperaturen mehr gegeben habe. Meine Aussage stieß bei den meisten auf Unglauben. Glücklicherweise hatten auch zwei der Teenager von diesem Stillstand gehört. (Wir lagen später bzgl. des Stillstands auf einer Linie). Dies führte zu einer Anzahl schneller Diskussionen, aber am überraschendsten für mich war, dass nur so wenige Erwachsene von dieser Verlangsamung und dem Stillstand gehört hatten … und dass die Klimawissenschaftler nicht in der Lage waren, diesen zu erklären. Ist der Stillstand der globalen Erwärmung irgendwie der Aufmerksamkeit der Mainstream-Medien in den USA entgangen?

Youtube erlaubt die Untertitelung des Videos, durch Einschalten der Untertiteloption. Zusätzlich können die Untertitel übersetzt werden. Dazu im Untertitelmenuepunkt die gewünschte Sprache auswählen

Hier folgen die Links zu den im Video präsentierten Websites und Studien:

• Artikel von Kevin Trenberth für die Royal Meteorological Society Has Global Warming Stalled? (Meine Antwort auf diesen Artikel findet sich hier.)

• Von Storch et al. (2013) “Can Climate Models Explain the Recent Stagnation in Global Warming?”

• Fyfe et al. (2013) “Overestimated global warming over the past 20 years

Und natürlich habe ich ein paar Graphiken mit Vergleichen zwischen Modellen und Daten eingefügt, die ebenfalls zeigen, wie schlecht die Modelle die globalen Temperaturen während der letzten Jahre simuliert haben. Weitere zahlreiche Beiträge zu diesen Themen und anderen Dingen, an denen die Modelle gescheitert sind, finden sich auf meinem Blog Climate Observations. Man beachte auch mein E-Buch Climate Models Fail.

In folgenden Videos werden wir die Entschuldigungen beleuchten, die die Enthusiasten der globalen Erwärmung angesichts des Stillstands vorbringen.

Die Videoreihe „Bemerkungen zur vom Menschen verursachten globalen Erwärmung“ enthält auch:

Episode 1 – The Hiroshima Bomb Metric

Link: http://wattsupwiththat.com/2013/12/05/video-comments-on-human-induced-global-warming-episode-2-introduction-to-the-halt-in-global-warming/

Übersetzt von Chris Frey EIKE




Palmströms Axiom

Das IPCC justiert seine Kurzzeit-Prognose der Erwärmung nach unten

Von Bob Tisdale

Dieser Beitrag zeigt ein weiteres Mal, wie dürftig die Klimamodelle eine der wichtigsten Klimavariablen simulieren: die globale erdnahe Lufttemperatur. Der Beitrag ist als PDF [in Englisch] herunterladbar, falls ihn jemand als Anhang meinem E-Buch Climate Models Fail beifügen möchte. Mein Beitrag No Matter How the CMIP5 (IPCC AR5) Models Are Presented They Still Look Bad war zusammen damit auf WattsUpWithThat hier veröffentlicht worden. Wenn man durch den WUWT-Kommentarbereich durchblättert, wird man folgenden Kommentar von Bill Illis finden:

Bill Illis says:

October 5, 2013 at 6:10 am (Edit)

Jochem Marotzke vom Max Planck Institut sagte in einem Vortrag vor der Royal Society zum IPCC-Zustandsbericht:

“Als Folge der Pause [bei der Erwärmung] … wurde im Kapitel 11 des IPCC Berichts die Einschätzung der Bandbreite der kurzfristig erwarteten Erwärmung aus dem CMIP5 „Roh“-Modell nach unten erweitert. Dies zusätzlich zu einer 10%-Verminderung, weil einige Modelle eine Klimasensitivität enthalten, die etwas zu hoch ist.“

http://environmentalresearchweb.org/cws/article/news/54904

Klar doch: Wenn wir uns die Abbildungen des IPCC (Abb. 11.9 (meine Abb. 1) und Abb. 11.25 (meine Abb. 2)) anschauen, sehen wir, wie das IPCC die Kurzfrist-Vorhersagen heruntergesetzt hat – ohne die Langzeit-Prognosen zu ändern.

Abb 1 (Volle Größe hier.)

Abb. 2 (Volle Größe hier.)

Das IPCC erläutert die Abbildungen (Figures 11.9 und 11.25) im Kapitel 11 des 5. Zustandsberichts (6MB .pdf). Abbildung 11.9 wird auf Seite 24/123 (Adobe Acrobat Seitennummerierung) behandelt unter der Überschrift “11.3.2 Near-Term Projected Changes in the Atmosphere and Land Surface” und in der Teilüberschrift “11.3.2.1.1 Global mean surface air temperature.”

Abbildung 11.9 befindet sich auf Seite 102/123.

Die Erläuterungen der Abb. 11.25 stehen unter der Überschrift “11.3.6.3 Synthesis of Near-Term Projections of Global Mean Surface Air Temperature” auf Seite 53/123 ff.

Abb. 11.25 befindet sich auf Seite 120/123.

Der Artikel vom 3. Oktober 2013, den Bill Illis mit dem EnvironmentalResearchWeb der Royal Society meeting discusses IPCC fifth assessment report verlinkte, wurde von Liz Kalaugher geschrieben. Zu Jochem Marotzke wurde in diesem Artikel angemerkt:

Jochem Marotzke vom Max Planck Institut für Meteorologie war Mitglied des IPCC-Teams, das wissenschaftliche Belege für Temperatur-Trends während der jüngsten zehn bis 15 Jahre sammelte.

In jenem Artikel versuchte Jochem Marotzke die Bedeutung der Pause herunterzuspielen:

“Derartige Perioden kommen immer wieder in den Aufzeichnungen vor, aber an dieser letzten hat sich eine enorme Debatte entzündet,” wie Marotzke vor den Delegierten der Royal Society sagte. “Heißt diese Pause, dass die globale Erwärmung zum Stillstand gekommen ist? Nein. Das Klimasystem erwärmt sich weiter. Das Meereis schmilzt weiter, die Ozeane nehmen weiter die Wärme auf, der Meeresspiegel steigt weiter.”

Aber, wenn “derartige Perioden immer wieder in den Aufzeichnungen vorkommen,” warum muss dann das IPCC die „Einschätzung der Bandbreite der kurzfristig erwarteten Erwärmung aus dem CMIP5 „Roh“-Modell nach unten …“ erweitern und dazu noch eine 10%-Verminderung einführen, weil einige Modelle eine Klimasensitivität enthalten, die etwas zu "hoch“ sei?
Und wenn das so häufig vorkommt, warum musste das IPCC dann eigens ein Team bilden, das „wissenschaftliche Belege für Temperatur-Trends während der jüngsten zehn bis 15 Jahre“ sammeln sollte?

Die Antwort auf beide Fragen ist, dass die KLIMAMODELLE die in den Aufzeichnungen der Temperatur bestehenden multidekadalen Veränderungen NICHT SIMULIEREN können. Diese multidekadalen Veränderungen werden als etwa dreißigjährige Erwärmungsperioden mit nachfolgenden dreißigjährigen Perioden ohne Erwärmung interpretiert. Das haben wir in diesen Beiträgen behandelt: IPCC Still Delusional about Carbon Dioxide und Will their Failure to Properly Simulate Multidecadal Variations In Surface Temperatures Be the Downfall of the IPCC? (Hierzu auch Beiträge in hier und hier.)

Jene multidekadalden Veränderungen sind in der Öffentlichkeit bekannt und deshalb habe ich (im „Downfall“-Beitrag) den Unterschied zwischen der IPCC-Projektion der Temperatur-Anomalie auf der Nordhemisphäre und der Vorstellungen in der Öffentlichkeit über das Eintreten der Erwärmung beruhend auf den vergangenen Veränderungen geschrieben … Dabei habe ich angenommen, dass sich die Temperatur zukünftig weiter erwärmen wird (Abb 3.)

Abb. 3

Die Öffentlichkeit weiß auch, dass die IPCC-Modelle auf die Aufwärtsbewegung einjustiert wurden, die sich in den Mitt-1970ern einstellte (Mauritsen, et al. (2012) Tuning the Climate of a Global Model) [gebührenpflichtig]. Hier ist ein Nachdruck. Dabei habe ich den Fehler gemacht, den Einfluß von multidekadalen Perioden ohne Erwärmung auf die IPPC-Langzeit-Prognosziererei (bis 2100) nicht zu berücksichtigen.

Abschließend: Meines Wissens hat das IPCC seine Langzeit-Prognosen nicht auf der Grundlage der verminderten Kurzfrist-Vorhersagen heruntergesetzt.

Die Ergänzung 3 zu den Klimamodellen ist falsch (SUPPLEMENT 3 TO KLIMAMODELLS FAIL)

Wer die Beiträge zu meinem Buch Klimamodells Fail als PDFs sammelt, kann diesen Beitrag hier herunterladen.

Supplement 1 ist hier. Es ist ein Nachdruck des Beitrags Models Fail: Land versus Sea Surface Warming Rates.

Supplement 2 ist hier. Es ist ein Nachdruck des Beitrags IPCC Still Delusional about Carbon Dioxide.

Originalartikel hier.

Bob Tisdale stellt sich in seiner Webseite vor:

Ich bin unabhängiger Klimaforscher und Autor des E-Buches: “Who Turned on the Heat?”. Dort wird erklärt und illustriert, wie und warum die Daten zur Meerestemperatur und zur Wärmeaufnahme der Ozeane natürlich zu Stande kamen und nicht als Folge von menschengemachten Treibhausgasen. Ich schreibe regelmäßig für eine weltweit am meisten aufgesuchte Webseite über den Klimawandel: WattsUpWithThat.

Übersetzung: Helmut Jäger, EIKE

 




Wärmepotential tropischer Zyklone – alles hängt von der Präsentation ab

Im Begleittext heißt es:

Die enorme Verstärkung von Supertaifun Haiyan wurde durch „ideale“ Umweltbedinungen möglich – nämlich geringe Windscherung und warmes Ozeanwasser. Die maximalen geschätzten Windböen betragen 195 mph [ca. 310 km/h], das liegt deutlich über der Grenze zur [höchsten] Kategorie 5, einer Klassifikation, die auf atlantische und ostpazifische Zyklone angewendet wird. Eingezeichnet ist hier das mittlere tropische Wärmepotential für Zyklone [the average Tropical Cyclone Heat Potential TCHP] vom 28. Oktober 2013 bis zum 3. November 2013. Die Darstellung stammt direkt von  NOAA View. Dieser Datensatz, entwickelt von NOAA/AOML, zeigt die Gesamtmenge der verfügbaren Wärmeenergie, die der Sturm absorbieren kann, nicht nur an der Oberfläche, sondern integriert über die ganze Wassersäule. Tiefere, wärmere Wassergebiete sind violett, obwohl jede Region der Farbstufen von rosa bis violett genügend Energie aufweist, um die Verstärkung des Sturmes auszulösen. Die gepunktete Linie repräsentiert die Zugbahn und Vorhersagedaten bis 16.00 UTC am 7. November 2013.

Um diese Daten bei NOAA View nachzuprüfen, klicke man auf Ocean –> Temperature –> Heat Content –> Energy for Hurricanes. Die Ansicht wird als Beta-Version geführt. Man beachte den Widerruf oben auf der Ansicht (Fettdruck von mir):

NOAA View gewährt Zugang zu den Karten der NOAA-Daten aus Satelliten, Modellen und anderen Quellen für die Analyse. NOAA View soll als Bildungs- und Beratungsstelle dienen und ist keine offizielle Quelle von NOAA-Daten als Stütze für Entscheidungen oder wissenschaftliche Zwecke.

Irgenwie fehlt dieser Widerruf auf der Webpage des NOAA Environmental Visualization Laboratory Deep, Warm Water Fuels Haiyan Intensification, der von Alarmisten überall verbreitet worden ist.

Der Datensatz zeigt das NOAA/AOML. Die entsprechende Website ist hier. Wenn man auf Northwest Pacific klickt auf den Menüfeldern links hier, kann man das gewünschte Datum auswählen. Die Karte rechts in der Abbildung oben zeigt das Wärmepotential tropischer Zyklone im Nordwestpazifik vom 7. November 2013, aber mit der Skalierung von NOAA/AOML. Es sieht definitiv längst nicht so warm aus, vor allem dort, wo Haiyan zu jener Zeit lag, wenig südöstlich der Philippinen. Tatsächlich verlief die Zugbahn von Haiyan durch die „gelben“ Gebiete mittleren Niveaus. Sie verlief definitiv nicht im wärmsten Gebiet der Skala. Mit den ein gezeichneten Punkten in der Zeichnung kann man auch sehen, dass der „Hot Spot“ südlich des Äquators lag. Dies fehlt in der linken Karte vom NOAA Environmental Visualization Laboratory.

Für Interessierte: die folgende Animation zeigt den Verlauf vom 28. Oktober bis zum 8. November:

(Wenn die Animation nicht gleich durch Anklicken des Bildes startet, schaue man hier: http://bobtisdale.files.wordpress.com/2013/11/nw-pacific-tchp-28-10-to-08-11.gif)

Es sieht so aus, als basiere der Hype der globalen Erwärmungs-Alarmisten einfach auf der Skalierung des NOAA Environmental Visualization Laboratory auf ihrer Website Deep, Warm Water Fuels Haiyan Intensification, die „keine offizielle Quelle von NOAA-Daten zur Stützung von Entscheidungen oder wissenschaftliche Zwecke sind“.

Aktualisierung (von Anthony Watts): Ein wichtiger Punkt hier ist, dass Taifune niemals den Äquator überqueren. Hayan hat sich auf 6°Nord und 156°Ost gebildet, direkt am Rand der wärmsten Wassertemperatur und direkt am Rand der für die Bildung noch geeigneten Zone. Innerhalb von 5° nördlich und südlich des Äquators bilden sich keine Hurrikane (hier).

Der größte Teil der Zugbahn von Haiyan lag in kühleren Gebieten nordwestlich, auch zu der Zeit, als er in Kategorie 5 hochgestuft worden ist und selbst noch nach dem Übertitt auf Land, wo sich die Windgeschwindigkeit verringerte:

Ein anderer wichtiger Punkt ist, dass warmes Wasser (und höheres TCHP) am Äquator nicht ungewöhnlich sind, sondern normal auf dem ganzen Planeten:

Link: http://wattsupwiththat.com/2013/11/10/tropical-cyclone-heat-potential-its-all-in-the-presentation/#more-97171

Übersetzt von Chris Frey EIKE




IPCC immer noch von Kohlendioxid besessen

Das IPCC hat sich die am meisten in die Irre führende Graphik in der Endversion der Summary for Policymakers bis zum Schluss aufgehoben. Es handelt sich um ihre Abbildung SPM 10, in diesem Beitrag als Abbildung 1 gelistet [Bild rechts!] Sie zeigt die Anomalien der globalen  Temperatur als Funktion von anthropogenen Kohlendioxid-Emissionen.

Abbildung 1 rechts

Der Begleittext beginnt mit den Worten:

Die globale mittlere Temperatur nimmt zu als Funktion der Akkumulation der Gesamt-CO2-Emissionen, belegt durch verschiedene Beweisketten. Die Ergebnisse von Multi-Modellen aus einer Hierarchie von Klima-Kohlenstoffzyklus-Modellen…

Weiter braucht man nicht zu lesen. Die Illustration basiert ausschließlich auf Klimamodellen.

Klimamodelle haben sich so weit von der Realität entfernt, dass man sie keinesfalls heranziehen kann zu unterscheiden, ob die globale Erwärmung natürlichen Prozessen oder vom Menschen verursachten Faktoren geschuldet ist. Auch kann man sie nicht für die Vorhersage der zukünftigen Klimaentwicklung nutzen, die auf Projektionen anthropogener Treibhausgase basieren.

Die Klimawissenschaftler und –modellierer haben bisher nur bewiesen, dass sie in der Lage sind, komplexe numerische Modelle zu erzeugen und dass sie in der Lage sind, diese Modelle so zu frisieren, dass sie in etwa die Erwärmungsrate während der jüngsten Erwärmungsperiode abschätzen können, die Mitte der siebziger Jahre begonnen und etwa zur Jahrtausendwende geendet hatte, aber nur während dieses Zeitraumes. Aber unabhängig davon sind selbst die Raten der modellintern erzeugten numerischen Erwärmung während jener letzten Erwärmungsperiode falsch.

Bemerkung: Vieles in diesem Beitrag ist Hintergrundinformation. Er zeigt, wie schlecht die Klimamodelle die globalen Wassertemperaturen seit 1880 simuliert haben. Wenn man nicht daran interessiert ist, wie, wo und warum die Klimamodelle nicht in der Lage sind, die Temperaturen über etwa 70% der Fläche des Planeten zu simulieren, dann scrolle man bitte vorwärts zu dem Abschnitt mit der Überschrift Die Klimamodelle unterstützen die Hypothese einer anthropogen induzierten Erwärmung nicht nach Abbildung 15.

Einführung

Wir verglichen Daten und die Ergebnisse von Klimamodellen bzgl. der globalen Temperatur (Festland und Ozeane) seit 1880 in dem Beitrag Model-Data Comparison with Trend Maps: CMIP5 (IPCC AR5) Models vs New GISS Land-Ocean Temperature Index. Für mein Buch Climate Models Fail habe ich die Werte in den Vergleichen mit 1914, 1945 und 1975 überarbeitet (an Stelle von 1917, 1944 und 1976). Die Werte von 1914 und 1975 wurden von Dr. Leif Svalgaard berechnet. Siehe seine Kommentare hier und hier zu diesem Beitrag auf WattsUpWithThat. Und für das Jahr 1975 habe ich mich auf den Statistiker Tamino bezogen. Der Gebrauch dieser Werte wird hoffentlich Behauptungen der Rosinenpickerei vermeiden.

In diesem Beitrag betrachten wir die Anomalien der globalen Wassertemperatur, beginnend im Jahre 1880 und endend in diesem Jahr 2013. Der Datensatz ist ERSST.v3b – der auch vom GISS in seinem Festland-Ozean-Index verwendet wird – um die Konsistenz mit dem vorigen Beitrag und mit Climate Models Fail zu wahren. Die Modelle sind das Mittel des Multi-Model-Ensembles der Simulation der Wassertemperaturen für die CMIP5-Modelle (IPCC AR 5) unter Betrachtung der historischen und der RCP6.0-Szenarien [?]. Siehe auch den Beitrag On the Use of the Multi-Model Mean. Wir unterteilen die Daten und Modelle in zwei Erwärmungsperioden und zwei Perioden mit Abkühlung bzw. verlangsamter Erwärmung während der gleichen Werte 1914, 1945 und 1975. Weil die Temperaturdaten Festland plus Ozean nicht die gleichen Werte haben, scheinen die Punkte 1914, 1945 und 1975 etwas seltsam. Man betrachte Abbildung 2:

Abbildung 2

Ja, die Modelle agieren so schlecht.

Es ist ziemlich bemerkenswert, dass Klimamodellierer seit mehreren Jahrzehnten versucht haben, den globalen Temperaturverlauf abzubilden und vom CO2 als Treiber der globalen Erwärmung schwadronieren – wenn Klimamodelle die Temperaturen auf 70% der Erdoberfläche seit 1880 nicht simulieren können. Der einzige Grund, warum die Modellierer dem während der jüngsten Erwärmungsperiode näher kamen, besteht darin, dass sie ihre Modelle auf diesen Zeitraum abgestimmt haben. (Siehe Mauritsen et al. „Tuning the Climate of a Global Model”, paywalled. Vorabdruck hier.)

Die linearen Trends wurden berechnet durch EXCEL.

Für die Diskussion jedes Zeitraumes werden die Modelle verglichen mit auf Beobachtungen und Messungen basierenden Daten unter Verwendung von:

● Zeitreihen-Graphen

● Trendverteilungen, die Erwärmungs- und Abkühlungsraten in °C pro Jahr zeigen und

● Trends auf Basis zonaler Mittelung.

Beginnen wir mit der Periode, in der die Modelle noch die besten Ergebnisse zeigen, und bewegen uns dann in der Zeit rückwärts.

Die jüngste Erwärmungsperiode (von 1975 bis 2013)

Die globalen Temperaturen (Festland + Ozeane) haben im Jahre 2001 aufgehört zu steigen [hier und der Beitrag hier]. Selbst dann noch zeigen die Modelle bis zur Gegenwart eine Fortsetzung der Erwärmung. Also betrachten wir dieses Jahr 2013 als Endpunkt der jüngsten Erwärmungsperiode.

Abbildung 3 zeigt die modellierte Erwärmungsrate der globalen Wassertemperatur, die etwa 40% größer ist als der beobachtete Trend der Periode 1975 bis 2013. Man behalte im Hinterkopf, dass die Modelle auf die beobachteten Temperaturen während des größten Teils dieses Zeitraumes abgestimmt worden sind.

Abbildung 3

Die Modelle überschätzen nicht nur die Erwärmung insgesamt in dieser Periode, sie erfassten auch nicht die Zeiten, in denen sich die Wassertemperatur erwärmt (und abgekühlt) hat sowie das Ausmaß der Erwärmung (oder Abkühlung). Siehe Abbildung 4:

Abbildung 4

Die zeitliche und räumliche Verteilung der Erwärmung (oder Abkühlung) der Wassertemperatur trägt dazu bei, wann und wo die Temperaturen auf dem Festland variieren. Aufgrund des Versagens der Modelle hinsichtlich der angemessenen Simulation der Wassertemperatur ist es daher unwahrscheinlich, dass sie angemessen die Temperaturanomalien des Festlandes simulieren können.

Die im 5. Zustandsbericht des IPCC verwendeten Modelle haben bei der Erfassung von Folgendem versagt:

● Die extreme Erwärmung des Nordatlantik, verursacht durch die Atlantische Multidekadische Oszillation (siehe Ruiz-Barradas et al. (2013). Damit lässt sich erklären, warum die Modelle die Rate des polaren Verstärkungsfaktors [?] in der Nordhemisphäre nicht simulieren können und auch nicht die Rate des Eisverlustes in der Arktis (siehe Stroeve et al. 2012 „Trends in Arctic sea ice extent from CMIP5, CMIP3 and Observations”, paywalled).

● Die Abkühlung des Südlichen Ozeans, welche erklärt, warum die Klimamodelle die Meereisausdehnung in den Meeresgebieten um die Antarktis nicht simulieren können.

● Die Verteilung von Erwärmung und Abkühlung im Pazifik. Ursache hierfür ist das Versagen der Modelle bei der angemessenen Simulation der gekoppelten Ozean-Atmosphäre-Prozesse in Zusammenhang mit El Niño und La Niña-Ereignissen. Siehe hier und hier.

Anmerkung: Weitere Informationen über die Atlantische Multidekadische Oszillation AMO gibt es hier sowie in meinem Beitrag hier. Eine Einführung zu AMO von mir gibt es hier.

In Abbildung 5 sind die Erwärmungs- und Abkühlungsraten auf Basis eines zonalen Mittels dargestellt. Die Variablen für die Kurven des zonalen Mittels in diesem Beitrag sind die Trends in °C pro Dekade und sind auf der vertikalen y-Achse aufgetragen. Die horizontale x-Achse ist die Breite mit dem Südpol (bei -90) links und dem Nordpol (90) rechts sowie dem Äquator bei der Null-Breite. Die Graphen des zonalen Mittels in diesem Beitrag zeigen die Erwärmungs- und Abkühlungsraten der Wassertemperatur in den verschiedenen Breiten.

Abbildung 5

Wie Abbildung 5 zeigt, haben die Modelle für den Zeitraum 1975 bis 2013:

● die Erwärmung der Wassertemperatur in den Tropen um etwa 50% überschätzt,

● die Erwärmung der mittleren Breiten der Nordhemisphäre unterschätzt und

● keine Ähnlichkeit der Erwärmungs- und Abkühlungsraten der Wassertemperatur der Ozeane südlich etwa 35° südlicher Breite gezeigt.

Diese schlechte Leistung wirft die Frage auf, wie die Modellierer jemals hoffen konnten, jemals die Temperaturen auf dem Festland simulieren zu können.

Die Abbildungen 3, 4 und 5 zeigen, wie schlecht die letzte Generation von Klimamodellen (CMIP5) die Erwärmung (und Abkühlung) der globalen Wassertemperatur während der jüngsten Erwärmungsperiode von 1975 bis 2013 simuliert hat – ein Zeitraum, an den sie „angepasst“ wurden. Die Modelle weisen keine Verbesserungen im Vergleich mit früheren Perioden auf.

Die Periode mit geringerer Erwärmung Mitte des 20. Jahrhunderts (1945 bis 1975)

Den ERSST.v3b-Daten zufolge (Abbildung 6) haben sich die Wassertemperaturen von 1945 bis 1975 deutlich langsamer erwärmt. (Siehe dazu auch die Diskussion der HADSST3-Daten im Anschluss an Abbildung 8). Die Modelle schätzten, dass die Abkühlung während dieser Zeit im Wesentlichen eine Reaktion auf den Ausbruch des Mount Agung in den Jahren 1963/1964 ist.

Abbildung 6

Die Unterschiede treten sogar noch deutlicher hervor, wenn wir die Karten der Erwärmungs- und Abkühlungstrends während dieses Zeitraumes betrachten (Abbildung 7)

Abbildung 7

Während der Periode von 1945 bis 1975 konnten die IPCC-Modelle des AR 5 nicht simulieren:

● die Abkühlung der Wassertemperatur im Nordatlantik in Verbindung mit der AMO und

● die Erwärmung der Wassertemperatur in der gesamten Südhemisphäre.

Deutlicher zeigen dies die Erwärmungs- und Abkühlungsraten, wenn die Daten und die Modellergebnisse auf Basis zonaler Mittel dargestellt werden (Abbildung 8)

Abbildung 8

Bemerkung: Das UKMO überarbeitete ihren Datensatz der Wassertemperatur als Folge der Ergebnisse von Thompson et al 2009 Identifying signatures of natural climate variability in time series of global-mean surface temperature: Methodology and Insights. Siehe auch Kennedy et al. 2013 Part 1 und Part 2.

Zu den größten Änderungen an den HADSST-Daten kam es von den vierziger bis zu den sechziger Jahren. Die angepassten HADSST3-Daten der Wassertemperatur des UKMO zeigen jetzt Abkühlung im Zeitraum 1945 bis 1975 – eine Abkühlung, die auf magische Weise auf einer Linie mit den Modellen liegt (Abbildung 9).

Abbildung 9

Erwärmungsperiode Anfang des 20. Jahrhunderts (1914 bis 1945)

Am offensichtlichsten wird das Scheitern der Modelle bei der Abbildung der Erwärmungsperiode zu Beginn des 20. Jahrhunderts (1914 bis 1945). Diese stach in Abbildung 2 hervor wie ein erhobener Daumen und sieht in Abbildung 10 nicht besser aus. Die Anomalien der globalen Wassertemperatur zeigten eine Rate von 0,125°C pro Dekade, aber die Modelle zeigten eine Rate von lediglich 0,036°C pro Dekade, FALLS sich das Wasser durch anthropogene Treibhausgase einschließlich Kohlendioxid erwärmt hätte. Die beobachtete Erwärmung war etwa 3,5 mal größer als die modellierte Erwärmung. Diese zusätzliche beobachtete Erwärmung muss daher durch die natürliche Variabilität verursacht sein – sie kann nicht erklärt werden durch die vermuteten Einwirkungen einer von den Modellen gezeigten anthropogenen Erwärmung. Und das ist ein gigantisches Problem für die Hypothese einer anthropogen induzierten Erwärmung, das wir weiter unten in diesem Beitrag noch ansprechen werden.

Abbildung 10

Schaut man auf die Trendkarten (Abbildung 11), muss man nicht groß ins Detail gehen, wo die Modelle gescheitert sind. Sie haben die Erwärmung nahezu nirgendwo abbilden können. Wie erbärmlich ist das denn!?

Abbildung 11

Und wie Abbildung 12 zeigt, wird das Scheitern auch durch die Trends der zonalen Mittel gestützt.

Abbildung 12

Die frühe Abkühlungsperiode (1880 bis 1914)

Den im AR 5 verwendeten Modellen zufolge hätte sich die Wassertemperatur von 1880 bis 1914 mit einer Rate von etwa 0,03°C pro Dekade erwärmen sollen (Abbildung 13), aber den ERSST.v3b-Daten der NOAA zufolge hat sich das Wasser mit einer starken Rate von über -0,1°C pro Dekade abgekühlt. Die Modelle haben die Wirklichkeit um etwa 0,13°C pro Dekade verfehlt.

Abbildung 13

Die Trendkarten in Abbildung 14 und die beobachteten Trends auf Basis zonaler Mittelwerte (Abbildung 15) zeigen, wie schlecht die Modelle die Wassertemperatur während dieses Zeitraumes simuliert haben!

Abbildung 14

Abbildung 15

Die Klimamodelle unterstützen die Hypothese einer anthropogen induzierten Erwärmung nicht

Vieles in diesem Beitrag bis hier war Hintergrundinformation.

Man erinnere sich, dass das IPCC seine klimamodellbasierten Hypothesen in Abbildung 1 [oben rechts] präsentiert hat: 1. die globalen Temperaturen haben sich aufgrund akkumulierter CO2-Emissionen von 1850 bis zur Gegenwart erwärmt, und 2. die globalen Temperaturen werden auch in Zukunft steigen aufgrund der Klimamodell-Projektionen.

Die virtuellen Wassertemperaturen in den Klimamodellen werden zum Steigen gezwungen hauptsächlich durch die vermuteten Auswirkungen gut durchmischter anthropogener Treibhausgase, wobei Kohlendioxid die dominante Rolle spielt (siehe Abbildung 16). Beispiel: Den von GISS in ihren Klimamodellen zugrunde gelegten Antrieben zufolge [hier] haben die Klima-Antriebe in Verbindung mit gut durchmischten Treibhausgasen mit einer Rate zugenommen, die  in der jüngsten Erwärmungsperiode von 1975 bis 2011 3,8 mal höher lag als in der Erwärmungsperiode zuvor von 1914 bis 1945.

Abbildung 16

Die Klimamodellierer haben dann die hypothetische Erwärmung in den Klimamodellen mit anderen fabrizierten Klimatreiber-Datensätzen unterdrückt (siehe Abbildung 17). Verwendet man jedoch noch einmal die Antriebe nach GISS, kann man erkennen, dass die Gesamtantriebe während der späteren Erwärmungsperiode immer noch eine höhere Rate der Zunahme zeigen und dass diese immer noch in der früheren Erwärmungsperiode 3,8 mal höher lag als in der späteren von 1975 bis 2011.

Abbildung 17

Dann sind die Modelle auf der Grundlage all der Unmengen von Vermutungen bei der Programmierung seitens der Modellierer durch ihre programmierten Routinen gelaufen und haben einen Salat von virtuellen Wassertemperaturen hervor gewürgt (Abbildung 18). Durch keinen großen Zufall haben sich die modellierten Wassertemperaturen während der späteren Erwärmungsperiode mit einer Rate erwärmt, die 3,9 mal höher lag als während der früheren Erwärmungsperiode von 1914 bis 1945. (Man beachte, dass es in Abbildung 18 2 weitere Jahre von Modellergebnissen der späteren Erwärmungsperiode gibt als in den Antriebsgraphiken der Abbildungen 16 und 17. GISS hat ihre Antriebe bis 2013 nicht aktualisiert).

Abbildung 18

Quintessenz der Modelle: Den als Input verwendeten Antrieben und den Multi-Modell-Ensembles der jüngsten und größten Generation von Klimamodellen (CMIP%) zufolge hätten sich die Wassertemperaturen während der späteren Periode (1975 bis 2013) fast 4 mal schneller erwärmen sollen als sie es während der ersten Erwärmungsperiode (1914 bis 1945) getan haben.

Abbildung 19

Aber zum Unglück für die Modelle zeigt Abbildung 19, dass die tatsächlich beobachtete Erwärmungsrate während der späteren Periode geringer war als während der früheren Periode. Das heißt, die Wassertemperaturen erwärmten sich während der ersten Periode um 25% schneller als während der späteren Periode.

Geschenkt, während der letzten 12 Jahre der späteren Erwärmungsperiode hat sich die globale Wassertemperatur überhaupt nicht erwärmt. Wir könnten die Daten der gegenwärtigen Stillstandsperiode eliminieren (2002 bis 2013 zum Beispiel) und zeigen, dass die Erwärmung während der verkürzten späteren Erwärmungsperiode (1975 bis 2001) vergleichbar war mit dem Trend der früheren Periode. Aber das hilft den Modellen immer noch nicht.

Anmerkung: Das Folgende ist die Zusammenfassung von Kapitel 4.4 aus Climate Models Fail. Obwohl in diesem Kapitel die globalen Temperaturen (Festland + Ozeane) präsentiert worden sind, wird die Schlussfolgerung dieses Kapitels hier beigefügt.

Die Tatsache, dass die Modelle die Erwärmung in der jüngeren Erwärmungsperiode besser simuliert haben, bedeutet nicht, dass die anthropogenen Treibhausgase Ursache dieser Erwärmung waren – es enthüllt einfach, dass es den Modellierern gelungen ist, ihre Modelle noch besser zu frisieren, um sie an die jüngere Erwärmungsperiode anzupassen.

Die Klimamodelle können die beobachtete Erwärmungsrate während der früheren Periode (1914 bis 1945) nicht simulieren, die etwa genauso hoch lag wie in der Periode 1975 bis 2012). Dies zeigt, dass die globalen Temperaturen auch ohne Antriebe steigen können – anders als den Klimamodellen zufolge, die mit natürlichen und anthropogenen Antrieben gefüttert werden müssen. Und die Ähnlichkeiten zwischen den beobachteten Erwärmungsraten damals und jetzt zeigen, dass die viel höheren anthropogenen Antriebe während der späteren Erwärmungsperiode nur einen geringen Einfluss auf die Rate hatten, mit der sich die gemessene Temperatur erwärmt hat.

Mit anderen Worten, die Klimamodelle und die Daten stützen die Hypothese einer anthropogen getriebenen globalen Erwärmung nicht; sie widersprechen dem.

Die Welt, so wie sie in all den die Zahlen vergewaltigenden Klimamodellen porträtiert wird, ist eine Phantasie-Welt – mit nur einem geringen oder gar keinem Bezug zur realen Welt.

Fügen wir dem Schaden noch den Spott hinzu [Original: LET’S ADD INSULT TO INJURY]

Seit mehr als 4 Jahren habe ich gezeigt, dass die Daten bzgl. des ozeanischen Wärmegehaltes und der Daten der Wassertemperatur während der Satelliten-Ära die Hypothese einer anthropogen induzierten Erwärmung nicht stützen, wenn man diese Daten erst einmal in logische Untersequenzen unterteilt hat. Das heißt, die NODC-Daten des ozeanischen Wärmegehaltes in einer Tiefe von 0 bis 700 m und die Reynolds OIv2-Daten der Wassertemperatur zeigen, dass sich die Ozeane als Folge natürlich auftretender, vom Sonnenlicht gespeister Kopplungsprozesse zwischen Ozean und Atmosphäre erwärmen – und nicht durch anthropogene Treibhausgase. Wenn das für Sie neu ist, schauen Sie meinen bebilderten Essay „The Global Warming Challenge” (42MB pdf).

Die natürliche Erwärmung der globalen Ozeane war auch Thema von zwei YouTube-Videos – für diejenigen unter Ihnen, die sehen und hören wollen, wie ich das erkläre. Teil 1 und Teil 2.

Ich habe mein letztes Buch Climate Models Fail einige Male in diesem Beitrag erwähnt. Es ist eine Sammlung von vergleichen zwischen Modellen und Daten einschließlich eines Kapitels über Studien, die sehr kritisch hinsichtlich des Verhaltens der Klimamodelle sind. Außerdem zeige ich die natürliche Erwärmung der Ozeane in Abschnitt 9. Siehe das Inhaltsverzeichnis in einer Vorschau dieses Buches (nicht paywalled). Auf etwa 60 Seiten der 350 Seiten starken PDF-Ausgabe einschließlich 40 Abbildungen wird dieses Thema behandelt. …

Und natürlich gibt es noch viel mehr Einzelheiten in meinem Buch Who Turned on the Heat? — The Unsuspected Global Warming Culprit: El Niño-Southern Oscillation.

Unterschiede zwischen Daten und Modellen

Abbildung 20 zeigt die gemessenen Anomalien der globalen Wassertemperatur von 1880 bis 2013. Abgebildet ist auch die Differenz zwischen den modellierten und den gemessenen Anomalien der globalen Wassertemperatur, wobei die Daten vom Mittel der Modellergebnisse subtrahiert worden sind. Ich habe die Basisjahre der Anomalien auf die gesamte Periode (1880 bis 2012) ausgedehnt, damit die Basisjahre die Differenz nicht beeinflussen.

Abbildung 20

Aus irgendwelchen Gründen will die Gemeinschaft der Klimawissenschaftler unter Federführung des IPCC die Öffentlichkeit und die Politiker glauben machen, dass seine Klimamodelle realistische Repräsentationen des Klimas sind.

Zum Schluss

Die globale Wassertemperatur hat sich während der Erwärmung zu Beginn des 20. Jahrhunderts von 1914 bis 1945 schneller erwärmt als während der jüngsten Erwärmungsperiode von 1975 bis 2013. Andererseits haben die im AR 5 des IPCC verwendeten Klimamodelle etwas gänzlich anderes gezeigt. Den Modellen zufolge hätte sich das Wasser während der jüngsten Periode von 1975 bis heute etwa 4 mal schneller erwärmen sollen als im Zeitraum 1914 bis 1945. Das zeigt eindeutig, dass die vom IPCC benutzten Klimamodelle nicht herangezogen werden können, um die globale Erwärmung menschlichen Treibhausgasen wie Kohlendioxid zuzuordnen, und sie können definitiv nicht dazu verwendet werden, das Klima für irgendeinen Zeitraum auf der Basis zukünftiger anthropogener Treibhausgasemissionen vorherzusagen.

Und doch erzeugen die Klimawissenschaftler, die den AR 5 für das IPCC vorbereitet haben, Bilder wie ihr SPM 10 (meine Abbildung 1 oben rechts), die amüsanterweise Klimamodelle als „Beweis“ anführen, dass die vergangene globale Erwärmung durch Kohlendioxid-Emissionen ausgelöst worden war und dass die globalen Temperaturen weiter steigen werden als Folge zukünftiger CO2-Emissionen. Der unerschütterliche Glaube der Klimawissenschaftler [und einiger Kommentatoren hier, A. d. Übers.], dass das Kohlendioxid die globale Erwärmung treibt, obwohl die Klimamodelle etwas anderes zeigen, ist Beweis für ihre Besessenheit bzgl. CO2 oder der Notwendigkeit, ihre Modelle falsch zu interpretieren (aus irgendwelchen Gründen). Ich persönlich glaube, dass es eine Kombination aus beidem ist.

Quelle

Die Modellergebnisse und die Daten einschließlich der Trendkarten sind verfügbar über KNMI Climate Explorer.

Link: http://wattsupwiththat.com/2013/10/07/ipcc-still-delusional-about-carbon-dioxide/

Übersetzt von Chris Frey EIKE




Kommentare zum UKMO-Bericht über „die gegenwärtige Pause bei der globalen Erwärmung“ – 2. Teil

Beginnen möchte ich mit ihrer ersten Abbildung im 2. Teil:

 

[Die Übersetzung der Bildunterschrift lautet:

Abbildung 1: Beobachtungen des gegenwärtigen Stillstands der Erwärmung. Die oberste Graphik zeigt Zeitreihen mittlerer jährlicher Temperaturanomalien (relativ zur Periode 1961 bis 1990) gemittelt über den ganzen Globus von HadCRUT4 (schwarz), Festland von CRUTEM4 (rot) und Ozeane von HadSST3 (blau). Die zweite Graphik zeigt den Wärmegehalt der obersten 800 Meter der Ozeane (aus Analysen des Met. Office, Anomalien relativ zur Periode 1951 bis 2006, aktualisiert von Smith und Murphy 2007). Die dritte Graphik zeigt den mittleren jährlichen Meeresspiegel, ermittelt aus Pegelmessungen (Church und White 2011). Die unterste Graphik zeigt gleitende neun-Jahres-Trends der Erwärmung und der Wärmeaufnahme der oberen Ozeanschichten. Dies ist aufgeteilt in einsetzende (dunkel) und andauernde Perioden (hell) […split into onset (dark) and continuation (light) periods]. Dabei nahm die Wärmeaufnahme der oberen Schichten während der Onset-Perioden zu, verlief dagegen relatriv flach in continuation-Perioden. Vertikale Linien zeigen große Vulkanausbrüche an.]

Meine Abbildung 1 ist auch Abbildung 1 im 2. Teil des UKMO-Berichtes zum gegenwärtigen Stillstand der globalen Erwärmung. Aus einer ganzen Reihe von Gründen ist sie kurios. Erstens hat das UKMO einen weiteren Datensatz des ozeanischen Wärmegehaltes präsentiert. Im 1. Teil des Berichtes hat UKMO den ozeanischen Wärmegehalt von 0 bis 700 m Tiefe in zwei Abbildungen dargestellt: In Kasten W der Abbildung 1 und in ihrer Abbildung 18. Der Vergleich der beiden Graphiken aus dem ersten Teil steht hier. In diesem 2. Teil ihres Berichtes hat UKMO jetzt den Wärmegehalt von 0 bis 800 m Tiefe gezeigt. Auch dieser Datensatz zeigt nach dem Jahr 2000 einen flachen Verlauf, enthält aber auch einen merkwürdigen Knick nach oben im Jahr 2012. Das UKMO beruft sich auf Smith und Murphy (2007) als Quelle der Daten zum ozeanischen Wärmegehalt in der jüngsten Graphik, aber jene Studie trägt den Titel „An objective ocean temperature and salinity analysis using covariances from a global climate model” (paywalled). [Etwa: Eine objektive Temperatur- und Salzgehalts-Analyse mit Hilfe von Kovarianzen aus einem globalen Klimamodell]. Auf ihrer  EN-3 Ocean Heat Content data webpage beruft sich das UKMO nicht auf Smith und Murphy (2007). Also scheint es so, als seien die „Daten“ des ozeanischen Wärmegehaltes, die UKMO in Abbildung 1 des zweiten Teiles präsentiert, lediglich eine Reanalyse und nicht Daten. Wie auch immer, es scheint, als ob UKMO Datensätze des ozeanischen Wärmegehaltes gezielt danach aussucht, um einen bestimmten Standpunkt zu stützen, den sie versuchen geltend zu machen.

Zweitens, der Meeresspiegel: Der dritte Plot in Abbildung 1 von UKMO zeigt einen mit einer fast monotonen Rate steigenden Meeresspiegel. Der offensichtliche Grund dafür, den Meeresspiegel in Abbildung 1 mit zu zeigen, besteht wohl darin zu belegen, dass der Meeresspiegel weiterhin steigt, obwohl der Temperaturverlauf seit dem Jahr 1997 flach verlaufen war (es war das Jahr, dass UKMO als Anfang der Abflachung festgelegt hat). Tatsächlich stellt das UKMO weiter unten in der Studie fest:

Wie Abbildung 1 zeigt und wie besprochen im 1. Teil dieser Reihe ist der Meeresspiegel während des gesamten derzeitigen Stillstands weiterhin gestiegen.

Was sie nicht erwähnen ist die Tatsache, dass der Meeresspiegel eine lausige Proxy für die globalen Temperaturen ist. Aus den Plots der globalen Temperatur im oberen Teil ihrer Abbildung 1 geht hervor, dass sich die globale Temperatur von 1880 bis etwa 1917 abgekühlt hat, gefolgt von einer Erwärmung von 1917 bis 1944. Als ob sich dieser Zyklus wiederholt hätte, hat sich die globale Temperatur danach von 1944 bis 1976 abgekühlt und von 1976 bis 1998/2000 wieder erwärmt. Der Anstieg des Meeresspiegels jedoch hat sich während der zwei Abkühlungsperioden nicht verlangsamt.

Meine Abbildung 2 zeigt die 30-jährigen linearen Trends der Temperatur und des Meeresspiegels von 1880 bis 2012. Jeder Datenpunkt in der Graphik repräsentiert die 30-Jahres-Trends in mm pro Jahrzehnt für den Meeresspiegel und Grad Celsius pro Dekade für die Temperatur, und zwar für den in jenem Jahr endenden Zeitraum. Die Temperaturdaten stammen aus den jährlichen UKMO HADCRUT4-Daten, die hier verfügbar sind. Man beachte, dass die Temperaturdaten willkürlich skaliert worden sind, indem man sie mit einem Faktor 100 multipliziert hat. Und der rekonstruierte globale Meeresspiegel von 1880 bis 2009, wie er durch Church und White (2011) beschrieben worden ist, stammt von der Website vom CSIRO hier. (CSIRO ist die australische nationale Wissenschaftsagentur). So erhalten wir die Daten der globalen Temperatur und des Meeresspiegels, wie sie vom UKMO präsentiert werden. Wie Abbildung 2 zeigt, gibt es in den 30-jährigen linearen Trends keine Übereinstimmung. Die 30-Jahres-Trends des globalen Meeresspiegels haben während der 1940 zu Ende gegangenen 30-Jahres-Perioden zugenommen, der 30-Jahres-Trend der globalen Temperatur hat jedoch von 1945 bis 1960 abgenommen.

Kurz gesagt, auf Basis der 30-Jahres-Trends gibt es keine Übereinstimmung zwischen den Raten der Erwärmung/Abkühlung hinsichtlich der Temperatur und der Raten des globalen Anstiegs des Meeresspiegels. Also gibt es auf Grundlage der Abkühlungstrends seit 1880 keinen Grund für die Annahme, dass sich der Anstieg des Meeresspiegels während eines Stillstands der globalen Temperatur verlangsamen würde. Dies könnte dazu führen, jemanden glauben zu machen, dass UKMO die Graphik des Meeresspiegels nur als Ablenkung in die Abbildung eingefügt hatte. Der globale Meeresspiegel ist seit dem Ende der letzten Eiszeit gestiegen, und aufgrund der von UKMO präsentierten Daten gibt es keinen Zusammenhang zwischen den Raten des mittels Instrumenten gemessenen Anstieg des Meeresspiegels und der Rate, mit der sich die globale Temperatur erwärmt oder abkühlt.

Der dritte Punkt hinsichtlich der Abbildung 1 im 2. Teil des UKMO-Berichtes bzgl. des Stillstands bei der globalen Erwärmung: In der untersten Darstellung zeigen sie 9-Jahres-Trends innerhalb der 3 Datensätze der globalen Temperatur und des ozeanischen Wärmegehaltes (Reanalyse?) Woher kommen diese 9 Jahre? Das UKMO ist sehr genau hinsichtlich der Diskussion über den Startzeitpunkt des Stillstands. Sie schreiben:

Es ist schwierig, den Beginn des gegenwärtigen Stillstands genau zu terminieren. Zwar wird oftmals das Jahr 1998 als Beginn genannt, doch war dies ein außerordentlich warmes Jahr wegen des stärksten El Niño seit Beginn instrumenteller Messungen. Diesem folgte ein starkes La Niña-Ereignis und ein Rückgang der globalen Temperatur um etwa 0,2°C (Abbildung 1). Das ist hinsichtlich der Größenordnung äquivalent zum mittleren dekadischen Erwärmungstrend der letzten Jahrzehnte. Tatsächlich ist der Anstieg der globalen Temperatur erst im Jahr 2000 zum Stillstand gekommen.

Die jährlichen Daten von 2000 bis 2012 überdecken einen Zeitraum von 13 Jahren, nicht 9 Jahre. Und die Jahre von 1998 bis 2012 überdecken 15 und nicht 9 Jahre. Es scheint, dass das UKMO 9 Jahre gewählt hat, um die Behauptung zu stützen, dass es hinsichtlich eines 9-jährigen Stillstands der globalen Erwärmung nichts Ungewöhnliches gibt. Aber um die 9 Jahre geht es ja gar nicht. Es geht um 13 Jahre und 15 Jahre. Es ist nur zu offensichtlich, warum das UKMO 9 anstatt 13 oder 15 Jahre gewählt hat. Man betrachte meine Abbildung 3. Hätte man beim UKMO 13 oder 15 Jahre als Periode gewählt, würde der gegenwärtige Stillstand ungewöhnlich aussehen; das heißt, seit Ende der siebziger Jahre haben wir keinen so geringen Erwärmungstrend mehr erlebt.

Es sieht ganz danach aus, als ob die meisten Inhalte der Abbildung 1 bei UKMO die Öffentlichkeit in die Irre führen sollten; sie von der Tatsache abzulenken, dass der jüngste Stillstand der globalen Erwärmung in seiner langen Dauer ungewöhnlich ist, wenn Klimamodelle Erwärmung nur simulieren können, wenn sie mit vom Menschen stammenden Treibhausgasen gefüttert werden.

Das UKMO widerspricht sich selbst

Die Atlantische multidekadische Oszillation (AMO) ist Gegenstand des nächsten Abschnitts. Für weitere Informationen bzgl. dieses Phänomens siehe hier, hier und hier.

In ihrer Besprechung ihrer Abbildung 1 bezieht sich das UKMO auf multidekadische Änderungen der globalen Temperatur. Es schreibt (Fettdruck von mir):

Eindeutig gab es auch schon zu anderen Zeiten Perioden mit einer geringen oder mit gar keiner Erwärmung in der relativ kurzfristigen Vergangenheit. Ein gutes Beispiel hierfür ist der Zeitraum zwischen den vierziger und den siebziger Jahren des vorigen Jahrhunderts (Abbildung 1). Der Erwärmungstrend während dieser Zeit ist gut verstanden und hängt zusammen mit einer substantiellen Zunahme von Aerosolen in der Atmosphäre.

Das UKMO erweckt hier die Aerosol-Vermutung erneut zum Leben und behauptet, dass diese „gut verstanden“ ist. Allerdings widersprechen sie sich weiter unten in dem Bericht selbst. Unter der Überschrift „2.2 Redistribution of energy within the climate system – Storing the heat below the surface” und als ein Vorwort zu ihrer Besprechung der Auswirkungen der AMO auf die globalen Temperaturen schreibt das UKMO:

Es ist immer noch unklar, wie diese multidekadischen Variationen der Temperaturen im Nordatlantik angetrieben werden, und es ist eine Debatte im Gange über die Rolle anthropogener Aerosole als Antrieb der AMO (Booth et al 2012, Zhang et al. 2013).

Wenn das UKMO feststellt, dass eine Debatte im Gange ist über die Auswirkungen anthropogener Aerosole auf die AMO und dass diese der dominante Faktor bzgl. der multidekadischen Variationen der Temperaturen sind, wie kann das UKMO dann von „gut verstanden“ reden und davon, dass der Stillstand der Erwärmung von den vierziger bis zu den siebziger Jahren „mit einer substantiellen Zunahme der Aerosol-Menge in der Atmosphäre verbunden ist“?

Booth et al. (2012) und Zhang et al. (2013) habe ich in meinem Blogbeitrag vom März 2013 besprochen. Er trägt den Titel Blog Memo to Lead Authors of NCADAC Climate Assessment Report. Darin habe ich geschrieben:

Booth et al (2012) – eine Studie auf Basis von Klimamodellen – behaupten im Abstract, dass ein „Zustand-der-Erde-Klimamodell…“ verwendet worden ist, „…um zu zeigen, dass Emissionen von Aerosolen und Perioden vulkanischer Aktivität 76 Prozent der simulierten multidekadischen Varianz der trendbereinigten Temperaturen im Nordatlantik von 1860 bis 2005 erklären können“. Andererseits haben Zhang et al (2013) die begrenzte Datenmenge genutzt, um diese Behauptungen in Frage zu stellen. Offensichtlich ist ein „Zustand-der-Erde-Klimamodell“ immer noch ungeeignet für Studien dieser Art der Zuordnung. Wissen wir auf Basis von Computermodellen und sehr begrenzter Daten, was die multidekadischen Variationen der Wassertemperatur im Nordatlantik auslöst? Die realistische Antwort lautet nein.

Dann gibt es da die kürzlich erschienene Studie, in der die vielen Fehler der Klimamodell-Simulationen bzgl. der AMO behandelt werden. Die Studie stammt von Ruiz-Barradas et al. (2013) und trägt den Titel The Atlantic Multidecadal Oscillation in twentieth century climate simulations: uneven progress from CMIP3 to CMIP5. Die gesamte Studie steht hier. In den „abschließenden Bemerkungen” findet sich zu Beginn eine Erklärung, warum es für die Klimamodelle so wichtig ist, in der Lage zu sein, die AMO angemessen zu simulieren. Sie schreiben (Fettdruck von mir):

Die dekadische Variabilität im Klimasystem durch die AMO ist eine der wichtigsten Quellen der Variabilität in diesem temporären Rahmen, und die Klimamodelle müssen zum Ziel haben, dies angemessen zu dokumentieren, und zwar wegen des Einflusses dieses Phänomens auf das Klima der angrenzenden Kontinente. Diese Angelegenheit hat besondere Bedeutung für die gegenwärtigen Bemühungen hinsichtlich dekadischer Klimavorhersage-Experimente, die in Vorbereitung des fünften IPCC-Zustandsberichtes analysiert worden sind. Die gegenwärtige Analyse beabsichtigt nicht, die Mechanismen hinter der Abbildung der AMO in Modellsimulationen zu untersuchen, sondern Beweise für Verbesserungen der Modellrechnungen zu liefern oder das Fehlen derselben. Falls die Klimamodelle die mit der Erzeugung der AMO (oder andere Quellen dekadischer Variabilität wie die PDO) verbundenen Mechanismen nicht angemessen spiegeln und stattdessen die Variabilität mit anderen Häufigkeiten zeigen oder verstärken, dann ist die Fähigkeit der Modelle, im Zeitrahmen von Jahrzehnten zu simulieren und vorherzusagen in Frage gestellt und damit auch die Art und Weise, mit der sie diese Variabilität des Klimas und deren Auswirkungen auf menschliche Gesellschaften übertragen.

Die einzige Möglichkeit, wie sich Ruiz-Barradas et al. noch klarer hätten ausdrücken können wäre es, wenn sie klar sagen, dass Klimamodelle nur dann einen Sinn haben, falls und wenn sie jemals die dekadischen und multidekadischen Charakteristika natürlicher ozeanischer Prozesse simulieren können. Die Autoren beschreiben dann die vielen Probleme im Zusammenhang mit den Klimamodell-Simulationen hinsichtlich der AMO. Die Studie endet mit den Worten (Fettdruck von mir):

Die hier vorliegende Analyse präsentiert keine Beweise, warum die Modelle so agieren, wie sie agieren, sondern zeigt, dass die ungerechtfertigte Zunahme der hohen 10 bis 20-jährigen Variabilität von den Modellen CMIP3 zu CMIP5 hinter dem unbefriedigenden Fortschritt stehen könnte, die räumlich-zeitlichen Erscheinungen der AMO darzustellen. Dieses Problem gekoppelt mit der Unfähigkeit der Modelle, die regionale Low-Level-Zirkulation einzubeziehen, den Treiber der Feuchtigkeits-Flüsse, scheint im Mittelpunkt der ärmlichen Repräsentation der hydroklimatischen Einflüsse der AMO zu stehen.

Falls die Klimamodelle die AMO nicht angemessen simulieren können, dann ist es sehr offensichtlich, dass der Stillstand der globalen Temperaturen von den vierziger bis zu den siebziger Jahren eben nicht „gut verstanden“ ist, wie das UKMO behauptet.

ANMERKUNG: Die Abbildungen 2 und 3 oben zeigten Variationen der Trends. Im Folgenden zeigen die Abbildungen 4 bis 7 Variationen von Temperaturanomalien.

Das UKMO zeigt dann den falschen Datensatz für eine Diskussion multidekadischer Temperaturvariationen

Weiter zur Pazifischen Dekadischen Oszillation PDO: Das UKMO stellt zu Beginn richtig fest, dass es hinsichtlich der Wassertemperaturen im Nordpazifik multidekadische Variationen gibt. Aber dann weicht es tangential von der Linie ab, wenn es die PDO und andere abstrakte Erscheinungen hinsichtlich der Wassertemperatur des Pazifiks behandelt, als ob diese abstrakten Erscheinungen die multidekadischen Variationen der Wassertemperatur im Pazifik nördlich von 20°N oder im Pazifischen Ozean repräsentieren:

Der Pazifische Ozean zeigt auch längerfristige Variationen (Abbildung 5), die verschiedentlich als die Pazifische Dekadische Oszillation PDO bezeichnet werden (Mantua et al. (1997)) oder als Pazifische Dekadische Variabilität PDV (Deser et al. (2012)) oder als Interdekadische Pazifische Oszillation IPO (Power et al. (1999)).

Dann macht das UKMO ein ziemlich überraschendes Zugeständnis (Fettdruck von mir):

Die Charakteristika und die Mechanismen der PDO sind viel weniger gut verstanden als bei der AMO, und es gibt einige Diskussionen darüber, ob die PDO lediglich das niederfrequente Verhalten der ENSO und deren Einfluss auf atmosphärische Zirkulationen der mittleren Breiten und Oberflächen-Flüsse zeigt (Deser et al. 2012), oder ob die Dynamik der Ozeane ebenfalls eine Rolle spielt.

Hier wollen wir einen Moment innehalten. Die gegenwärtige Generation der Klimamodelle kann die AMO nicht simulieren, außerdem gibt es eine Debatte darüber, ob menschliche Aerosole in der AMO eine Rolle spielen oder nicht. Und jetzt stellt das UKMO fest, dass die multidekadischen Variationen im Nordpazifik (und dem Pazifik als Ganzem) sogar noch weniger verstanden sind! Und das UKMO möchte uns glauben machen, dass „der Erwärmungstrend während jener Periode gut verstanden ist und mit einer substantiellen Zunahme von Aerosolen in der Atmosphäre zusammenhängt“.

Das ist wirklich lächerlich. (Und ich lache nicht mit ihnen, sondern über sie). Was für eine Frechheit!

Zurück zur PDO: Das UKMO macht dann weiter mit der Besprechung des PDO-Index‘ und illustriert dies mit seiner Abbildung 4. Aber sie ignorieren (absichtlich? unwissend?) die Tatsache, dass der PDO-Index nicht die Wassertemperaturen des Nordpazifik repräsentiert – dass der PDO-Index eine abstrakte Form der Wassertemperatur des Nordpazifiks repräsentiert.

Kurze Beschreibung des PDO-Index’: El Niño- und La Niña-Ereignisse erzeugen eine spezifische räumliche Verteilung der Wassertemperatur im Nordpazifik nördlich von 20°N. Zum Beispiel sind die Wassertemperaturen während eines starken El Niño im Ostteil des Nordpazifik warm und in den westlichen und zentralen Teilen kalt. Der PDO-Index zeigt im Wesentlichen, wie eng die räumliche Verteilung im Nordpazifik und deren Intensität zur räumlichen Verteilung von El Niño und La Niña-Ereignissen passt. Der PDO-Index bezieht sich nicht auf die Wassertemperatur im Nordpazifik, 1), weil die räumliche Verteilung bei jedweder Wassertemperatur existieren könnte und 2), weil der Bodenluftdruck und damit zusammenhängende Windverhältnisse) ebenfalls die räumliche Verteilung und damit wiederum den PDO-Index beeinflussen.

Und das UKMO ignoriert die Tatsache, dass die Wassertemperaturen des Nordpazifiks multidekadische Variationen aufweisen, die vergleichbar sind mit jenen im Nordatlantik. Das kann man leicht erkennen, wenn man die Anomalien der Wassertemperatur im Nordpazifik nördlich von 20°N trendbereinigt, und zwar auf die gleiche Weise, wie es NOAA ESRL mit dem Atlantic Multidecadal Oscillation Index macht. Meine Abbildung 4 vergleicht trendbereinigte Anomalien der Wassertemperatur im Nordatlantik (0° bis 70°N, 80°W bis 0) und im Nordpazifik (0 bis 65°N, 100°E bis 90°W). In dieser Graphik wird der UKMO HADSST3-Datensatz verwendet. Beide Unter-Datensätze wurden auch mit 61-Monate-Filtern geglättet, um monatliche und jährliche Fluktuationen zu reduzieren. (Anmerkung: Normalerweise präsentiere ich die trendbereinigten Anomalien der Wassertemperatur im außertropischen Nordpazifik {20N-65N, 100E-100W} in diesen Vergleichen, weil die PDO daraus abgeleitet ist, aber in diesem Falle habe ich den gesamten Nordpazifik {0-65N, 100E-90W} betrachtet).

Es ist wirklich schwierig, die multidekadischen Variationen der Wassertemperatur im Nordpazifik zu übersehen. Sie können synchron oder asynchron mit dem Nordatlantik variieren. Aber wir wollen einmal auf die Anomalien der Wassertemperatur im Nordatlantik und Nordpazifik ohne die Trendbereinigung schauen, Abbildung 5. Die Wassertemperaturen im Nordatlantik mögen einen Spitzenwert erreicht haben, aber das Plateau ist sehr kurz. Andererseits hat sich der Nordpazifik seit dem Jahr 2003 ziemlich drastisch abgekühlt.

Von den beiden Ozeanbecken trägt der Nordpazifik am meisten zum Stillstand der Erwärmung bei, aber dem UKMO zufolge sind die Variationen der Oberflächentemperaturen dort sogar noch weniger verstanden als im Nordatlantik, die auch nicht verstanden sind. Aber Moment, da ist noch mehr.

Die Abkühlung im Nordpazifik erstreckt sich auf das gesamte pazifische Becken, aber die Abflachung der Wassertemperatur-Anomalien im Nordatlantik erstreckt sich nicht auf den gesamten Atlantischen Ozean. Man betrachte Abbildung 6, welche die Wassertemperatur-Anomalien im Pazifik von Pol zu Pol (90S-90N, 120E-80W) und im Atlantik von Pol zu Pol (90S-90N, 70W-20E) repräsentiert.

Diese beiden beckenweiten Datensätze wurden in Abbildung 7 trendbereinigt, um zu zeigen, dass die multidekadische Variabilität in beiden Fällen auf das gesamte Becken übergreift.

Auf Grundlage der Statements vom UKMO selbst verstehen sie und die klimawissenschaftliche Gemeinschaft allgemein nicht die Gründe der multidekadischen Variationen der Wassertemperatur im Atlantischen und Pazifischen Ozean. Dies zeigt, dass sie auch nicht verstehen, was die globale Erwärmung von Mitte der siebziger Jahre bis zum Jahr 2000 ausgelöst hat. Wenn sie den Stillstand nicht erklären können, dann können sie mit Sicherheit auch nicht die Erwärmung erklären.

Es ist für die Gemeinschaft der Klimawissenschaftler sehr wichtig, die natürlichen Prozesse modellieren zu können, die zur Erwärmung und zur Abkühlung der globalen Ozeane beitragen. Die Temperaturen auf dem Festland folgen den jährlichen, dekadischen und multidekadischen Variationen der Wassertemperatur mit größerer Amplitude. Dies wurde von Compo und Sardesmukh (2009) in ihrer Studie Oceanic influences on recent continental warming gezeigt. Das Abstract beginnt mit den Worten:

Beweise werden präsentiert, dass die jüngste weltweite Erwärmung auf dem Festland zum großen Teil auf eine weltweite Erwärmung der Ozeane zurückzuführen ist und nicht eine direkte Reaktion auf zunehmende Treibhausgase an Land.

Wir können auch Karten der Korrelation benutzen, um den Einfluss der Wassertemperatur in Nordatlantik und Nordpazifik auf die Festlands-Temperaturen in der Nordhemisphäre zu illustrieren. Ich habe die Berkeley Earth Surface Temperature (BEST)-Daten in Abbildung 8 verwendet, weil CRUTEM4 räumlich nicht vollständig ist, und ich habe die Reynolds OI.v2-Daten anstatt der HADSST3-Daten aus dem gleichen Grund verwendet. Die Daten erstrecken sich von 1982 (dem Beginn der auf Satellitenmessungen basierenden Reynolds OI.v2-Daten) bis 2011 (dem letzten Jahr mit vollständigen BEST-Daten). Die obere Karte zeigt die Korrelationen der Festlands-Temperaturanomalien mit denen der Wassertemperatur im Nordatlantik, und die untere Karte das Gleiche mit dem Nordpazifik. Man kann leicht erkennen, warum Forscher glauben, dass der Nordatlantik einen starken Einfluss auf die Temperaturen in der Nordhemisphäre hat. Aber man kann den Pazifik nicht ignorieren, weil er ebenfalls Auswirkungen zeitigt.

Das UKMO ist kurz auf die möglichen Gründe für multidekadische Variationen der Wassertemperatur der Kuroshio Extension eingegangen, bekannt auch unter der Bezeichnung Kuroshio-Oyashio Extension oder KOE:

Es gibt einige Beweise, dass Änderungen der Wärmetransporte in den Ozeanen in Zusammenhang mit dem Gebiet der Kuroshio Extension (einer ostwärts gerichteten Meeresströmung im Nordpazifik) und die Erzeugung interner Ozean-Zirkulationen durch oberflächennahe Winde, Rossby-Wellen genannt, beitragende Faktoren sein können (z. B. Alexander 2010).

Wir haben die Prozesse besprochen, durch die das durch starke El Niño-Ereignisse zurück gebliebene Restwarmwasser in die Kuroshio-Oyashio Extension gelangt während nachfolgender La Niñas, und dass diese einem starken El Niño folgenden Erwärmungen die Auswirkungen der nachfolgenden La Niña-Ereignisse auf die Luft- und Wassertemperaturen kompensieren. Siehe diesen Beitrag hier.

Wie schon zuvor erwähnt repräsentiert der PDO-Index nicht die Wassertemperaturen des Nordpazifiks. Wir haben dies in zahlreichen Beiträgen während der letzten Jahre behandelt; siehe hier, hier und hier. Wie in jenen Beiträgen dargestellt, ist der PDO-Index umgekehrt verbunden mit den Wassertemperaturen im Nordpazifik. Und wie in Abbildung 9 dargestellt ist der PDO-Index auch mit Variationen der Temperaturen an Land in vielen Gebieten der Nordhemisphäre anti-korreliert. Das heißt, wenn der PDO-Index steigt, kühlen sich die Temperaturen an Land in vielen Gebieten des Globus‘ ab – und umgekehrt, wenn der PDO-Index sinkt. Andererseits sind die Anomalien der Wassertemperatur der Kuroshio-Oyashio Extension ein Maß für die Wassertemperatur, und sie sind positiv korreliert mit den Temperaturen an Land in ähnlichen Gebieten der Nordhemisphäre.

Zusammenfassend zu diesem Abschnitt: die PDO ist eine abstrakte Repräsentation der Wassertemperatur im Nordpazifik und als solche der falsche Datensatz zur Verwendung in den Diskussionen zur globalen Erwärmung – oder zu dem Fehlen derselben.

Repräsentationen der dekadischen Variabilität in Klimamodellen

Danach folgt beim UKMO eine Besprechung ihrer Simulationen der Wassertemperaturen des Pazifischen Ozeans mit verschiedenen Versionen ihrer Klimamodelle, und sie zeigten ein paar Karten der Simulationen, um das Übergewicht einer La Niña-Verteilung während der modellierten, ein Jahrzehnt langen Stillstandsperioden zu belegen:

Die Bedeutung der dekadischen Variabilität im Pazifischen Ozean als Antrieb für verlängerte Perioden der Abkühlung wurde auch in Multi-Jahrhundert-Simulationen mit festgesetzten Strahlungsantrieben identifiziert. Abbildung 6 zeigt die räumliche Verteilung des Temperaturtrends, gemittelt über Perioden mit extremer Abkühlung aus einer Reihe von Klimamodellen des Met. Office Hadley Centre, einschließlich des jüngsten Modells (HadGEM2), das auch Eingang in den 5. IPCC-Zustandsbericht gefunden hat. Sie sehen alle in bemerkenswerter Weise aus wie die beobachtete Verteilung während der letzten Dekade (Abbildung 6, Graphik rechts unten) und stellen einen ziemlich robusten Beweis dar für die Bedeutung des Verständnisses der Rolle des Pazifischen Ozeans hinsichtlich der gegenwärtigen Pause der mittleren globalen Erwärmung.

„Festgesetzte Strahlungsantriebe” bedeutet, dass infrarote Strahlung durch vom Menschen emittierte Treibhausgase in den Modellen nicht zunimmt, es gibt keine vorübergehenden Abnahmen des Sonnenlichts durch vulkanische Eruptionen, es gibt keine Variationen der Strahlung von der Sonne usw. Mit anderen Worten, das ist nicht die reale Welt. Es ist irrelevant.

Ich bin immer wieder erstaunt darüber, dass Gruppen von Modellierern die Fehlschläge ihrer Modelle herausstellen. Die UKMO-Präsentation von Modellergebnissen mit „festgesetzten Strahlungsantrieben“ zeigt nachhaltig, dass die Klimamodelle vom UKMO den Stillstand nicht simulieren können, falls die Modelle mit Bedingungen der realen Welt gefüttert werden. Oder vielleicht besteht die einzige Möglichkeit für die UKMO-Klimamodelle, die Jahrzehnte lange Pause der Wassertemperatur-[Änderungen] zu simulieren darin, die Auswirkungen der Treibhausgase zu entfernen. Man denke darüber mal eine Weile nach.

Das UKMO bezieht sich dann auf eine Studie von Meehl et al. 2011 mit dem Titel „Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods“. Diese Studie basiert auf dem NCAR CCSM4 Klimamodell. Meehl et al. haben im Wesentlichen die Zukunfts-Projektionen des CCSM4-Modells hinsichtlich Jahrzehnte langer Stillstands-Perioden untersucht. Während dieser Zeiten haben die Modelle La Niña-artige Bedingungen simuliert. Aber wir wissen, dass Klimamodelle die El Niño und La Niña-Ereignisse nicht angemessen abbilden. Ich habe Guilyardi et al (2009) als Referenz für dieses Scheitern in früheren Beiträgen benutzt. Die folgende Studie ist eine jüngere Bestätigung, wie schlecht die Klimamodelle die ENSO simulieren. Die Studie: Bellenger et al. 2013: ENSO representation in climate models: from CMIP3 to CMIP5. Ein Vorabdruck findet sich hier. Der Abschnitt mit der Überschrift „Discussions and Perspectives“ beginnt mit den Worten:

Die Modellierer müssen noch viel Arbeit aufwenden, um die ENSO korrekt zu repräsentieren, seine grundlegenden Charakteristika (Amplitude, Entwicklung, Zeiträume, jahreszeitliche Abläufe…) und fundamentale Prozesse wie die Bjerkness-Rückkopplungen und andere.

Außerdem zeigen und diskutieren wir in diesem Beitrag, wie das NCAR CCSM4-Klimamodell nicht in der Lage war, die beobachtete Erwärmung im Pazifischen Ozean während der letzten 31 Jahre zu simulieren. Siehe Abbildung 10, in der modellierte und beobachtete Trends der Wassertemperatur im Pazifischen Ozean seit November 1981 dargestellt sind, und zwar auf einer breitenabhängigen Basis (zonale Mittel). Die Tatsache, dass jene Modelle gelegentlich Jahre lange Stillstandsperioden simulieren können, ist daher unerheblich.

Änderungen im Wärmehaushalt der Ozeane

In ihrer Besprechung der Abbildung 1 schreibt das UKMO (Fettdruck von mir):

Außerdem hat der ozeanische Wärmegehalt in den oberen Schichten noch ein paar Jahre nach 1998 weiter zugenommen (Abbildung 1). Nichtsdestotrotz ist aber klar, dass die Erwärmungsrate sowohl an der Oberfläche als auch in den oberen Ozeanschichten in jüngster Zeit abgenommen hat (Abbildung 1, untere Darstellung). Und dies trotz eines fortgesetzten Anstiegs der atmosphärischen Kohlendioxid-Konzentrationen, die innerhalb des Systems Erde als Fallen für Strahlung agieren.

Die Daten (vielleicht eine Reanalyse?) für den oberen Ozean in ihrer Abbildung 1 gelten für die oberen 800 m. Das UKMO fährt dann fort, über die Daten des ozeanischen Wärmegehaltes zu sprechen unter der Überschrift „2.3 What do we know about changes in the ocean heat budget?” Sie schreiben (Fettdruck von mir):

Falls die Ozeane wirklich Wärme unter ihrer Oberfläche verborgen hätten, muss man sich fragen, ob Änderungen des Wärmegehaltes vor allem im tieferen Ozean überhaupt entdeckt werden können. Es gab bedeutende Fortschritte hinsichtlich der Abschätzung des ozeanischen Wärmespeichers während des vergangenen Jahrzehnts, und zwar wegen der Korrektur von Verzerrungen bei konventionellen Erkundungen und der Entwicklung der ARGO-Bojen.

Das ist ein gewaltiges FALLS, mit dem dieser Absatz beginnt, vor allem wenn sie einräumen, dass die Daten modifiziert werden müssen, und zwar natürlich auf eine Art und Weise, dass die Daten eine Erwärmung zeigen. Sie fahren fort (Fettdruck von mir):

Die ARGO-Messungen zeigen eine rapide Zunahme des Wärmegehaltes bis zu einer Tiefe von 700 m, und zwar von 1999 bis 2004 (Guemas et al. 2013). Das zeigt auch Abbildung 1, aber die Rate der Zunahme ist danach geringer. Diese Periode fällt jedoch zeitlich zusammen mit substantiellen Änderungen im Beobachtungssystem infolge der raschen Einführung der ARGO-Bojen. Obwohl ARGO-Bojen zunehmend robuste globale Messungen der oberen Ozeanschichten zur Verfügung stellen, müssen Schlussfolgerungen aus Perioden mit großen Änderungen in einem Beobachtungssystem mit großer Vorsicht behandelt werden.

Man sollte dem UKMO gratulieren für die Anmerkung, dass „…Schlussfolgerungen aus Perioden mit großen Änderungen in einem Beobachtungssystem mit großer Vorsicht behandelt werden müssen“. Aber dabei war es um den oberen Ozean gegangen. Weiter heißt es dort (Fettdruck von mir):

Messungen des Wärmegehaltes in tieferen Ozeanschichten sind viel weiter gestreut und daher weniger gewiss. Mittels einer Kombination von Satelliten- und Ozeanmessungen bis zu einer Tiefe von 1800 m schätzen Loeb et al. 2012, dass das System Erde von 2001 bis 2010 Energie mit einer Rate von 0,5±0,4W/m² akkumuliert hat, ähnlich den 0,4 W/m² von 2005 bis 2010 bis zu einer Tiefe von 1500 m durch ARGO-Bojen allein (von Schuckman und Le Traon 2011). Reanalysen3 der Ozeandaten zeigen im Zeitraum von 2000 bis 2010 eine mittlere Erwärmungsrate um 0,9 W/m² gemittelt über den Globus, wobei 30% der Zunahme unter 700 m stattfand (Balmaseda et al. 2013). Wir folgern daraus, dass das System Erde weiterhin eine substantielle Menge an Wärme während der letzten 15 Jahre angesammelt hat, trotz des Stillstands der Erwärmung.

Die Fehler bei Balmaseda et al. 2013 haben wir bereits in zahlreichen Beiträgen während der letzten Monate angesprochen. Siehe hier, hier, hier, hier und zuletzt hier unter der Überschrift Balmaseda et al. 2013.

Fußnote 3 beim UKMO lautet:

Ozeananalysen verwenden ein globales Ozeanmodell angetrieben durch historische Schätzungen der Winde, Wärme und Frischwasser-Flüsse, um historische Beobachtungen des Ozeans zu synthetisieren mit einer ganzen Reihe von Methoden wie Datenassimilationen, um historische Änderungen des Zustands der Ozeane zu rekonstruieren.

Und die von Balmaseda et al. 2013 verwendete Reanalyse war das ORAS4 durch das Europäische Zentrum für Mittelfristige Wettervorhersage ECMWF. Auf der Website des ECMWF gibt es zu ORAS4 mehr Informationen. Es enthält die folgende Gegenerklärung (Fettdruck von mir):

Es gibt große Unsicherheiten in den Produkten ozeanischer Reanalysen (vor allem bei den Transporten), die schwierig zu quantifizieren sind. Zielgruppe dieser Websites ist die Forschungsgemeinschaft. Jedes außergewöhnliche Klimaereignis sollte weiter gehend untersucht (sic) und nicht als Wahrheit angesehen werden.

Diese einfache Tatsache findet in der UKMO-Studie keinerlei Beachtung, als ob Balmaseda et al. 2013 lediglich ein Evangelium verkünden.

Oben habe ich dem UKMO zum Einräumen von Problemen gratuliert, die bei großen Änderungen des Beobachtungssystems auftreten, als der ozeanische Wärmegehalt für die oberen Schichten der Ozeane besprochen worden ist. Jetzt scheint es so, als hätten sie das vergessen, wenn sie die Daten bis zu einer Tiefe von 2000 Metern übernehmen. In diesem Beitrag haben wir vor Kurzem gezeigt, wie die Temperaturen unterhalb der Oberfläche in Tiefen zwischen 700 und 2000 Metern kaum einen langzeitlichen Trend von 1955 bis 2002 zeigen. Siehe Abbildung 11. Dann, kaum waren die ARGO-Bojen installiert, sind die Temperaturen dort in die Höhe geschossen. Man erinnere sich auch daran, dass die ARGO-Daten adjustiert werden mussten, um Erwärmung zu zeigen.

Die Änderung im Beobachtungssystem scheint einen sehr starken Einfluss auf die Messungen der Temperaturen in Tiefen zwischen 700 und 2000 m gehabt zu haben, aber es scheint, dass das UKMO diesen Einfluss übersehen will, weil die Daten ihre Mutmaßungen stützen.

Dann stellt das UKMO das Ungleichgewicht von Strahlung zur Diskussion:

Der Meeresspiegel kann ebenfalls benutzt werden, um den ozeanischen Wärmegehalt zu belegen. Wie früher schon besprochen erfordert der Stillstand der mittleren globalen Erwärmung entweder eine Reduktion des Energie-Inputs auf den Planeten um etwa 0,6 W/m² oder die Speicherung dieser Energiemenge innerhalb des Ozeans. Falls eine zusätzliche Erwärmung von 0,6 W/m² tatsächlich im Ozean gespeichert wird, würde dies thermosterisch (thermische Ausdehnung) den Meeresspiegel um 1,2 mm/Jahr steigen lassen unter der Voraussetzung, dass sich die gesamte Wärmemenge in den oberen 700 m sammelt. Diese Zahl wäre kleiner, falls ein Teil dieser Wärme in Tiefen unter 700 m herunter gemischt wird, wo der Ausdehnungskoeffizient kleiner ist.

Das vermutete Strahlungs-Ungleichgewicht an der Oberfläche war jüngst auch Gegenstand einer Studie von Stephens et al. 2013 mit dem Titel An update on Earth’s energy balance in light of the latest global observations. Siehe ihre Abbildung 1. Sie illustrieren ein Ungleichgewicht von 0,6 W/m² an der Oberfläche mit einer geschätzten Fehlerbreite von ± 17 W/m². Hier wird klar, warum das UKMO diese Unsicherheit nicht angesprochen hat.

Das UKMO kommt dann zu einer erstaunlichen Schlussfolgerung aus diesem Abschnitt. Mit unglaublicher Selbstsicherheit stellen sie fest:

Zusammengefasst zeigen Beobachtungen des ozeanischen Wärmegehaltes und des Anstiegs des Meeresspiegels, dass die Erde weiterhin Wärmenergie während der letzten 15 Jahre absorbiert hat und dass diese zusätzliche Wärme in den Ozeanen absorbiert worden ist.

Sie haben jedoch nichts präsentiert, was ihre Sicherheit stützen würde.

UKMO hält den Mythos am Leben

Alles in allem pflegt das UKMO weiter den Mythos, dass nur ein vermutetes Energie-Ungleichgewicht, verursacht durch anthropogene Treibhausgase, die Erwärmung der globalen Ozeane erklären kann, während die Daten aufgeteilt in logische Untergruppen darauf hindeuten, dass menschliche Treibhausgase keine sichtlichen Auswirkungen auf die Erwärmung der globalen Ozeane  hatten. Wenn das für Sie neu ist, schauen Sie hier: „The Manmade Global Warming Challenge” (42MB).

Schlussbemerkungen

Allgemein gesagt hat das UKMO zahlreiche Datensätze gezeigt in dem Bemühen zu belegen, dass die globale Erwärmung theoretisch weitergeht, selbst wenn sich die Temperaturen nicht mehr erwärmen. Kümmert sich die allgemeine Öffentlichkeit um die Temperatur in den globalen Ozeanen unter 2000 m? Nein. Kümmert sie sich um Strahlungs-Ungleichgewichte? Nein. Die Leute kümmern sich um die Temperaturen und den Niederschlag in ihren Wohngebieten. Und wenn diese Leute an den Küsten leben, kümmern sie sich um den Meeresspiegel. Und der ist vielleicht die größte Sorge. Aber der Meeresspiegel wird weiterhin steigen, egal was wir hinsichtlich von Treibhausgasen unternehmen. Spricht das UKMO dies an? Nein. Dann haben sie die Leute um die Steuergelder betrogen, die sie zur Durchführung dieser Forschungen erhalten haben.

Im letzten Absatz im 2. Teil des UKMO-Berichtes zum Stillstand der Erwärmung heißt es (Fettdruck von mir):

Die wissenschaftlichen Frage, die durch den gegenwärtigen Stillstand der globalen Erwärmung aufgeworfen werden, verlangen von uns, die Energieflüsse zur Erde und von der Erde weg sowie um die Erde herum viel besser zu verstehen. Gegenwärtige Beobachtungen sind nicht detailliert oder lang genug, um definitive Antworten hinsichtlich der Gründe des jüngsten Stillstands zu liefern. Darum können wir den Energiehaushalt der Erde nicht schließen. Es gibt wesentliche wissenschaftliche Herausforderungen, die die Forschungsgemeinschaft derzeit verfolgt. Dabei wird mittels einer Kombination von Theorie, Modellen und Beobachtungen erkundet und experimentiert.

Mit anderen Worten, auf der Basis der begrenzt verfügbaren Daten versteht das UKMO nicht den Grund (oder die Gründe) für den Stillstand der globalen Erwärmung, und das zeigt sehr deutlich, dass sie den Grund der Erwärmung von Mitte der siebziger Jahre bis zum Jahr 2000 nicht verstehen – während einer Zeit also, als die Datenlage noch unsicherer war.

Link: http://wattsupwiththat.com/2013/07/30/part-2-comments-on-the-ukmo-report-the-recent-pause-in-global-warming/

Übersetzt von Chris Frey EIKE




Kommentare zum UKMO-Bericht über „die gegenwärtige Pause bei der globalen Erwärmung“

Das UKMO wiederholt hier immer die gleichen ausgelatschten Entschuldigungen. Als Folge spricht dieser Bericht Themen an und präsentiert Daten, um die es schon in früheren Beiträgen gegangen war. Mit anderen Worten, Teile des Folgenden sind einfach wiedergekäute Themen, über die wir früher schon gesprochen haben. Und wie ich es in meinen Beiträgen immer mache, habe ich mir das Beste zum Schluss aufgehoben: Ich glaube nicht, dass das UKMO eine Verlangsamung des ozeanischen Wärmegehaltes während des letzten Jahrzehnts oder so zeigen wollte, oder seit Anfang dieses Jahrhunderts, aber genau das haben sie getan.

Die Executive Summary lautet (Fettdruck von mir):

Eine große Zahl beobachteter Klima-Indikatoren zeigt unverändert Änderungen, die mit einer sich global erwärmenden Welt und mit unserem Verständnis, wie das Klimasystem funktioniert, konsistent sind

Die globale Temperatur ist seit den siebziger Jahren rapide gestiegen, seit den letzten 15 Jahren bis zum Jahr 2013 aber relativ flach verlaufen. Dies hat zu Spekulationen geführt, dass die vom Menschen verursachte globale Erwärmung nicht mehr im Gange ist, oder dass der menschliche Einfluss zumindest geringer ist als vorhergesagt. Andere halten dies für einen vorübergehenden Stillstand und glauben, dass die Temperatur erneut mit den zuvor beobachteten Raten steigen wird.

Diese Studie ist der erste in einer Reihe von drei Berichten des Met. Office Hadley Centre, der auf den jüngsten Stillstand hinsichtlich der globalen Erwärmung eingeht und danach trachtet, die folgenden Fragen zu beantworten. Wie lagen die Trends anderer Indikatoren des Klimas während dieser Periode; was verursacht zum größten Teil den gegenwärtigen Stillstand, und in welchem Umfang beeinflusst der gegenwärtige Stillstand unsere Projektionen des zukünftigen Klimas?

Die Wetter- und Klimawissenschaft gründet sich auf das Beobachten und Verstehen unserer komplexen und sich entwickelnden Umwelt. Die fundamentalen physikalischen Gesetze des Systems Erde bilden die Basis für die Entwicklung numerischer Modelle, welche unser Verständnis des Gesamt-Klimasystems einschließen (d. h. Atomsphäre, Ozean, Land und Cryosphäre). Sie gestatten uns, Projektionen seiner Entwicklung anzufertigen.

Es ist daher eine inhärente Notwendigkeit, dass die Klimawissenschaftler über die bestmöglichen Informationen des gegenwärtigen Klimastatus’ und über den historischen Zusammenhang verfügen. Dies erfordert sehr genaue, global verteilte Beobachtungen, Monitoring-Systeme und Netzwerke. Erforderlich sind auch eine belastbare Datenverarbeitung und Analysen, um riesige Datenmengen zu erfassen. Außerdem muss man Beobachtungs-Unsicherheiten berücksichtigen, sowohl durch Grenzen der Messbarkeit als auch durch Lücken in den Beobachtungen, sowohl räumlich als auch zeitlich. Nur mit angemessener Sorgfalt und dem Anbringen rigoroser, unverzerrter wissenschaftlicher Hypothesen können Klimawissenschaftler das vollständigste Bild des Zustands zeigen, ebenso wie Trends sowie die Variabilität der vielen Variablen des Klimasystems. Dies bildet die Basis, auf der die Beweise und die von den Verbrauchern geforderte Beratung beruhen.

Dieses Dokument präsentiert eine kurze Synthese dieses globalen Bildes, wie es heute aussieht. Ein umfangreicheres Briefing wird in Zusammenarbeit mit einer großen Zahl von Wissenschaftlern jedes Jahr erstellt und in einem Special Supplement im Bulletin of the American Meteorological Society (BAMS) (Blunden and Arndt, 2013) veröffentlicht.

Die Beobachtungen zeigen:

Eine große Anzahl von Klimafaktoren zeigt weiterhin Änderungen. Zum Beispiel gibt es einen beobachteten fortgesetzten Rückgang des arktischen Meereises und einen Anstieg des globalen Meeresspiegels. Diese Änderungen sind mit unserem Verständnis konsistent, wie das Klimasystem auf den zunehmenden atmosphärischen Gehalt von Treibhausgasen reagiert.

Die globalen Temperaturen bleiben hoch, wobei das letzte Jahrzehnt das wärmste jemals war.

Zwar sieht es so aus, als ob sich die Rate der Erwärmung während dieses Jahrzehnts merklich verlangsamt hat, doch gab es derartige Phasen auch schon für ein Jahrzehnt oder so in der Vergangenheit in den Beobachtungen. Sie werden in den Klimamodellen simuliert, in denen es vorübergehende Ereignisse sind.

Soweit UKMO. Wir werden im Folgenden jeden fett gedruckten Punkt ansprechen.

DER STILLSTAND IST UNGEWÖHNLICH IN EINER WELT, VON DER MAN GLAUBT, DASS EINE ERWÄRMUNG DURCH TREIBHAUSGASE SEIT MITTE DER SIEBZIGER JAHRE DOMINIEREND WAR.

Beginnen wir mit dem letzten Absatz der Executive Summary:

„Zwar sieht es so aus, als ob sich die Rate der Erwärmung während dieses Jahrzehnts merklich verlangsamt hat, doch gab es derartige Phasen auch schon für ein Jahrzehnt oder so in der Vergangenheit in den Beobachtungen. Sie wird in den Klimamodellen simuliert, in denen es vorübergehende Ereignisse sind“.

Es scheint, dass das UKMO eine ganze Reihe von Punkten übersehen hat. Erstens hat das IPCC etwas präsentiert, von dem es behauptet, dass es auf Klimamodellen basierende Beweise sind, dass nur vom Menschen emittierte Treibhausgase die Erwärmung der letzten 30 Jahre hervorgerufen haben können. Man schaue in die Präsentation und die Diskussion der Abbildung 9.5 im 4. Zustandsbericht. Sie wird hier als Abbildung 1 reproduziert. Sie stammt aus Kapitel 9: Understanding and Attributing Climate Change, und zwar im Abschnitt mit der Überschrift „9.4.1.2 Simulations of the 20th Century”.

Der begleitende Text der IPCC-Abbildung 9.5 lautet:

„Abbildung 9.5 zeigt, dass Simulationen, die den anthropogenen Antrieb einbeziehen einschließlich zunehmender Treibhausgas-Konzentrationen und der Auswirkungen von Aerosolen sowie auch natürlicher externer Antriebe eine konsistente Erklärung für die beobachtete Temperaturaufzeichnung bieten, während Simulationen, die ausschließlich die natürlichen Antriebe betrachten, die beobachtete Erwärmung der letzten drei Jahrzehnte nicht zeigen.“

Das IPCC wollte die Völker der Welt – und noch wichtiger, die Gesetzgeber – glauben machen, dass nur anthropogene Treibhausgase die Erwärmung seit Mitte der siebziger Jahre erklären können.

Dann zeigten sie den vorhergesagten Anstieg der globalen Temperatur basierend auf Projektionen des zukünftigen Antriebs durch Treibhausgase. Dies haben sie illustriert in Abbildung 10.4 im AR4, die hier als Abbildung 2 reproduziert wird:

Jetzt sagt das UKMO, dass „solche Verlangsamungen für ein Jahrzehnt oder so bereits in vergangenen Beobachtungen aufgetaucht waren und in den Klimamodellen simuliert werden, wo sie vorübergehende Ereignisse sind“. Es gibt in Abbildung 2 keine Jahrzehnte langen Pausen der projizierten globalen Temperatur für die Szenarien A2, A1B oder B2. Die globalen Temperaturen reagieren jedoch ähnlich auf das „Constant Composition Commitment“ [?], welches dem IPCC zufolge bedeutet, dass „Treibhausgas-Konzentrationen auf dem Niveau des Jahres 2000 festgeschrieben werden“. Und doch steigen die Treibhausgas-Konzentrationen unvermindert weiter.

Und die Aufzeichnungen der Temperatur zeigen nicht nur, dass „eine solche Verlangsamung seit einem Jahrzehnt oder so nicht nur in Beobachtungen der Vergangenheit erkennbar war“, sondern auch, dass ein solcher Stillstand viele Jahrzehnte andauern kann. Man betrachte die Beobachtungsdaten (schwarze Kurven) in Abbildung 1. Sie zeigen einen Stillstand oder einen Rückgang von Anfang der vierziger Jahre bis Mitte der siebziger Jahre.

Glaubt das UK Met Office, dass wir uns nur so kurz erinnern oder dass wir Graphen des zeitlichen Verlaufes nicht lesen können?

Zweitens, die öffentliche Aufmerksamkeit für den Stillstand der Erwärmung schoss in die Höhe mit dem Artikel von David Rose in der Daily Mail mit dem Titel “Global warming stopped 16 years ago, reveals Met Office report quietly released… and here is the chart to prove it” [etwa: die globale Erwärmung hat vor 16 Jahren angehalten, enthüllt ein stillschweigend veröffentlichter Bericht des Met. Office … und hier ist die Graphik, die das beweist]. Ich habe die Graphik von David Rose in meiner Antwort auf den Artikel von Kevin Trenberth von der Royal Meteorological Society aktualisiert. Darin zeige ich, dass die Temperaturen im April 2013 im Wesentlichen die gleichen waren wie im Juni 1997. Seitdem habe ich den Juni 1997 als Startmonat für Graphen benutzt, die gleitende 16-Jahres-Trends zeigen, und die ständig aktualisiert und jeden Monat ausgeweitet werden. Der Zeitraum ist jetzt 192 Monate lang. Man betrachte die folgende Graphik eines gleitenden 192-Monate-Trends von Januar 1880 bis Mai 2013 in Abbildung 3, in der die Anomalien der globalen Temperatur nach HADCRUT4 verwendet werden. Die Graphik zeigt Trends der globalen Temperaturanomalien – nicht die Temperaturanomalien. Der letzte Datenpunkt in dieser Graphik ist der lineare Trend von Juni 1997 bis zum Mai 2013 (in Grad Celsius pro Jahrzehnt). Er ist leicht positiv, was einen Erwärmungstrend von etwa 0,03°C pro Jahrzehnt bedeutet. Und das zeigt natürlich, dass sich die globale Temperatur viel langsamer erwärmt hat als von den Klimamodellen während des jüngsten 192-Monate-Zeitraumes vorhergesagt. Geht man zeitlich zurück, repräsentiert der vorletzte Datenpunkt den linearen Trend für den 192-Monate-Zeitraum von Mai 1997 bis April 2013, und der Datenpunkt davor den Trend von April 1997 bis März 2013, und so fort. Das letzte Mal hat sich die Temperatur mit der minimalen Rate von 0,03°C pro Jahrzehnt in einem 192-Monate-Zeitraum um das Jahr 1980 erwärmt.

Wie ich in meinem Beitrag Open Letter to the Royal Meteorological Society Regarding Dr. Trenberth’s Article “Has Global Warming Stalled?” geschrieben habe, hat Kevin Trenberth von der NCAR über 10 Jahre gemittelte Temperaturen präsentiert, und zwar in seinem Artikel für die Royal Meteorological Society. Er hat versucht zu zeigen, dass der derzeitige Stillstand der globalen Erwärmung seit 2001 nicht ungewöhnlich sei. Bequemerweise hat er die Tatsache übersehen, dass der Stillstand, basierend auf seinem Startzeitpunkt, dem Jahr 2001, bereits über 12 Jahre andauert, nicht 10.

Der Zeitraum von Januar 2001 bis Mai 2013 ist inzwischen 149 Monate lang. Man betrachte Abbildung 4, also den Verlauf eines gleitenden 149-Monate-Trends von Januar 1880 bis Mai 2013, wieder mit den HADCRUT4-Daten der Temperaturanomalien. Sie wurden in gleicher Weise aufbereitet wie in der Abbildung zuvor, nur das jetzt eine Sequenz von 149  Monaten gewählt worden ist. Die höchste, auf deren linearem Trend basierende Erwärmungsrate in letzter Zeit ereignete sich während des 149-Monate-Zeitraumes, der Ende 2003 zu Ende gegangen war. Seitdem jedoch sind die Erwärmungstrends drastisch gefallen. Man beachte auch, dass Ende der siebziger Jahre zum letzten Mal ein 149-Monate-Zeitraum ohne jede Erwärmung aufgetreten war – bis jetzt.

Abbildungen 3 und 4 stammen aus dem Blogbeitrag June 2013 Global Surface (Land+Ocean) Temperature Anomaly Update.

Fazit: Der gegenwärtige Stillstand der Erwärmung ist ungewöhnlich. So etwas gab es seit Ende der siebziger Jahre oder dem Jahr 1980 nicht mehr. Und den IPCC-Klimamodellen zufolge, gezeigt in ihrer Abbildung 10.4 (meine Abbildung 2) war kein Stillstand vorhergesagt worden.

Glaubt das UKMO, dass sich die globale Temperatur wie von Zauberhand abkühlen wird?

In der von mir fett gedruckt dargestellten Passage der UKMO-Executive Summary schrieben sie:

Die globale mittlere Temperatur bleibt hoch, wobei die letzte Dekade die wärmste jemals gewesen ist.

Natürlich, „die globale Temperatur bleibt hoch…” Wo hat das UKMO festgestellt, dass die globale Temperatur während der Stillstandsperiode gesunken wäre? Es scheint, als greife das UKMO nach Strohhalmen.

Und natürlich war das vergangene Jahrzehnt das wärmste jemals. Wie ich in meinem offenen Brief an die Royal Meteorological Society zu Kevin Trenberths Artikel „Has Global Warming Stalled?“ geschrieben habe, gab es drei natürliche Ereignisse, die die achtziger Jahre wärmer werden ließen als die siebziger Jahre, die neunziger Jahre wärmer als die achtziger Jahre und das Erste Jahrzehnt dieses Jahrhunderts wärmer als die neunziger Jahre.

Die Pazifische Klimaverschiebung des Jahres 1976 verursachte im Ostpazifik einen Temperaturanstieg von 0,22°C. Siehe Abbildung 5! Es gibt zahlreiche begutachtete Studien über diese Verschiebung, aber keine allgemeine Übereinstimmung über deren Gründe. Die globale Temperatur rund um die Welt reagiert auf diese Verschiebung mit atmosphärischen Sattelpunkten und Fernauswirkungen.

Die Wassertemperaturen des Atlantik, Indik und Westpazifik  (90S-90N, 80W-180) zeigten ebenfalls Verschiebungen mit einem Anstieg. Für diese jedoch verstehen wir die Gründe. Siehe Abbildung 6! Basierend auf den gemittelten Temperaturanomalien über die Zeitperiode verursachte der El Niño von 1986/87/88 einen Anstieg der Wassertemperatur in den genannten Meeresgebieten um 0,09°C. Die Wassertemperatur in diesen Regionen stieg nochmals um etwa 0,18°C im Gefolge des El Niño von 1997/1998. Der El Niño von 2009/2010 scheint einen geringen Anstieg um etwa 0,05°C verursacht zu haben.

Die Gemeinschaft der Klimawissenschaft hat sich entschlossen, diese von El Niño verursachten Anstiege zu ignorieren, und zwar aus zwei Gründen: Erstens, weil hier dokumentiert wird, dass die Wassertemperatur der globalen Ozeane aufgrund natürlicher Ereignisse steigt. Und zweitens, weil es den Klimamodellierern selbst nach Jahrzehnten intensivster Bemühungen bislang nicht gelungen ist, die Ereignisse El Niño und La Niña angemessen zu simulieren.

Und auch aus Abbildung 6 gehen zwei Punkte eindeutig hervor: Erstens, die Erwärmung des Wassers in den vorgenannten Meeresgebieten (oder in 67% der Weltozeane) hängt von starken El Niño-Ereignissen ab. Oder anders ausgedrückt, ohne diese El Niño-Ereignisse würden die Wassertemperaturen im Atlantischen, Indischen und Westpazifischen Ozean nur eine geringe oder gar keine Erwärmung zeigen. Dies zeigt natürlich, dass sich der Stillstand der globalen Erwärmung bis zum nächsten starken El Niño fortsetzen wird. Zweitens: Die La Niña-Ereignisse, die den El Niños von 1986/87/88, 1997/98 und 2009/10 folgten, hatten keine verhältnismäßige Auswirkung auf die Wassertemperatur in diesen Ozeanen. Lediglich die Wassertemperatur im Ostpazifik sank proportional während dieser La Niñas, Abbildung 7, aber die Wassertemperaturen dort über 31 Jahre lang nicht gestiegen.

Wie ich im oben verlinkten Beitrag über Trenberths Artikel für die Royal Meteorological Society geschrieben habe – falls diese auf natürliche Weise stattfindenden, von El Niños verursachten Anstiege der Wassertemperatur für Sie neu sind, schauen Sie in mein bebildertes Essay „The Manmade Global Warming Challenge” [42MB]. Darin stelle ich eine als Einführung gedachte Diskussion der natürlichen Prozesse vor, die solche Sprünge verursachen. Im Prinzip werden diese Sprünge durch warmes Wasser verursacht, das nach starken El Niño-Ereignissen zurückbleibt – das von den El Niños erwärmte Wasser verschwindet nach deren Abklingen nicht sogleich. Der Essay enthält auch Links zu animierten Karten mit den Daten. Darin kann man das Auftreten dieser Verschiebungen erkennen und sich klar machen, woher wir von diesem übrig gebliebenen Warmwasser wissen. Am wichtigsten aber, man kann erkennen, warum man La Niña und El Niño-Ereignisse betrachten sollte, nämlich nicht als Rauschen in den Instrumenten-Temperaturaufzeichnungen, sondern als einen natürlich stattfindenden chaotischen Oszillator. Das Sonnenlicht und nicht infrarote Strahlung nimmt im tropischen Pazifik während eines La Niña zu. Das heißt, die Daten zeigen, dass die steigenden Wassertemperaturen durch die El Niños durch Sonnenlicht angetrieben wurden, nicht durch Treibhausgase. Wir besprechen dies noch detaillierter bei der Diskussion über den ozeanischen Wärmegehalt in einem späteren Beitrag.

In jenem Beitrag über den Trenberth-Artikel an die RMS habe ich auch eine Graphik gezeigt, die ich die Alternierende Präsentation von Dr. Trenberths „großen Sprüngen“ genannt habe. Siehe Abbildung 8! Ich habe die Graphik im Jahre 1951 beginnen lassen, so dass die Reaktion auf die Klimaverschiebung im Pazifik 1976 im Ostpazifik sichtbar wird. Und ich habe auch die Zeitspannen verändert, um diese Sprünge zu isolieren von den Sprüngen im Zuge der El Niño-Ereignisse der Jahre 1986/87/88 und 1997/98. Die natürlichen Beiträge zum Anstieg der globalen Temperatur sind nur zu offensichtlich.

Jetzt wollen wir noch einmal die UKMO-Verlautbarung betrachten, die wir unter dieser Überschrift besprochen haben:

„Die globale Temperatur verharrt auf hohem Niveau, wobei die letzte Dekade die wärmste jemals war“.

Natürlich war es das. Es war das wärmste jemals, weil das Rest-Warmwasser des El Niño von 1997/98 den Auswirkungen des folgenden La Niña entgegen wirkte und zu den Anstiegen der Wassertemperatur im Atlantischen, dem Indischen und dem Westpazifischen Ozean geführt hat. Man erinnere sich, diese Meeresgebiete überdecken etwa 67% der Oberfläche der globalen Ozeane. Die Land-Temperaturen für weite Teile der Welt machen dieses Verhalten der Wassertemperatur einfach mit.

Über das arktische Meereis und den Meeresspiegel

Jetzt wollen wir uns ein anderes unsägliches Zitat aus der Executive Summary Teil 1 des UKMO vornehmen:

„Eine große Zahl beobachteter Klima-Indikatoren zeigt unverändert Änderungen, die mit einer sich global erwärmenden Welt und mit unserem Verständnis, wie das Klimasystem funktioniert, konsistent sind“.

Was das UKMO nicht sagt: Der Meeresspiegel würde weiterhin steigen, völlig unabhängig von der gegenwärtigen Temperatur. Ich möchte einen Absatz aus der Einführung meines demnächst erscheinenden Buches zitieren (Arbeitstitel Climate Models are Crap). Darin heißt es nach derzeitigem Stand:

Der Meeresspiegel ist ebenfalls von Interesse, vor allem für Küsten- und Inselbewohner. Unglücklicherweise liegen die Ergebnisse von Klimamodell-Simulationen nicht in einfach zu interpretierenden Formaten vor, daher finden sich in diesem Buch keine Vergleiche zwischen Modell und Daten. Unabhängig davon halten Viele möglicherweise steigende Meeresspiegel für eine bestätigte Tatsache. Der Meeresspiegel ist seit dem Ende der letzten Eiszeit um 100 bis 120 Meter gestiegen, und er lag weitere 4 bis 8 Meter höher als heute während der Eemian-Zwischeneiszeit (der letzten interglazialen Periode). (Siehe hierzu die Presseerklärung zu der Studie von Dahl-Jensen et al. mit dem Titel Eemian interglacial reconstructed from a Greenland folded ice core). Unabhängig von der Ursache … besser gesagt: egal ob wir die Treibhausgas-Emissionen kappen oder nicht, sollten die Temperaturen auf dem derzeitigen Niveau verharren oder weiter steigen oder selbst bei einer geringen Abkühlung während der kommenden Jahrzehnte, wird der Meeresspiegel wahrscheinlich weiter steigen. Siehe hierzu den Beitrag von Roger Pielke Jr. How Much Sea Level Rise Would be Avoided by Aggressive CO2 Reductions? Es ist sehr gut möglich, dass der Meeresspiegel zum Ende des Holozäns (des aktuellen Interglazials) das Niveau wie während der Eemian-Zeit erreicht. Nach Meinung einiger Leser könnte die Frage nicht lauten, ob, sondern wann er diese Höhe erreicht.

Roger Pielke, Jr.’s Beitrag (linked above) ist lesenswert.

Hinsichtlich des arktischen Meereises müssen wir zunächst über die Wassertemperatur reden. Wir haben seit über 4 Jahren gezeigt und erklärt, dass die Temperaturaufzeichnungen mittels Satelliten die Erwärmung als Folge von natürlich auftretenden Ereignissen aufgetreten ist und nicht durch menschliche Treibhausgase. Noch einmal der Hinweis auf den Essay „The Manmade Global Warming Challenge” [42MB], wenn diese Diskussion für Sie neu ist. Und wir haben auch gezeigt, dass sich der Pazifik als Ganzes seit fast 2 Jahrzehnten nicht mehr erwärmt hat, wie Abbildung 9 zeigt (Abbildung 9 stammt aus diesem Beitrag).

Die linke Karte in Abbildung 10 zeigt die jährlichen Trends der Wassertemperaturen im Pazifik von 1982 bis 2012. Man sieht, dass sich einige Regionen während dieser Zeit erwärmt haben, vor allem in den zentralen und westlichen mittleren Breiten des Nordpazifik. Wenn wir jedoch auf die Trends in den Quartalen mit der höchsten saisonalen arktischen Schmelzrate schauen, also Juli bis September, fallen die Erwärmungsraten in Teilen der höheren Breiten des Nordpazifik ziemlich hoch aus. Das zeigt die rechte Karte in der Abbildung.

Wir haben auch gezeigt, dass die Wassertemperaturen im Nordatlantik einen zusätzlichen Modus jahreszeitlicher Variabilität aufweisen, bekannt unter der Bezeichnung Atlantische Multidekadische Oszillation AMO. (Weiteres zur AMO bei NOAA/AOML FAQ hier, in meinem Blogbeitrag hier und in meiner Einführung zur AMO hier.) Als Folge hat sich der Nordatlantik seit Mitte der siebziger Jahre auf natürliche Weise mit einer Rate erwärmt, die höher war als in den übrigen Ozeanen, die sich ebenfalls aufgrund natürlicher Ereignisse erwärmt haben und nicht aufgrund von Treibhausgas-Emissionen.

Aber wie die Karte der jährlichen Trends im Nordatlatik zeigt (linke Karte in Abbildung 11) erfolgte die stärkste Erwärmung in hohen Breiten. Und das gilt auch und vor allem für die stärkste jährliche Abschmelzrate des arktischen Meereises von Juli bis September, was die rechte Karte zeigt.

Vergleicht man die hohen Breiten im Nordpazifik und im Nordatlantik, weist Letzterer hinsichtlich der Wassertemperatur eindeutig die höhere Erwärmungsrate als Folge der AMO auf.

Das führt uns zur Betrachtung des arktischen Meereises. Wir betrachteten die Auswirkungen der Meereis-Ausdehnung auf eine ganze Anzahl von Datensätzen, nämlich Wassertemperatur, Temperatur der unteren Troposphäre und Temperatur an Land in dem Beitrag How Much of an Impact Does the Atlantic Multidecadal Oscillation Have on Arctic Sea Ice Extent? [etwa: wie groß ist der Einfluss der AMO auf die arktische Meereis-Ausdehnung?] Von allen gezeigten Datensätzen war der Datensatz mit der größten Übereinstimmung – der höchsten Korrelation – mit der Eisausdehnung derjenige mit den Anomalien der Wassertemperatur in den hohen Breiten der Nordhemisphäre (60 N bis 90 N). Siehe Abbildung 12! Die arktische Meereis-Ausdehnung und die Wassertemperaturen in hohen Breiten der Nordhemisphäre wiesen einen Korrelations-Koeffizienten von 0,85 auf. Die Korrelationen der arktischen Meereis-Ausdehnung mit den Temperaturanomalien in der unteren Troposphäre und der Anomalien mit den Temperaturen über Land waren viel geringer (beide in hohen Breiten: 60 N bis 90 N).

Am Ende dieses Beitrags findet sich Folgendes:

Da es keine Beweise für eine vom Menschen verursachte Komponente hinsichtlich der Erwärmung der globalen Ozeane während der letzten 30 Jahre gibt, leistete die natürliche zusätzliche Erwärmung der Wassertemperaturen im Nordatlantik – höher als die natürliche Erwärmung aller anderen globalen Ozeane – einen wesentlichen Beitrag zum natürlichen Eisverlust des arktischen Meereises während der Satelliten-Ära. Man füge jetzt noch die Wetterereignisse hinzu, zu denen es alle paar Jahre kommt. Dann können wir guten Gewissens die Aufregung um den Rekord-Eisverlust in der Arktis im Jahr 2012 vergessen.

Klimamodelle

Nun zum nächsten Punkt der unwahren Behauptungen in der Executive Summary im UKMO-Bericht. Dort heißt es:

Die fundamentalen physikalischen Gesetze des Systems Erde bilden die Basis für die Entwicklung numerischer Modelle, welche unser Verständnis des Gesamt-Klimasystems einschließen (d. h. Atomsphäre, Ozean, Land und Cryosphäre). Sie gestatten uns, Projektionen seiner Entwicklung anzufertigen.

In einer ganzen Reihe von Beiträgen während der letzten Monate haben wir gezeigt, dass die Klimamodelle zur Vorbereitung des kommenden 5. Zustandsberichtes keinerlei Neigung zeigen, die folgenden Phänomene zu simulieren:

Global Land Precipitation & Global Ocean Precipitation

Global Surface Temperatures (Land+Ocean) Since 1880

Greenland and Iceland Land Surface Air Temperature Anomalies

Scandinavian Land Surface Air Temperature Anomalies

Alaska Land Surface Air Temperatures

Daily Maximum and Minimum Temperatures and the Diurnal Temperature Range

Hemispheric Sea Ice Area

Global Precipitation

Satellite-Era Sea Surface Temperatures

Und jüngst haben wir in dem Beitrag Meehl et al (2013) Are Also Looking for Trenberth’s Missing Heat [etwa: Meehl et al. (2013) suchen ebenfalls nach der von Trenberth vermissten Wärme] gezeigt, dass die in jener Studie verwendeten Klimamodelle keinen Beweis zeigen, dass sie in der Lage sein könnten zu simulieren, wie warmes Wasser aus den Tropen zu den mittleren Breiten des Pazifik transportiert werden könnte. Warum also sollten wir dann glauben, dass sie simulieren können, wie warmes Wasser in Tiefen unter 700 m transportiert werden könnte, ohne dass sich das Wasser der oberen 700 m erwärmt?

Die Gemeinde der Klimawissenschaft mag glauben, dass sie „die fundamentale Physik des Erdsystems“ versteht, aber die Performance ihrer Modelle zeigt, dass ihr Verständnis sehr begrenzt ist und dass sie noch einen langen Weg zurücklegen muss, bevor sie „Projektionen der Entwicklung“ erstellen kann. Wenn man die Vergangenheit nicht simulieren kann, gibt es keinen Grund, dem zu glauben, was ihre Projektionen für die Zukunft bereit halten.

Noch rasch etwas zum Wärmegehalt der Ozeane

Das UKMO hatte über den ozeanischen Wärmegehalt Folgendes zu sagen (Fettdruck von mir):

Seit etwas dem Jahr 2000 hat das ARGO-Bojensystem dafür gesorgt, dass wir eine fast globale Abdeckung der Wassertemperatur bis zu einer Tiefe von 700 m haben (15% bis 20% der mittleren Tiefe im offenen Ozean). Neuere Bojen messen bis zu einer Tiefe von 2000 m. Allerdings sind die eisbedeckten Gebiete und die Randmeere immer noch eine Herausforderung. Kombiniert man die Daten der ARGO-Bojen mit Messungen von Schiffen, kann man relativ langzeitliche Schätzungen der in den oberen 700 m gespeicherten Wärme vornehmen (Abbildung 18). Der Vergleich dieser Aufzeichnungen mit den Temperaturaufzeichnungen an Land zeigt trotz der Erwärmungspause seit dem Jahr 2000 einen Anstieg des Wärmegehalts im oberen Ozean.

Abbildung 18 aus dem UKMO-Bericht findet sich im oberen Kasten meiner Abbildung 13. Ich habe vieles der Temperaturdaten an Land gekennzeichnet, um die Daten des ozeanischen Wärmegehaltes zu beleuchten. Das UKMO hat den Datensatz des ozeanischen Wärmegehaltes in einer Tiefe von 0 bis 700 m nicht identifiziert; man hat lediglich in der Bildunterschrift darauf hingewiesen, dass der Datensatz der Temperaturdaten an Land der von HADCRUT4 ist. Im Text seines Berichtes bezog sich das UKMO auf Levitus et al. (2012). Aber der obere Kasten in Abbildung 13 (Abbildung 18 im UKMO-Bericht) zeigt nicht den ozeanischen Wärmegehalt von 0 bis 700 Metern. Die NODC-Daten des ozeanischen Wärmegehalts zeigen von den achtziger Jahren bis zu Beginn dieses Jahrhunderts keine Abkühlung, anders als beim UKMO dargestellt.

Der untere Kasten in meiner Abbildung 13 zeigt ebenfalls eine Graphik der Daten des ozeanischen Wärmegehaltes aus dem UKMO-Bericht. Sie war in ihrer Abbildung 1 als Kasten W eingefügt. Das UKMO merkt an, dass das aus dem Bulletin der American Meteorology „State of the Climate 2012“ von Blunden und Arndt (2013) stammt. Dieser Bericht wird gerade gedruckt, so dass wir den Quellen der Daten bzgl. des Wärmegehaltes nicht folgen können.

Wie man bemerken wird, zeigen in der unteren Graphik 3 der 4 nicht identifizierten Datensätze des ozeanischen Wärmegehaltes von 0 bis 700 m, dass sich die Erwärmung der Ozeane bis zum Schneckentempo verlangsamt hat mit Beginn Anfang des 21. Jahrhunderts. Diese drei Datensätze widersprechen der UKMO-Feststellung, dass „…trotz der Erwärmungspause seit dem Jahr 2000 der ozeanische Wärmegehalt in den oberen Schichten der Ozeane weiterhin steigt“.

Schlussbemerkung

Ich muss dem Titel des Beitrags von Bishop Hill über den UKMO-Bericht zustimmen, der da lautet: Ihr Schiff sinkt. Wird drehen helfen?

Wir werden in einigen Tagen einen Blick auf Teil 2 ihres Berichtes werfen. In der Zwischenzeit schreibe ich weiter an meinem Buch Climate Models are Crap.

Link: http://wattsupwiththat.com/2013/07/25/part-1-comments-on-the-ukmo-report-about-the-recent-pause-in-global-warming/#more-90426

Übersetzt von Chris Frey EIKE




Ein vorläufiger Blick auf Compo et al. (2013)

Das Vertrauen in die Schätzungen anthropogener Klimaänderung ist aus bekannten Gründen hinsichtlich der Temperaturmessungen an Landstationen begrenzt. Die Lage der Station, Änderungen der Instrumentierung, sich ändernde Beobachtungspraktiken, städtische Effekte, Landschaft und Veränderungen derselben sowie statistische Prozesse wurden alle durch das IPCC und andere hypothetisch als die Trends beeinflussend dargestellt. Jedwedes Artefakt in den beobachteten dekadischen und hundertjährigen Veränderungen in Verbindung mit diesen Dingen könnte wichtige Konsequenzen für das wissenschaftliche Verständnis und die Klimapolitik haben. Wir führen hier einen ganz anderen Weg durch, um die globale Erwärmung auf dem Festland während es 20. Jahrhunderts zu untersuchen. Wir haben alle Messungen der Lufttemperatur ignoriert und sie stattdessen aus Messungen des Luftdrucks, der Wassertemperatur und der Meereis-Konzentration abgeleitet via einer physikalisch basierten Datenassimilation, genannt die 20. Jahrhundert-Realanalyse. Dieser unabhängige Datensatz reproduziert sowohl jährliche Schwankungen als auch Jahrhundert-Trends in den Temperatur-Datensätzen. Sie zeigen die Robustheit früherer Schlussfolgerungen hinsichtlich der globalen Erwärmung.

Kurz gesagt, Compo et al. (2013) haben global Lufttemperaturen über dem Festland kreiert ohne stationsbasierte Temperaturmessungen. Im Wesentlichen nutzten sie andere Variable als Input für eine Computer-Reanalyse, um daraus Temperaturanomalien abzuleiten.

Natürlich hat man bei SkepticalScience sofort einen Beitrag zu dieser Studie gepostet, wobei Dana1981 seine zwei Cent [?] über die Bedeutung von Compo et al. in den Ring wirft. SkepticalScience war so nett und hat die Abbildungen 1 und 2 aus Compo et al. (2013) abgebildet. Die Abbildung 1 bei Compo et al. ist auch hier Abbildung 1. Sie zeigt die Erwärmung der Temperaturen auf dem Festland von 1991 bis 2010 in der Breite von 60°S bis 90°N. Die blaue Kurve ist die Reanalyse von Compo et al. Die rote Kurve zeigt die neuen und verbesserten CRUTEM4-Daten vom UK-Met. Office. Und die schwarze Kurve ist das Mittel anderer Rekonstruktionen der Temperatur auf dem Festland einschließlich NCDC, GISS, JMA und UDEL.

Abbildung 1 (Abbildung 1 aus Compo et al (2013))

Was erkennen Sie in dieser Graphik?

Ich erkenne darin im Vergleich zu anderen Datensätzen, dass die Compo et al.-Realanalyse während der frühen und mittleren siebziger Jahre wärmere Anomalien aufweist und kühlere zum Ende des ersten Jahrzehnts in diesem Jahrhundert, was einen niedrigeren Trend während der jüngsten Erwärmungsperiode erzeugen würde. Die Compo et al.-Realanalyse zeigt auch eine Abflachung der Temperaturanomalien an Land seit dem Jahr 1995, während andere Datensätze dort fortgesetzte Erwärmung zeigen. Compo et al. zeigen auch eine übertriebene Spitze im Jahr 1943 im Zusammenhang mit einem mehrjährigen El Niño-Ereignis damals.

Die Wahl des Bezugszeitraumes 1981 bis 2010 als Basis für Anomalien ist auch eine Merkwürdigkeit. Während die WMO periodisch die Aktualisierung von Bezugsjahren verlangt, verwenden die Produzenten globaler Temperaturanomalien wie GISS, NCDC und UKMO individuell unterschiedlich ausgewählte Basisperioden.

Der reproduzierte Graph von der Compo et al.-Realanalyse

Unter Verwendung der Koordinaten-Funktion von MS Paint habe ich das Ergebnis der Reanalyse von Compo et al. (2013) reproduziert. Ich vergleiche sie mit den CRUTEM4-Daten in den Breiten von 60°S bis 90°N in Abbildung 2 mit der Bezugsperiode 1981 bis 2010 als Basis. (Die CRUTEM4-Daten werden durch den  KNMI Climate Explorer auf einer gerasterten [gridded] Basis zur Verfügung gestellt). Ich habe auch die linearen Trends eingezeichnet. Meine Reproduktion erzeugt einen linearen Trend, der vergleichbar ist mit dem Trend von 0,09°C pro Dekade, wie er im Beitrag bei SkepticalScience genannt wird.

Abbildung 2

Nun wollen wir also einmal die jüngste Erwärmungsperiode näher betrachten, und wir lassen die gegenwärtige Erwärmungsperiode im Jahr 1976 beginnen. In Abbildung 3 wird die reproduzierte Compo et al.-Realanalyse im kurzfristigen Zeitraum mit den CRUTEM4-Daten verglichen. Wie vermutet zeigen die CRUTEM4-Daten einen um 32% stärkeren Erwärmungstrend als die Rekonstruktion von Compo et al. Die Abflachung der warmen Spitzen in der Compo et al.-Reanalyse seit 1995 kommt ebenfalls viel deutlicher zum Ausdruck.

Abbildung 3

Verwendung unterschiedlicher Basisjahre

In den Abbildungen 4 und 5, langzeitlichen Vergleichen, habe ich die Realanalysen von CRUTEM4 und Compo et al. verglichen unter Verwendung des Standardbezugszeitraumes von UKMO und GISS. Abbildung 4 zeigt den Bezugszeitraum 1961 bis 1990 von UKMO und Abbildung 5 die Periode 1951 bis 1980 von GISS. Die Divergenz in letzter Zeit (Abflachung der warmen Spitzen in der Compo et al.-Realanalyse im Vergleich zur fortgesetzten Erwärmung der CRUTEM4-Datenspitzen) kommt ziemlich klar in beiden Graphiken zum Ausdruck. Ich überlasse es Ihnen zu kommentieren, warum Compo et al. die Anomalien im Vergleich zum Zeitraum 1981 bis 2010 präsentiert haben.

Abbildung 4

####################

Abbildung 5

Trendkarten

Meine Abbildung 6 ist die Abbildung 2 in Compo et al. (2013). Man beachte die Unterschiede in den Trends über Alaska und den mittleren bis höheren Breiten in Russland während des Zeitraumes 1952 bis 2010 (Zellen c und d). Compo et al. (2013) konnten die exzessiven Erwärmungsraten dort während dieses Zeitraumes nicht reproduzieren.

Abbildung 6 (Abbildung 2 aus Compo et al (2013))

Schlussbemerkung

Manchmal bekomme ich den Eindruck, dass SkepticalScience unfähig ist, Zeitreihen-Graphiken richtig zu deuten. Ich überlasse es Ihnen, den restlichen Beitrag bei SkepticalScience zu kommentieren.

Bob Tisdale

Link: http://wattsupwiththat.com/2013/04/08/a-preliminary-look-at-compo-et-al-2013/

Übersetzt von Chris Frey EIKE

Anmerkung der Redaktion: Diese Studie wird von den IPCC Jüngern derzeit benutzt um mächtig Reklame für diese Studie zu machen. Abgesehen von den Fragen die Bob Tisdale stellt, bleibt u.a. die Frage mit welchen Mitteln Non-Thermometer Daten wie oben genannt, zu Luft-Temperaturdaten (in 2 m Höhe), bzw. deren Abweichungen von einem Referenzwert umgemünzt wurden. Es ist gut vorstellbar, dass der Kalibrierungsprozess selber die Ergebnisse erzeugt hat. Wir bleiben dran.