1

Angesichts jüngster Ereignisse – ein möglicher Klima-Aktionsplan der USA

Der Plan von Christopher Monckton of Brenchley

1. Rückzug der USA aus dem UN Framework Convention on Climate Change (UNFCCC), vom Pariser Klimaabkommen und aus dem IPCC: Der Präsident der Vereinigten Staaten sollte den Außenminister auffordern, den UN-Generalsekretär sozusagen als Treuhänder sofort davon in Kenntnis zu setzen, dass man sich aus dem FCCC zurückziehen sowie von allen darunter fallenden Protokollen oder Abkommen zurücktreten werde, einschließlich des Pariser Klimaabkommens, und zwar im Rahmen von Artikel 25 (Rückzug) der Convention, welchem zufolge ein Jahr Zeit bleibt, bevor der Rückzug in Kraft tritt. Unter Artikel 28 (Rückzug) des Pariser Klimaabkommens enthält die Bekanntmachung des Rückzugs aus der Framework Convention automatisch den Rückzug aus dem Pariser Klimaabkommens sowie aus sämtlichen, darunter fallenden Verpflichtungen. Der Höflichkeit halber sollte auch die Regierung von Frankreich, quasi als Treuhänder des Abkommens, sofort von diesem Rückzug in Kenntnis gesetzt werden. Unabhängig hiervon sollte auch der IPCC-Generalsekretär davon unterrichtet werden.

2. Sofortige Beendigung aller Zahlungen der [US-]Bundesregierung aus umweltlichen und humanitären Gründen an Unternehmungen im Ausland im Zusammenhang mit Klimawandel: Der Präsident sollte den Außen- und den Finanzminister auffordern, alle Zahlungen an auswärtige Unternehmungen im Zusammenhang mit Klimawandel zum frühestmöglichen Zeitpunkt einzustellen. Über die hieraus folgenden Einsparungen sollte der Stabschef [Chief of Staff] des Weißen Hauses monatlich unterrichtet werden, bis alle diese Zahlungen eingestellt sind.

3. Aus umweltlichen Gründen sofortige Beendigung aller Subventionen der US-Regierung für die Klimawandel-Forschung und für „erneuerbare“ Energie: Der Präsident sollte den Finanzminister auffordern, alle Klima-Subventionen zu streichen zum frühestmöglichen Zeitpunkt. Auch über die hieraus folgenden Einsparungen sollte der Stabschef [Chief of Staff] des Weißen Hauses monatlich unterrichtet werden, bis alle diese Zahlungen eingestellt sind.

4. Annullierung sämtlicher früheren gesetzlichen Anordnungen zur Förderung von Maßnahmen gegen Klimawandel: Der Präsident sollte den Stabschef auffordern, einen Entwurf vorzulegen, wie alle Anordnungen hinsichtlich Klimawandel und damit zusammenhängender Dinge annulliert werden können.

5. Ausführung eines humanitären US-Hilfsprogramms mit der Errichtung von Kohlekraftwerken und Strom-Infrastruktur in Regionen ohne elektrischen Strom: Der Präsident sollte zusammen mit den Ministern für Äußeres, Finanzen und Energie ein US-Hilfsprogramm für humanitäre Hilfe ankündigen mit dem Ziel, jedes Jahr Millionen Todesfälle unter den 1,2 Milliarden Menschen zu verhindern, denen nicht die lebensrettenden Vorteile elektrischen Stromes zur Verfügung stehen. Kohlestrom ist dabei zu bevorzugen, weil er pro erzeugter Terawattstunde billiger ist als jede andere Energieform, weil die Kohlevorräte noch reichlich sind und weil die saubere Erzeugung durch derzeitige Kraftwerke für Dritte-Welt-Länder einfacher zu betreiben ist als jede andere Energieform.

6. Unabhängige Untersuchung der Klimawandel-Wissenschaft: Der Präsident sollte den Energieminister auffordern, sofort eine unabhängige Untersuchungskommission ins Leben zu rufen, die folgenden Fragen nachgehen soll: 1) Bis zu welchem Grad wird die Anreicherung unserer Atmosphäre mit CO2 und anderen Treibhausgasen die Welt erwärmen? 2)Ist die Abschwächung der globalen Erwärmung kosteneffektiver im Vergleich zur Anpassung an deren Konsequenzen übermorgen? Wissenschaftler und Ökonomen, die die Meinung des Präsidenten teilen, sollten in diese Kommission berufen werden, deren Ziel es sein soll, eine umfassende Rechtfertigung für frühere Entscheidungen des Präsidenten zu liefern, sich aus internationalen Klimaabkommen zurückzuziehen und für die Beendigung aller Zahlungen und Subventionen mit Klimabezug.

7. Abschaffung der Environmental Protection Agency: Der Präsident sollte seinen Einfluss auf den Kongress geltend machen, um bei frühestmöglicher Gelegenheit ein Gesetz zur Abschaffung der Environmental Protection Agency in Kraft zu setzen. Die EPA-Aktivitäten laufen der US-Verfassung zuwider, und deren Funktionen wäre besser gedient mit der Übertragung an die einzelnen Staaten.

8. Genehmigung der Keystone XL-Pipeline: Der Präsident sollte nach Beratungen mit seinem Kabinett bei frühestmöglicher Gelegenheit die Genehmigung zum Bau der Keystone-XL-Pipeline erteilen.

9. Aufhebung von wissenschaftlich nicht zu rechtfertigenden Maßnahmen wie etwa die Eisbären als vom Aussterben bedroht zu listen. Dies sollte bei frühestmöglicher Gelegenheit erfolgen.

10. Ermittlungen gegen wissenschaftlichen und ökonomischen Betrug im Zusammenhang mit Klimawandel-Wissenschaft und -ökonomie sowie mit erneuerbarer Energie sollten umgehend beginnen.

Link: https://wattsupwiththat.com/2016/11/09/in-light-of-recent-events-a-possible-united-states-climate-change-action-plan/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Die Relevanz der von Lord Monckton genannten Punkte für uns in Deutschland ist sicherlich nicht bei allen gegeben, bei Einigen aber ziemlich hoch.




Einführung des Globale-Erwärmung-Tachometers

Bild rechts: Das Tachometer für den Zeitraum von 15 Jahren und 4 Monaten von Januar 2001 bis April 2016 zeigt das Intervall der globalen Erwärmungsraten von 1,1/4,2°C pro Jahrhundert, welche den Prophezeiungen aus den Berichten der Jahre 1990, 1995 und 2001 zufolge bis heute aufgetreten sein sollen. Verglichen wird es mit der beobachteten Erwärmung in der realen Welt (grün) mit einem Äquivalent von 0,5°C pro Jahrhundert über den gleichen Zeitraum.

Gemessene Realität

Von den monatlichen Werten der nahezu global erfassten Temperaturanomalie der unteren Troposphäre mittels Satelliten (RSS und UAH) wird angenommen, dass sie im Großen und Ganzen genau sind. Diese wurden gemittelt. Der Trend der linearen Regression kleinster Quadrate wurde berechnet und ergab ein Äquivalent von 0,47°C pro Jahrhundert.

Prophezeiungen in den IPCC-Zustandsberichten:

Seit Veröffentlichung der IPCC-Berichte (2007, 2013) ist zu wenig Zeit vergangen, um einen zuverlässigen Vergleich zwischen den Prophezeiungen darin und der Realität anzustellen.

IPCC (2001) prophezeite auf Seite 8, dass sich die Welt während der 36 Jahre von 1990 bis 2025 um 0,75°C erwärmen werde (0,4 bzw. 1,1°C), das entspricht einem Äquivalent von 2,1 (1,1 bzw. 3,1)°C pro Jahrhundert. Dieses prophezeite Intervall hat die gemessene Erwärmung seit Januar 2001 um das 4,5 (2,3 bzw. 6,6)-fache überschätzt.

IPCC (1995): In Abb. 6.13 wurde die dann mit der danach auch gemessenen Zunahme des CO2-Gehaltes um 0,5% pro Jahr eine mittelfristige Erwärmungsrate etwas unter 0,4°C über 21 Jahre angenommen, das entspricht einem Äquivalent von 1,8°C pro Jahrhundert oder eine Überschätzung der Erwärmung seit Januar 2001 um das 3,8-fache.

IPCC (1990): Auf Seite xxiv wurde eine nahezu lineare globale Erwärmung von 1,0 (0,7 bzw. 1,5)°C während der 36 Jahre bis 2025 angenommen. Dies entspricht einer Rate äquivalent zu 2,8 (1,9 bzw. 4,2)°C pro Jahrhundert. Diese Rate ist das 6,0 (4,0 bzw. 8,9)-fache der gemessenen Erwärmung seit Januar 2001.

Schlussfolgerungen

Ein Zeitraum von 15 Jahren ist lang genug, um die Prophezeiungen des IPCC aus den ersten drei Zustandsberichten zu verifizieren im Vergleich zu der in der realen Welt gemessenen Temperaturänderung – gemessen mit der besten derzeit zur Verfügung stehenden Methode – nämlich mit Satelliten.

Die deutliche Diskrepanz zwischen den wilden Prophezeiungen und der harmlosen Realität seit Januar 2001 zeigt, dass die Haupt-Klimamodelle, auf die sich die Regierungen bei ihren Entscheidungen zu abschwächenden Maßnahmen verlassen haben, für diesen Zweck gänzlich ungeeignet sind. Entfernt man die den Modellen innewohnenden Übertreibungen, erledigt sich das vermeintliche Klima-Problem von selbst.

Die Beweise aus der realen Welt zeigen, dass eine Politik zur Abschwächung auf Prophezeiungen beruht, die inzwischen als scham- und grundlos übertrieben bloßgestellt wurden.

Alle derartigen politischen Maßnahmen sollten sofort beendet werden und deren gewaltige Kosten umgehend den Steuerzahlern zurückgegeben werden mittels Streichung von Energiesteuern und Abgaben.

Industriezweige wie Kohlebergbau und Stromerzeugung mittels Kohle sollten vollständig entschädigt werden für die sinnlosen Verluste und die Schäden, die ihnen eine falsche Politik zugefügt hat.

Subventionen für Forschungen bzgl. der globalen Erwärmung sollten gestrichen und das IPCC aufgelöst werden.

Link: https://wattsupwiththat.com/2016/05/25/introducing-the-global-warming-speedometer/

Übersetzt von Chris Frey EIKE




Der Stillstand verlängert sich weiter – gerade rechtzeitig für Paris

[*Dieser Satz ist wieder eine wunderbar feinsinnig formulierte Wortschöpfung von Lord Monckton, die sich kaum ins Deutsche übersetzen lassen. Daher hier der Satz im Original: As the faithful gather around their capering shamans in Paris for the New Superstition’s annual festival of worship, the Pause lengthens yet again]

Abbildung 1 (rechts): Der Trend der linearen Regression kleinster Quadrate in der Anomalie der monatlichen, von RSS ermittelten globalen Temperatur zeigt keinerlei globale Erwärmung seit 18 Jahren und 9 Monaten, also seit Februar 1997, obwohl ein Drittel aller anthropogenen Antriebe in diesen Zeitraum gefallen ist.

Der Zufallsdelegierte aus Burma provozierte Aufschreie vor Wut von der Kongregation während der finalen Sitzung in Doha vor drei Jahren mit seiner Aussage, dass der Stillstand damals bereits seit 16 Jahren im Gange war. Jetzt, fast drei Jahre später, ist der Stillstand sogar noch fast drei Jahre länger.

Man muss verstehen, wie überrascht die Modellierer sein müssten angesichts der Dauer des Stillstands. In einem sehr seltenen Anfall von Ehrlichkeit räumte die NOAA in ihrem Bericht aus dem Jahre 2008 State of the Climate ein, dass 15 Jahre oder mehr ohne globale Erwärmung eine Diskrepanz zeigen würden zwischen Prophezeiung und Beobachtung. Grund für das NOAA-Statement war, dass es vermeintlich eine scharfe und signifikante augenblickliche Reaktion auf einen Strahlungsantrieb wie dem Hinzufügen von CO2 in die Luft geben müsse.

Die Stärke dieser prophezeiten Reaktion geht aus Abbildung 1a hervor. Sie basiert auf einer Studie über Temperatur-Rückkopplungen von Prof. Gerard Roe, einem ehemaligen Studenten von Prof. Richard Lindzen, aus dem Jahr 2009. Der Graph von Roes Modell-Output zeigt, dass die initial erwartete Reaktion auf einen Antrieb eine vermeintliche sofortige und rapide Erwärmung ist. Aber trotz der sehr substantiellen Antriebe während der 18 Jahre und 9 Monate seit Februar 1997 ist es nicht einmal ansatzweise zu einer minimalen Erwärmung gekommen.

Abbildung 1a: Modelle zeigen eine rapide initiale Erwärmung als Reaktion auf einen Antrieb. Stattdessen gab es in Wirklichkeit überhaupt keine Erwärmung. Nach Roe (2009).

Auf den Veranstaltungen von Heartland und Philip Foster in Paris werde ich detailliert die drei ernsten Fehler enthüllen, die die Modelle die Erwärmung so gewaltig übertrieben vorhersagen haben lassen.

Der gegenwärtige El Niño ist mindestens genauso stark wie der von 1998, wie Bob Tisdale in seiner ausgezeichneten Serie von Beiträgen hier zeigt. Die RSS-Aufzeichnungen beginnen, dessen Größenordnung zu reflektieren.

Vom nächsten Monat an wird sich der Stillstand möglicherweise dramatisch verkürzen und kann sogar eine Zeitlang völlig verschwinden. Falls jedoch eine La Niña folgt, was fast immer der Fall ist, könnte sich der Stillstand irgendwann ab dem Ende des nächsten Jahres wieder einstellen.

Die Stillstandsperiode von 18 Jahren und 9 Monaten ist der am weitesten zurück reichende Zeitraum in den RSS-Temperaturaufzeichnungen, der immer noch einen Null-Trend zeigt. Der Anfangszeitpunkt ist nicht cherry-picked, sondern berechnet. Und die Graphik bedeutet nicht, dass es so etwas wie eine globale Erwärmung nicht gibt. Geht man noch weiter zurück, zeigt sich eine geringe Erwärmungsrate.

Und ja, der Anfangszeitpunkt des Stillstands hat sich millimeterweise vorwärts verschoben, allerdings etwas langsamer als der Endzeitpunkt, weshalb sich der Stillstand im Mittel noch weiter verlängert.

Ein so langer Zeitraum einer konstanten globalen Temperatur ist schlicht und ergreifend inkonsistent nicht nur mit den extremsten Prophezeiungen der Computermodelle, sondern auch mit der Panik, hervorgerufen durch die nach Geld gierenden Profiteuren des Untergangs, die ihre Hände in Paris in Unschuld waschen.

Der UAH-Datensatz zeigt einen fast so langen Stillstand wie der RSS-Datensatz. Allerdings zeigen die stark veränderten Oberflächen-Temperaturdatensätze eine geringe Erwärmungsrate (Abbildung 1b).

Abbildung 1b: Die lineare Regression kleinster Quadrate auf den Trend der Anomalien der Mittelwerte von GISS, HadCRUT4 und NCDC zeigt eine globale Erwärmung mit einer Rate äquivalent zu 1,1°C pro Jahrhundert während des Stillstands von Januar 1997 bis September 2015.

Mit dem Gedanken im Hinterkopf, dass ein Drittel der 2,4 W/m² Strahlungsantrieb aus allen anthropogenen Quellen seit 1750 während der Stillstandsperiode wirksam war, ist eine Erwärmungsrate äquivalent zu etwas mehr als 1°C nicht wirklich alarmierend.

Wie immer hier aber eine Mahnung zur Vorsicht. Nur weil es kaum oder gar keine Erwärmung während der letzten Jahrzehnte gegeben hatte, darf man nicht folgern, dass die Erwärmung für immer zum Stillstand gekommen ist. Die Trendlinien zeigen lediglich, was bis jetzt geschah; sie sind keine Prophezeiung, was als Nächstes geschehen wird.

Der Stillstand – so politisch nützlich er auch für alle sein mag, die sich wünschen, dass die „offizielle“ wissenschaftliche Gemeinschaft sich an ihre Pflicht zum Skeptizismus erinnern würde – ist weit weniger wichtig als die wachsende Diskrepanz zwischen den Prophezeiungen der Allgemeinen Zirkulationsmodelle einerseits und der beobachteten Realität andererseits.

Die Divergenz zwischen den Modellprophezeiungen des Jahres 1990 (Abbildung 2) und 2005 (Abbildung 3) einerseits und die tatsächlichen Beobachtungen andererseits werden immer noch breiter. Falls sich der Stillstand nur noch etwas weiter verlängert, wird die Erwärmungsrate während des Vierteljahrhunderts seit dem Ersten IPCC-Zustandsbericht 1990 unter 1°C pro Jahrhundert fallen.

Abbildung 2: Projektionen der Erwärmung in naher Zukunft mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K, erstellt mit „substantiellem Vertrauen“ vom IPCC (1990) für die 309 Monate von Januar 1990 bis September 2015 (orangefarbener Bereich und rote Trendlinie) im Vergleich zu den gemessenen Anomalien (dunkelblau) und Trend (hellblau) mit einem Äquivalent von nur 1,02 K pro Jahrhundert, gebildet aus dem Mittel der via Satellit gemessenen Anomalien UAH und RSS in der unteren Troposphäre.

Abbildung 3: Prophezeite Temperaturänderung von Januar 2005 bis September 2015 mit einer Rate äquivalent zu 1,7 )1,0: 2,3) °C pro Jahrhundert (orangefarbene Zone mit dicker roter Best-Estimate-Trendlinie) im Vergleich zu den bei Null liegenden gemessenen Anomalien (dunkelblau) und Trend in der realen Welt (hellblau) als Mittel der von RSS und UAH aufgezeichneten Temperaturanomalien der unteren Troposphäre.

Wie immer erklären die „Technischen Bemerkungen“ die Quellen der IPCC-Prophezeiungen aus den Jahren 1990 und 2005. Sie zeigen auch, dass sich den Daten der ARGO-Bojen zufolge die Ozeane erwärmen mit einer Rate äquivalent zu weniger als einem viertel Grad Celsius pro Jahrhundert. Bei rationellem wissenschaftlichen Vorgehen müssten diejenigen, die extreme Maßnahmen zur Verhinderung einer globalen Erwärmung gefordert hatten, ihre Forderungen zurücknehmen und ihre Hypothesen überdenken. Allerdings haben wir es hier nicht mit einem rationellen wissenschaftlichen Vorgehen zu tun. Bei den Fragenden ist dies der Fall, bei den Gläubigen ist es ein Fall zunehmenden blinden Vertrauens. Der Neue Aberglaube ist kein fides quaerens intellectum [= Glaube, der nach Einsicht sucht].

Grundlegende Fakten über die globale Temperatur.

Diese Fakten sollten jedermann vorgelegt werden, der weiter darauf baut, dass – um den Worten von Obamas Twitterei zu folgen – die globale Erwärmung „real, vom Menschen verursacht und gefährlich“ ist.

Ø der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung seit 225 Monaten, also von Februar 1997 bis Oktober 2015 – also während über der Hälfte des Zeitraumes mit Satellitenbeobachtungen.

Ø …

Bemerkung des Übersetzers: Monckton führt hier des weiteren noch einmal sämtliche „Key Facts“ an, die bereits in einem früheren Beitrag von ihm in deutscher Übersetzung hier auf der EIKE-Website erschienen sind.

Link: http://wattsupwiththat.com/2015/11/05/the-pause-lengthens-again-just-in-time-for-paris/

Übersetzt von Chris Frey EIKE




Der Stillstand macht die langfristige Erwärmung immer geringer

[Wie von Lord Monckton schon in anderen Beiträgen aus jüngerer Zeit an vorderste Stelle gesetzt, Anm. d. Übers.], zeigt das Bild rechts den gesamten RSS-Satellitendatensatz der unteren Troposphäre von Januar 1979 bis August 2015, wobei die hellblaue Trendlinie über den gesamten Datensatz äquivalent ist zu lediglich etwas mehr als 1,2°C pro Jahrhundert. Eingefügt in die Graphik ist in grün auch der Null-Trend ab Januar 1997 – der inzwischen über die Hälfte der gesamten, 440 Monate langen Aufzeichnung durchzieht.

Wie zu erwarten war, ist der Zeitpunkt (2007/2008), an dem die langfristige Trendlinie sich mit der Stillstands-Trendlinie schneidet, der Punkt, an dem der Stillstand anfängt, den langfristigen Trend zu reduzieren. Wie obige Tabelle zeigt, war der Trend bis zum Großen El Niño des Jahres 1998 plötzlich auf über 1,5 K pro Jahrhundert angehoben worden. Dort verblieb er auch bis zum Jahr 2008, ab welchem Zeitpunkt er allmählich fällt. Von Januar 1979 bis August 2015 war der Trend lediglich äquivalent zu 1,21 K pro Jahrhundert.

Im Jahre 1990 hatte das IPCC eine nahezu gerade Trendlinie von 1 K bis zum Jahr 2025 prophezeit, äquivalent zu fast 2,8 K pro Jahrhundert. Von dieser Erwärmung sollten bereits 0,7 K bis heute eingetreten sein, aber tatsächlich wurden nur 0,26 K gemessen. Die zentrale Schätzung des IPCC aus dem Jahr 1990 hat sich – bislang – als eine fast dreifache Übertreibung erwiesen – obwohl diese Prophezeiung auf der Grundlage „substantiellen Vertrauens“ erfolgten, dass die Modelle, auf denen sie beruhte, alle wesentlichen Eigenschaften des Klimasystems erfasst hatten.

Auf dem Weg zur Konferenz der Regierungen der Welt in Paris haben die Klima-Kommunisten beträchtliche Mühe aufgewendet zu beweisen, dass der Stillstand nicht existiert, oder dass die Erwärmungsrate seit 1990 genau dem seinerzeit vom IPCC prophezeiten Wert entspricht. Beides ist falsch. Die Satelliten-Datensätze RSS und UAH zeigen beide den Stillstand, obwohl die terrestrischen Datensätze im vorigen Jahr verändert worden waren mit dem Ergebnis, dass der Stillstand kaschiert ist.

Außerdem liegt die Erwärmungsrate derzeit empörend deutlich unter den Prophezeiungen. Man sollte diese Tatsache mit den eigenen Graphiken des IPCC demonstrieren, was hiermit geschieht:

Diese Graphik ist interessant, weil sie in blassblau die gegenwärtige Generation von Modellen zeigt – 42 an der Zahl – die Prophezeiungen auf der Grundlage der Hypothese machen, dass es zu drastischen Reduktionen von CO2 kommt. Und dennoch weichen die gemessenen Temperaturen (schwarz) schon jetzt deutlich sichtbar selbst von der niedrigsten Prophezeiung ab – und unterschreiten diese – und liegen weit unter der zentralen Prophezeiung.

Als Folge davon, dass das IPCC höchstselbst eingeräumt hatte, dass 111 seiner 114 Modelle die Erwärmungsrate zu hoch prophezeit hatten, konstruierte es obige Graphik für seinen 5. Zustandsbericht im Jahre 2013, die eine merkliche Reduktion seiner Kurzfristprognosen zeigt.

Immer wenn das IPCC Graphiken mit einer winzigen Größenordung konstruiert, sollte man diese vergrößern um zu erkennen, was da versteckt wird. Obige Graphik ist eine deutliche Vergrößerung einer kleinen Ecke in einer IPCC-Graphik aus dem 5. Zustandsbericht. Sie zeigt in diesem Maßstab eindeutig das Ausmaß, mit dem die gemessenen Temperaturen nicht mit den übertriebenen Modellprophezeiungen Schritt halten. Das Modellensemble CMIP3 war für den 4. Zustandsbericht, CMIP5 für den jüngsten Zustandsbericht. Beider Prophezeiungen sind viel zu hoch, aber die jüngsten Modelle (rot) übertreiben weniger deutlich als die früheren Modelle (blau), wenn man sie mit den gemessenen Temperaturen vergleicht (schwarz).

Diese Graphik zeigt, wie drastisch das IPCC dazu gezwungen war, seine kurzfristigen Erwärmungs-Projektionen zwischen der gezeigten Spaghetti-Graphik und der scharf nach unten korrigierten Vorhersagezone zwischen den beiden grünen Pfeilen nach unten zu korrigieren. Die roten Pfeile zeigen, wo die mittelfristigen Prophezeiungen im Jahre 1990 lagen. Der gemessene Trend (schwarz) verläuft entlang des äußersten unteren Randes der Vorhersage-Bandbreite.

Die obige Vorher-Nachher-Graphik zeigt die Änderung in den IPCC-Prophezeiungen zwischen den ersten und den abschließenden Entwürfen des 5. Zustandsberichtes.

Ein Punkt ist es wert, gegen alle vorgebracht zu werden, die weiterhin leugnen, dass es einen Stillstand gegeben hat oder dass die Diskrepanz zwischen Prophezeiung und Realität unverändert mit jedem Jahr immer größer wird, und zwar der, dass alle Graphiken in diesem Beitrag mit Ausnahme derjenigen oben rechts Graphiken des IPCC sind. Falls jetzt wirklich das IPCC selbst einräumt, dass die Modelle übertrieben haben, ist es an der Zeit für die Klima-Kommunisten, die Parteilinie näher an die reale Welt anzupassen.

Was also wäre eine logische und rationale Politik für Nationen, die beim kommenden Gipfel in Paris daran arbeiten, eine globale Regierung zu etablieren (nennen wir diese einstweilen eine „regierende Agentur“):

1. Eine Trennungsklausel ist eine Freiheitsklausel. Angesichts des Scheiterns der Prophezeiungen, das in den IPCC-„Konsens“-Dokumenten für sich selbst spricht, sollten Nationen, die nicht länger willens sind, Billionen auf der Grundlage weiterer alarmierender, aber möglicherweise übertriebener Prophezeiungen auszugeben, das Recht haben, kurz zuzuhören und dann den gesamten Verhandlungs-Prozess sowie alle damit verbundenen Verpflichtungen zu verlassen, ohne Sanktionen befürchten zu müssen. Das Kyoto-Protokoll enthielt eine Trennungsklausel im Artikel 27. Der Vertrag von Paris sollte ebenfalls eine Trennungsklausel enthalten. Allerdings ist die Trennungsklausel im Entwurf, welche nach viel Arbeit von mir und Anderen Eingang in den Bonner Entwurf früher in diesem Jahr gefunden hatte, in Gefahr, mit der Begründung das gegenwärtige Entwurfs-Dokument zu kürzen, fallen gelassen zu werden. Man sollte also Druck auf die jeweiligen Regierungen ausüben um sicherzustellen, dass die Klausel nicht unter den Tisch fällt.

2. Ein festgelegtes Ablaufdatum einzubringen ist ebenfalls ratsam, um einer möglichen Verstärkung der Diskrepanz zwischen übertriebener Prophezeiung und unspektakulärer, harmloser gemessener Realität zu begegnen. Der gesamte Vertragsprozess würde zum Ende kommen, alle Verpflichtungen der Nationen würden obsolet werden, und das UNFCCC sowie das IPCC würden aufgelöst, falls in irgendeinem Zeitraum von mindestens 20 Jahren während des 21. Jahrhunderts die globale Erwärmungsrate der Temperaturanomalien, ausgedrückt als lineare Regression kleinster Quadrate, … unter 1°C pro Jahrhundert sinken sollte. Im Geschäftsleben werden Pleiten bei Prophezeiungen bestraft. In der globalen Regierung sollte das Scheitern von Prophezeiungen ebenfalls bestraft werden, weil die Kosten für die Maßnahmen gegen das Nicht-Problem der globalen Erwärmung in keinem Verhältnis steht zum Wert irgendwelcher vorstellbaren Vorteile.

Link: http://wattsupwiththat.com/2015/09/08/the-pause-is-driving-down-the-long-term-warming-trend/

Übersetzt von Chris Frey EIKE




Und wieder verlängert sich der Stillstand

Bild rechts: Die lineare Regression kleinster Quadrate des Trends der globalen monatlichen Temperaturanomalie nach RSS zeigt keine globale Erwärmung seit 18 Jahren und 8 Monaten, also seit Januar 1997, obwohl ein Drittel aller anthropogenen Antriebe während der Periode des Stillstands Eingang fand.

Wie immer aber eine Warnung hinsichtlich des gegenwärtigen El Niño. Wahrscheinlich wird die Temperaturzunahme, die normalerweise mit einem El Niño einhergeht, den Stillstand irgendwie unterbrechen, gerade pünktlich zum Klimagipfel in Paris, obwohl ein nachfolgendes La Niña den Stillstand wiederherstellen und verlängern dürfte.

Zu einer globalen Temperaturspitze aufgrund der thermohalinen Zirkulation, der die warmen Wasser des tropischen Pazifiks um die ganze Welt transportiert, kommt es in einem El Niño-Jahr gewöhnlicherweise im nordhemisphärischen Winter.

Allerdings entwickelt sich ein oder zwei Jahre nach einem El Niño normalerweise – aber nicht immer – eine La Niña, wobei sich zuerst die Oberfläche des Ozeans abkühlt und danach die Lufttemperatur, was die globale Temperatur wieder auf ihre Normalwerte bringt.

Abbildung 1a: Wassertemperatur-Index für die Nino 3.4-Region des tropischen Ostpazifiks. Er zeigt einen Anstieg in Richtung einer Spitze, zu der es normalerweise im nordhemisphärischen Winter kommt. Vorerst verlängert sich der Stillstand noch weiter, aber nicht mehr lange, und das wärmere Wasser im Pazifik wird durch die thermohaline Zirkulation auf der ganzen Welt verbreitet, was zu einer vorübergehenden Wärmespitze der globalen Temperaturen führt.

Die Stillstandsperiode von 18 Jahren und 8 Monaten ist der am weitesten zurück reichende Zeitraum in den Satelliten-Temperaturaufzeichnungen, den man betrachten kann und der immer noch einen Null-Trend zeigt. Das Anfangsdatum ist nicht cherry picked, es ist berechnet. Und die Graphik bedeutet nicht, dass es so etwas wie eine globale Erwärmung nicht gibt. Geht man noch weiter zurück, zeigt sich eine geringe Erwärmungsrate.

Der UAH-Datensatz zeigt den Stillstand fast genauso lang wie der RSS-Datensatz. Allerdings zeigen die vielfach veränderten Temperatur-Datensätze am Boden eine geringe Erwärmungsrate.

Abbildung 1b: Der lineare Regressionstrend kleinster Quadrate in der mittleren monatlichen Temperaturanomalie nach GISS, HadCRUT4 und NCDC zeigt eine globale Erwärmung mit einer Rate äquivalent zu etwas über 1°C pro Jahrhundert im Zeitraum des Stillstands von Januar 1997 bis Juli 2015.

Wenn man bedenkt, dass ein Drittel des Strahlungsantriebs von 2,4 W/m² aus allen anthropogenen Quellen während des Stillstands-Zeitraumes stammt, ist eine Erwärmungsrate von etwas mehr als 1°C pro Jahrhundert nicht wirklich alarmierend. Allerdings hat es die Studie, die das vermeintliche Fehlen des Stillstands zeigte, sorgfältig vermieden zu erwähnen, wie gering die Erwärmung in den terrestrischen Datensätzen tatsächlich ist – selbst nach all den zahlreichen Manipulationen.

Wie immer muss man hier aber aufpassen: Nur weil es während der letzten Jahrzehnte keine oder nur eine geringe Erwärmung gegeben hat, kann man daraus nicht folgern, dass die Erwärmung für immer zum Stillstand gekommen ist. Die Trendlinien messen nur das, was geschehen ist; sie sagen nicht voraus, was geschehen wird.

Der Stillstand – so politisch nützlich er auch für alle sein kann die wünschen, dass die „offizielle“ wissenschaftliche Gemeinschaft seiner Pflicht zum Hinterfragen nachkommt – weit weniger wichtig ist als die immer größer werdende Diskrepanz zwischen den Prophezeiungen der globalen Zirkulationsmodelle und der beobachteten Realität.

Die Diskrepanz zwischen den Modellprophezeiungen im Jahre 1990 (Abbildung 2) und 2005 (Abbildung 3) einerseits und die tatsächlichen Messungen andererseits vergrößert sich immer weiter. Falls sich der Stillstand noch ein wenig weiter fortsetzt, wird die Erwärmungsrate in dem Vierteljahrhundert seit dem ersten IPCC-Zustandsbericht aus dem Jahr 1990 unter ein Äquivalent von 1°C pro Jahrhundert absinken.

Abbildung 2: Echtzeit-Projektionen der Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ des IPCC im Jahre 1990 für die 307 Monate von Januar 1990 bis Juli 2015 (orangefarbener Bereich und rote Trendlinie) im Vergleich zu gemessenen Anomalien (dunkelblau) und Trend (hellblau) mit einem Äquivalent von nur 1 K pro Jahrhundert, gemittelt aus den Satelliten-Datensätzen von RSS und UAH.

Abbildung 3: Vorhergesagte Temperaturänderung von Januar 2005 bis Juli 2015 mit einer Rate äquivalent zu 1,7 (1,0; 2,3) K pro Jahrhundert (orangefarbener Bereich mit dicker roter Best Estimate-Trendlinie), verglichen mit den beobachteten, nahe Null liegenden Anomalien (dunkelblau) und Trend (hellblau) der realen Welt, gebildet aus dem Mittel der Temperaturanomalien in der unteren Troposphäre nach RSS und UAH.

Die Liste der Kernfakten über die globale Temperatur (unten) sollte man jedem vorlegen, der weiter daran glaubt, dass – um es mit den Worten von Mr. Obamas Twitterei auszurücken – „die globale Erwärmung real, vom Menschen verursacht und gefährlich“ ist.

In Hintergründe werden die Quellen der IPCC-Vorhersagen aus den Jahren 1990 und 2005 erläutert. Auch wird gezeigt, dass sich die Ozeane den ARGO-Daten zufolge mit einer Rate äquivalent zu weniger als 0,25°C pro Jahrhundert erwärmen.

Kernfakten zur globalen Temperatur

● Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung seit 223 Monaten von Januar 1997 bis Juli 2015 – also während über der Hälfte der 439 Monate langen Satelliten-Aufzeichnungen.

● Es gab keine Erwärmung, obwohl ein Drittel aller anthropogenen Antriebe seit 1750 erst nach Januar 1997 freigesetzt wurden, also während des Stillstands der globalen Erwärmung.

● Der gesamte RSS-Datensatz von Januar 1979 bis heute zeigt eine globale Erwärmung mit einer wirklich nicht alarmierenden Rate von lediglich 1,2°C pro Jahrhundert.

● Seit 1950, also seit dem Zeitpunkt, an dem ein menschlicher Einfluss auf das Klima zum ersten Mal theoretisch möglich ist, lag der Trend der globalen Erwärmung unter einem Äquivalent von 1,2°C pro Jahrhundert.

● Der globale Erwärmungstrend seit dem Jahr 1900 ist äquivalent zu 0,75°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und dürfte mit uns nicht viel zu tun haben.

● Zur höchsten Erwärmungsrate über 15 Jahre oder mehr seit 1950 kam es während der 33 Jahre von 1974 bis 2006. Die Rate lag äquivalent zu 2,0°C pro Jahrhundert.

● Zum Vergleich, die Erwärmung im Temperatur-Datensatz aus Mittelengland während der 40 Jahre von 1694 bis 1733, also lange vor der industriellen Revolution, erreichte ein Äquivalent zu 4,33°C pro Jahrhundert.

● Im Jahre 1990 lag die Mittelfrist-Prognose des IPCC äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel höher als seine jüngste Prognose von 1,7°C pro Jahrhundert.

● Der Erwärmungstrend seit 1990, dem Jahr des 1. IPCC-Zustandsberichtes, ist äquivalent zu 1°C pro Jahrhundert. Das IPCC hat eine zweieinhalb mal so hohe Rate prophezeit.

● Damit die zentrale Prognose des IPCC von einer Erwärmung um 1°C von 1990 bis 2025 doch noch eintrifft, müsste es im nächsten Jahrzehnt zu einer Erwärmung von 0,75°C kommen, also einem Äquivalent zu 7,5°C pro Jahrhundert.

● Obwohl das IPCC seine Erwärmungsprognose im Kurzfristzeitraum zurückgefahren hat, sagt es langfristig bis zum Jahr 2100 bei Business as Usual immer noch eine Erwärmung um 4,8°C voraus.

● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 liegt deutlich mehr als zweimal so hoch wie die höchste Erwärmungsrate über mehr als 15 Jahre, die seit dem Jahr 1950 gemessen worden ist.

● Die IPCC-Vorhersage von 4,8°C bis 2100 liegt viermal so hoch wie der gemessene globale Erwärmungstrend, seit wir diesen theoretisch hätten beeinflussen können, also seit 1950.

● Die Ozeane erwärmen sich den ARGO-Bojen zufolge mit einer Rate von lediglich 0,02°C pro Jahrzehnt, äquivalent zu 0,23°C pro Jahrhundert oder 1°C in 430 Jahren.

Hintergründe

Unsere jüngste Graphik zeigt die lineare Regression kleinster Quadrate des Trends der monatlichen globalen mittleren Temperaturen, der so weit zurückreicht, wie es möglich ist und immer noch einen Null-Trend findet. Das Anfangsdatum ist nicht cherry picked, um mit der Temperaturspitze des El Niño des Jahres 1998 zusammenzufallen. Stattdessen ist er berechnet, um den längsten Zeitraum mit einem Null-Trend zu finden.

Die Tatsache des langen Stillstands ist ein Hinweis auf die sich stetig vergrößernde Diskrepanz zwischen Prophezeiung und Wirklichkeit bei den Temperaturmessungen.

Die Satelliten-Datensätze sind allgemein deutlich weniger unzuverlässig als andere Datensätze, zeigen sie doch den Großen El Niño klarer als alle anderen Datensätze. Dieses Ereignis verursachte wie seine beiden Vorgänger während der letzten 300 Jahre eine verbreitete Korallenbleiche, was eine unabhängige Verifikation erlaubte, dass Satelliten-Datensätze mehr als alle anderen in der Lage sind, derartige Fluktuationen ohne künstliches Herausfiltern abzubilden.

Terrestrische Temperaturen werden mit Thermometern gemessen. Korrekt in ländlichen Gebieten aufgestellte Thermometer abseits von menschlichen Wärmequellen zeigen Erwärmungsraten, die unter jenen liegen, die veröffentlicht werden. Die Satelliten-Datensätze basieren auf Referenzmessungen mittels der genauesten derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, welche eine unabhängige Verifikation der Temperaturmessungen ermöglichen, indem man mittels ins Weltall gerichteter Spiegel die kosmische Hintergrundstrahlung heranzieht, die etwa 1% des Gefrierpunktes von Wasser beträgt oder einfach 2,73 Grad über dem Absoluten Nullpunkt liegt. Es waren Messungen von minimalen Variationen dieser kosmischen Hintergrundstrahlung, die es der NASA ermöglichten, das Alter des Universums zu berechnen: 13,82 Milliarden Jahre.

Die RSS-Graphik (Abbildung oben rechts) ist akkurat. Die Daten wurden monatlich direkt von der RSS-Website heruntergeladen. Ein Computer-Algorithmus liest sie aus dem File heraus und plottet sie automatisch mittels einer fortschrittlichen Routine, die automatisch das Bildformat des Datenfensters an beide Achsen anpasst, um die Daten der Klarheit halber im maximal möglichen Maßstab zu zeigen.

Der letzte monatliche Datenpunkt wird visuell untersucht um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue, über die gezackte dunkelblaue Linie gelegte Trendlinie zeigt die Daten nach der linearen Regression kleinster Quadrate sowie die den Schnittpunkt mit der Y-Achse und die Neigung der Linie.

Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Das Verfahren ist angemessen, weil die globalen Temperaturaufzeichnungen nur wenig Autoregression zeigen, werden doch die Sommertemperaturen auf der einen Hemisphäre durch die Wintertemperaturen auf der anderen Hemisphäre kompensiert. Daher würde ein AR(n)-Modell Ergebnisse erzeugen, die sich ein wenig vom Trend der kleinsten Quadrate unterscheiden.

Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend in der Graphik und der Korrelationskoeffizient berechnet werden. Dieser ist sehr klein, und obwohl die Daten hoch variabel sind, verläuft der Trend flach.

Bei RSS selbst ist jetzt ernsthaftes Interesse an der Länge des Großen Stillstands aufgekommen. Dr. Carl Mears, der leitende Forschungswissenschaftler bei RSS, diskutiert dieses hier.

Die Ergebnisse von Dr. Mears werden in Abbildung T1 zusammengefasst:

Abbildung T1: Output von 33 IPCC-Modellen (türkis) im Vergleich mit der globalen Temperaturänderung nach RSS (schwarz) von1979 bis 2014. Die vorübergehenden Abkühlungen durch die Vulkanausbrüche des El Chichon (1983) und des Pinatubo (1991) zeichnen sich ab, ebenso wie die Wärmespitze des Großen El Nino von 1998.

Dr. Mears schreibt:

Die Leugner mögen es zu vermuten, dass der Grund für die Diskrepanz zwischen Modellen und Beobachtungen eine Art Problem mit der zugrunde liegenden Modellphysik ist, und sie weisen alle anderen Formen der Erklärung zurück. Dies verleitet sie zu der Schlussfolgerung, sehr wahrscheinlich irrig, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die wachsende Diskrepanz zwischen RSS-Daten und den Modellen ein, führt diese allerdings auf Rosinenpickerei des Anfangsdatums der Graphik der globalen Temperatur zurück:

Jüngst war in einer Anzahl von Artikeln der Mainstream-Presse zu lesen, dass es nur eine geringe oder gar keine Änderung der global gemittelten Temperatur während der letzten beiden Jahrzehnte gegeben zu haben scheint. Deswegen stellt man uns viele Fragen mit dem Tenor ;Ich habe diese Graphik auf einer Leugner-Website gesehen. Sind das wirklich Ihre Daten?‘ Während einige dieser Berichte den Endzeitpunkt ,cherry-picked‘ haben, um ihre Beweise noch stärker aussehen zu lassen, gibt es kaum einen Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten IPCC-Simulationen des historischen Klimas im AR 5 vorhergesagt. … Die Leugner mögen es wirklich, die Trends im Jahre 1997 beginnen zulassen, so dass das gewaltige ENSO-Ereignis von 1997/1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der kleinstmöglichen Neigung führt“.

Tatsächlich wird die vom Großen El Niño 1998 verursachte Temperaturspitze aus zwei Gründen fast vollständig bei der Berechnung des linearen Trends ausgeglichen: dem Fehlen einer ähnlichen Spitze beim El Niño 2010 und der schieren Länge des Stillstands selbst.

[Was ist das für ein „Wissenschaftler“, der alle anderen als „Leugner“ bezeichnet, die lediglich zu anderen Erkenntnissen gekommen sind als er selbst? Anm. d. Übers.]

Komischerweise bevorzugt Dr. Mears die terrestrischen Datensätze vor den Satelliten-Datensätzen. Das UK Met.-Office jedoch verwendet die Satellitendaten, um seine eigenen terrestrischen Daten zu kalibrieren.

Die Länge des Stillstands der globalen Erwärmung, so signifikant sie auch daherkommt, ist weit weniger wichtig als die stetig und rasch weiter zunehmende Diskrepanz zwischen den von den Modellen prophezeiten Temperaturtrends und der weit weniger ausgeprägten Temperaturänderung der realen Welt. Der El Niño dieses Jahres kann sich durchaus noch in diesem Jahr verstärken, was die Länge des Großen Stillstands reduziert. Allerdings setzt sich die Verbreiterung des Grabens zwischen Prophezeiung und Beobachtung weiter fort.

Quellen der IPCC-Projektionen in den Abbildungen 2 und 3.

Im Ersten Zustandsbericht des IPCC wurde prophezeit, dass die Temperatur bis zum Jahr 2025 um 1,0 °C (0,7; 1,5°C) steigen würde, was äquivalent ist zu einer Rate von 2,8°C (1,9; 4.2°C) pro Jahrhundert. In der Executive Summary wurde die rhetorische Frage gestellt: „Wie viel Vertrauen haben wir in unsere Prophezeiungen?“ Das IPCC verwies auf einige Unsicherheiten (Wolken, Ozeane usw.), kam aber dennoch zu dem Ergebnis:

Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle zumindest die groben Umrisse des Klimawandels prophezeien können … Es gibt Ähnlichkeiten zwischen Ergebnissen der gekoppelten Modelle mittels einfacher Repräsentationen des Ozeans und jenen komplizierteren Beschreibungen, und unser Verständnis der Differenzen, die es auch gibt, bestärkt uns in dem Vertrauen in unsere Ergebnisse“.

Dieses „substantielle Vertrauen“ war substantielles Über-Vertrauen. Und zwar weil die Rate der globalen Erwärmung seit 1990 – die wichtigsten „groben Umrisse des Klimawandels“, die die Modelle vermeintlich prophezeien sollten – inzwischen weniger als halb so groß ist wie vom IPCC damals prophezeit.

Im Jahre 1990 schrieb das IPCC Folgendes:

Auf der Grundlage der gegenwärtigen Modelle prophezeien wir:

Bei Treibhausgas-Emissionen unter dem Szenario A (Business as Usual) gibt es eine Rate der Zunahme der globalen mittleren Temperatur während des nächsten Jahrhunderts um etwa 0,3°C pro Jahrzehnt (mit einer Unsicherheits-Bandbreite von 0,2°C bis 0,5°C pro Jahrzehnt). Dies ist größer als während der letzten 10.000 Jahre aufgetreten. Dies wird zu einer wahrscheinlichen Erwärmung um etwa 1°C über dem jetzigen Wert bis zum Jahr 2025 und um 3°C vor dem Ende des nächsten Jahrhunderts führen. Der Anstieg wird nicht gleichmäßig verlaufen infolge des Einwirkens anderer Faktoren (S. Xii).

Später hieß es vom IPCC:

Die Zahlen unten basieren auf hoch auflösenden Modellen, skaliert, um mit unserer Best Estimate der globalen mittleren Erwärmung von 1,8°C bis zum Jahr 2030 konsistent zu sein. Für Werte, die konsistent mit anderen Schätzungen des globalen Temperaturanstiegs sind, sollten die Zahlen unten um 30% reduziert werden für die niedrige Schätzung oder um 50% erhöht werden für die hohe Schätzung (S. xxiv).

Der orangefarbene Bereich in Abbildung 2 repräsentiert die mittelfristige IPCC-Schätzung unter Szenario A einer kurzfristigen Erwärmung, d. h. 1,0°C (0,7; 1,5) bis zum Jahr 2025.

Die vom IPCC prophezeite globale Erwärmung während der 25 Jahre ab 1990 bis zur Gegenwart differiert wenig um eine gerade Linie (Abbildung T2)

Abbildung T2: Historische Erwärmung von 1850 bis 1990 sowie prophezeite Erwärmung von 1990 bis 2100 unter dem IPCC-Szenario A (IPCC 1990, S. xxii)

Weil diese Differenz zwischen einer geraden Linie und dem leichten Sprung aufwärts der von IPCC im Zeitraum 1990 bis 2025 prophezeiten Erwärmungsrate so klein ist, kann man das noch in anderer Weise betrachten. Um die zentrale Schätzung von 1 K seit 1990 bis 2025 zu erreichen, müsste es eine doppelt so starke Erwärmung während der nächsten zehn Jahre geben, als es während der letzten 25 Jahre der Fall war. Das ist unwahrscheinlich.

Aber ist der Stillstand vielleicht der Tatsache geschuldet, dass CO2-Emissionen nicht annähernd so stark gestiegen sind wie die IPCC-Prophezeiung unter Szenario A im Jahre 1990 benannt? Nein: Die CO2-Emissionen sind ziemlich deutlich über die unter Szenario A prophezeite Menge gestiegen (Abbildung T3)

Abbildung T3: CO2-Emissionen durch fossile Treibstoffe usw. im Jahre 2012 aus Le Quéré et al. (2014) im Vergleich zur Karte der „anthropogenen Kohlendioxid-Emissionen“ in Milliarden Tonnen Kohlenstoff pro Jahr. Quelle: IPCC 1990

Daher haben sich die CO2-Emissionen seit 1990 als viel näher Szenario A entsprechend erwiesen als an jedes andere Szenario, weil trotz all des Geredes um Reduktionen von CO2-Emissionen die Tatsache besteht, dass die Rate der Ausweitung des Verbrennens fossiler Treibstoffe in China, Indonesien, Indien, Brasilien usw. die geringen Reduktionen in westlichen Ländern bis heute weit in den Schatten stellen.

Es stimmt schon, die Methankonzentration ist nicht so gestiegen wie im Jahre 1990 prophezeit, weil die Methan-Emissionen, obwohl weitgehend ungesteuert, einfach nicht so steigen, wie die Modelle prophezeit hatten. Auch hier war also die Grundlage aller Prophezeiungen abwegig.

Das Gesamtbild ist klar. Szenario A ist das Emissions-Szenario aus dem Jahr 1990, dass der Menge der beobachteten CO2-Emissionen am Nächsten liegt.

Abbildung T4: Methan-Konzentration wie in vier IPCC-Zustandsberichten prophezeit, zusammen mit der beobachteten Konzentration, welche sich entlang der unteren Grenze der Geringst-Prophezeiung bewegt. Diese Graphik erschien in der vorläufig-endgültigen Version von IPCC (2013), wurde jedoch auf mysteriöse Weise aus der veröffentlichten Endversion entfernt, vermutlich weil das IPCC einen solchen direkten Vergleich zwischen absurd übertriebenen Prophezeiungen und der wenig aufregenden Wirklichkeit nicht zeigen wollte.

Um genau zu sein, ein Vierteljahrhundert nach 1990 beträgt die globale Erwärmung bis jetzt 0,27°C, was äquivalent zu etwa über 1°C pro Jahrhundert ist – wenn man es ausdrückt als linearer Regressionstrend kleinster Quadrate des Mittels von RSS und UAH der monatlichen mittleren globalen Temperaturanomalien. Die zentrale Schätzung des IPCC von 0,71°C, also äquivalent zu 2,8°C pro Jahrhundert, welche unter Szenario A im Jahre 1990 mit „substantiellem Vertrauen“ prophezeit worden war, war dreimal zu hoch gegriffen. Tatsächlich liegt die tatsächliche Rate sichtlich deutlich unter selbst der kleinsten Schätzung.

Im Jahre 1990 war die zentrale Prophezeiung der kurzfristigen Erwärmungsrate des IPCC um zwei Drittel höher als dessen heutige Prophezeiung. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert, heute ist es ein solches von 1,7°C pro Jahrhundert – und wie Abbildung T5 zeigt, hat sich selbst das als eine substantielle Übertreibung erwiesen.

Erwärmt sich der Ozean?

Eine oft herangezogene Erklärung des Großen Stillstands lautet, dass das gekoppelte Ozean-Atmosphäre-System weiterhin Wärme akkumuliert hat mit etwa der von den Modellen prophezeiten Rate, aber das die Wärme während der letzten Jahrzehnte durch die Ozeane aus der Atmosphäre herausgefiltert worden ist. Und man hypothetisiert angesichts des Umstands, das die oberflächennahen Schichten weit weniger Erwärmung zeigen als von den Modellen prophezeit, dass das, was man die „fehlende Wärme“ nennt, irgendwie in die kaum vermessenen Tiefen unter 2000 m diffundiert ist, von wo sie irgendwann in Zukunft wieder freigesetzt wird.

Tatsächlich ist unbekannt, ob sich der Ozean erwärmt: jede der automatisierten ARGO-Bojen führt nur drei Messungen pro Monat durch für eine Wassermenge von 200.000 km³ – grob etwa ein 100.000 Quadratmeilen [ca. 259.000 km²] großes Gitterquadrat mit einer Kantenlänge von 316 km und einer Tiefe von 2000 m. Im Klartext, die Ergebnisse einer so geringen Auflösung sind nicht viel besser als Raten. (Willis Eschenbach drückt es so aus: es ist etwa das Äquivalent zu versuchen, eine einzelnes Temperatur- und Salzgehalts-Profil an einem einzigen Punkt im Oberen See einmal pro Jahr zu erstellen).

Unglücklicherweise scheint es, als ob ARGO den Ozean-Datensatz seit Dezember 2014 nicht mehr aktualisiert hat. Allerdings haben wir 11 ganze Jahre mit Daten. Die Ergebnisse zeigt Abbildung T5. Falls die ARGO-Messungen richtig sind, ist die Erwärmung der Ozeane äquivalent zu 0,2°C pro Jahrhundert.

Abbildung T5: Der gesamte, fast globale ARGO-Datensatz der Wassertemperatur der Ozeane in den oberen 2000 m von Januar 2004 bis Dezember 2014 (schwarze gezackte Kurve), zusammen mit dem linearen Regressionstrend kleinster Quadrate, berechnet aus den Daten vom Autor (grüner Pfeil).

Und schließlich, obwohl die ARG-Bojen die Temperaturänderung in den Ozeanen direkt messen, ändert die NOAA die Temperaturänderung künstlich in Zetajoule der Änderung des ozeanischen Wärmegehaltes, wodurch die Änderung viel größer aussieht.

Die erschreckend klingende Änderung des Wärmegehaltes von 260 ZJ im Zeitraum 1970 bis 2014 (Abbildung T6) ist äquivalent zu lediglich 0,2 K pro Jahrhundert globaler Erwärmung. All jene „Hiroshima-Bomben von Wärme“, von denen die extremistischen Klima-Websites reden, sind in Wirklichkeit ein kaum wahrnehmbarer Nadelstich. Der Ozean und dessen Wärmekapazität sind viel größer als so Mancher wahrhaben will.

Abbildung T6: Änderung des ozeanischen Wärmegehaltes von 1957 bis 2013 in Zetajoules vom NODC Ocean Climate Lab der NOAA: http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT, wobei die Werte des Wärmegehaltes zurück konvertiert wurden zu den Änderungen der Wassertemperatur in den Ozeanen in Kelvin, wie sie ursprünglich gemessen worden sind. Die Konversion der NOAA der minimalen Erwärmungszahlen in Zetajoule, kombiniert mit einer übertriebenen vertikalen Achse der Graphik, hat die Auswirkung, dass eine sehr kleine Änderung der Wassertemperatur viel signifikanter aussieht als sie ist.

Die Rück-Konversion der Änderung des ozeanischen Wärmegehaltes in Temperaturänderungen enthüllt eine interessante Diskrepanz zwischen den NOAA-Daten und denen des ARGO-Systems. Während des Zeitraumes der ARGO-Daten von 2004 bis 2014 implizieren die NOAA-Daten eine Erwärmung der Ozeane um 0,05°C pro Jahrzehnt, äquivalent zu 0,5°C pro Jahrhundert – oder eine fast doppelt so hohe Rate wie von ARGO gemessen.

Zwar hat ARGO den besser aufgelösten Datensatz, aber da die Auflösung aller Ozean-Datensätze sehr gering ist, muss man all diese Ergebnisse mit Vorsicht betrachten. Was man sagen kann ist, dass aufgrund solcher Beweise, wie sie diese Datensätze erbringen können, die Differenz zwischen dem zugrunde liegenden Erwärmungstrend des Ozeans und dem der Atmosphäre nicht statistisch signifikant ist. Dies zeigt, dass falls sich die „fehlende Wärme“ wirklich in den Ozeanen versteckt, sie auf magische Weise den Weg in tiefe Schichten gefunden hat, ohne die oberen Schichten auf ihrem Weg zu erwärmen. Ebenfalls aufgrund dieser Daten gibt es keine Beweise für eine rapide oder katastrophale Erwärmung der Ozeane.

Außerdem gibt es bis heute keine empirische, theoretische oder numerische Methode, komplex oder einfach, die erfolgreich mechanistisch spezifiziert hat, wie entweder die durch die anthropogene Anreicherung der Atmosphäre mit Treibhausgasen verursachte Erwärmung die Tiefsee erreicht hat, ohne den Wärmegehalt der durchdrungenen oberen Ozeanschichten wesentlich zu verändern, oder wie die Wärme vom Grund der Ozeane eventuell irgendwie wieder die Klimabedingungen nahe der Oberfläche beeinflussen kann, die für das Leben auf dem Festland der Erde relevant sind.

Die meisten Ozean-Modelle, die zur Berechnung der gekoppelten allgemeinen Modell-Sensitivität herangezogen worden sind, können die meisten der physikalischen Prozesse nicht auflösen, die für die Wärmeaufnahme durch die Ozeane relevant sind. Ultimativ verlangt der Zweite Hauptsatz der Thermodynamik, dass sich jedwede in der Tiefsee akkumulierte Wärme via verschiedener Diffusionsprozesse auflösen muss. Es ist nicht plausibel, dass irgendwelche durch die Tiefsee aufgenommenen Wärmemengen plötzlich die oberen Ozeanschichten erwärmen und damit auch die Atmosphäre.

Falls die „Tiefsee“-Erklärung für den Stillstand korrekt wäre (und diese ist lediglich eine von Dutzenden Anderen, die präsentiert worden sind), haben die komplexen Modelle dabei versagt, dies korrekt abzubilden: anderenfalls wäre die wachsende Diskrepanz zwischen den prophezeiten und beobachteten atmosphärischen Erwärmungsraten nicht so signifikant geworden, wie es der Fall ist.

Warum waren die Modell-Prophezeiungen übertrieben?

Im Jahre 1990 prophezeite das IPCC – unter seinem Szenario A (Business as Usual) – dass es vom Beginn der industriellen Revolution an bis zur Gegenwart einen Strahlungsantrieb von 4 Watt pro Quadratmeter geben würde, der durch den Menschen verursacht ist (Abbildung T7):

Abbildung T7: prophezeite, vom Menschen verursachte Strahlungsantriebe (IPCC 1990).

Allerdings hat sich das IPCC von 1995 an entschlossen, aufgrund dürftiger Beweise zu vermuten, dass anthropogene Aerosole – meist Ruß durch Verbrennung – die Erde abschattet, und zwar stark genug, um einen starken negativen Strahlungsantrieb auszulösen. Auch hat es inzwischen verspätet erkannt, dass seine projizierten Zunahmen der Methan-Konzentration wilde Übertreibungen waren. Als Folge dieser und anderer Änderungen schätzt es jetzt, dass der gesamt-anthropogene Antrieb der industriellen Ära lediglich 2,3 W/m² beträgt oder etwas weniger als halb so groß ist wie laut dessen Prophezeiung im Jahre 1990.

Abbildung T8: Gesamt-anthropogene Antriebe von 1750 bis 1950, 1980 und 2012 (IPCC 2013).

Allerdings könnte selbst das noch eine erhebliche Übertreibung sein, beträgt doch die Best Estimate des tatsächlichen gegenwärtigen Strahlungs-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) lediglich 0,6 W/m² (gesamter natürlicher und anthropogener Antrieb); Abbildung T9:

Abbildung T9: Energiebudget-Diagramm für die Erde nach Stephens et al. (2012).

Kurz gesagt, der größte Anteil des vom IPCC prophezeiten Antriebs ist entweder eine Übertreibung oder hat bereits zu der Temperaturänderung geführt, welcher auch immer, die er verursachen sollte. Es gibt nur wenig globale Erwärmung in der Pipeline als Folge unserer Emissionssünden in Vergangenheit und Gegenwart.

Es kann auch sein, dass das IPCC und die Modelle unablässig die Klimasensitivität übertrieben haben. Eine jüngst erschienene Studie zu dieser Frage von Monckton of Brenchley et al. (2015), kam auf eine Klimasensitivität im Bereich von 1°C pro Verdoppelung des CO2-Gehaltes (man gehe zu www.scibull.com und klicke dort auf „Most Read Articles“). Die Studie identifizierte Fehler in der Art und Weise, wie die Modelle mit Temperatur-Rückkopplungen umgegangen waren, sowie deren Verstärkung, welche für zwei Drittel der Gleichgewichts-Erwärmung verantwortlich waren, die das IPCC prophezeit hatte.

Prof. Ray Bates hat jüngst in Moskau eine Studie veröffentlicht, in der er auf der Grundlage der Analyse von Lindzen & Choi (2009, 2011) zu dem Ergebnis gekommen war (Abbildung T10), dass Temperatur-Rückkopplungen insgesamt negativ sind. Demzufolge hat er die Schlussfolgerungen sowohl von Lindzen & Choi (1990) als auch von Spencer & Braswell (2010, 2011) bestätigt, denen zufolge die Klimasensitivität unter – und vielleicht beträchtlich unter – 1°C pro CO2-Verdoppelung liegt.

Abbildung T10: Realität (Mitte) im Vergleich zu 11 Modellen. Aus Lindzen & Choi (2009).

Eine zunehmende Anzahl begutachteter Studien kommt zu dem Ergebnis, dass die Klimasensitivität deutlich unter den 3°C (1,5; 4,5) pro CO2-Verdoppelung liegt, die zum ersten Mal im Charney-Report aus dem Jahr 1979 für die Academy of Sciences in den USA kolportiert worden war. Hierbei handelt es sich bis heute um die Best Estimate des IPCC.

Auf der Grundlage der bis heute vorliegenden Beweise gibt es daher keine wissenschaftliche Basis, überhaupt irgendwelche Maßnahmen zu ergreifen, um die CO2-Emissionen abzuschwächen.

Und zum Schluss: Wie lange wird es dauern, bevor die Freiheits-Uhr 20 Jahre ohne jede globale Erwärmung erreicht? Falls das geschieht, wird die Klimaangst unhaltbar werden.

Übersetzt von Chris Frey EIKE

Link: http://wattsupwiththat.com/2015/09/04/the-pause-lengthens-yet-again/




Der Stillstand geht ans Eingemachte – neue Stillstand-Rekordlänge: keine Erwärmung seit 18 Jahren und 7 Monaten

Abbildung 1: Die lineare Regression kleinster Quadrate des Trends der globalen monatlichen Temperaturanomalie nach RSS zeigt keine globale Erwärmung seit 18 Jahren und 7 Monaten, also seit Januar 1997.

Die Stillstandsperiode von 18 Jahren und 7 Monaten ist der am weitesten zurück reichende Zeitraum, den man betrachten kann und der immer noch einen Null-Trend zeigt. Das Anfangsdatum ist nicht cherry picked, es ist berechnet. Und die Graphik bedeutet nicht, dass es so etwas wie eine globale Erwärmung nicht gibt. Geht man noch weiter zurück, zeigt sich eine geringe Erwärmungsrate.

Der Stillstand geht inzwischen ins Eingemachte. Im Vorfeld der Klimakonferenz in Paris im Dezember hat die Weigerung der Welt, sich während über der Hälfte der Zeit mit Satellitenbeobachtungen überhaupt zu erwärmen, die Klimaextremisten zu verzweifelten Maßnahmen greifen lassen in dem Versuch, den Stillstand irgendwie zu beseitigen.

Zunächst war da Tom Karl, der mit seiner Studie versucht hat, den Stillstand auszuradieren, indem er willkürlich alle Wassertemperaturmessungen der 3600 in den Ozeanen treibenden ARGO-Bojen drastisch nach oben korrigiert hat. Und Hokuspokus – alle drei der längsten existierenden terrestrischen Temperatur-Datensätze – GISS, HadCRUT4 und NCDC – wurden entsprechend adjustiert, wieder einmal, um mehr globale Erwärmung vorzugaukeln als es tatsächlich der Fall war.

Allerdings sind die gemessenen und aufgezeichneten Fakten nun mal da. Während der 11 ganzen Jahre von April 2004 bis März 2015, während derer die ordnungsgemäß kalibrierten ARGO-Bojen vernünftige, wenn auch unvermeidlich sehr schlecht aufgelöste Daten lieferten (jede Boje muss 200.000 km³ Ozeantemperatur repräsentieren mit nur drei Ablesungen pro Monat), gab es in den oberen 750 m keinerlei Erwärmung und in tieferen Schichten eine nur sehr geringe. Daraus ergibt sich während dieses Zeitraumes ein Erwärmungstrend äquivalent zu 1°C alle 430 Jahre.

Abbildung 1a: fast globale Ozean-Temperaturen pro Schicht, 0 bis 1900 m. Quelle: ARGO-Meeresatlas.

Und in der unteren Troposphäre ergab sich RSS zufolge eine Erwärmungsrate äquivalent zu 1°C alle 700 Jahre.

Abbildung 1b: Der lineare Regressionstrend kleinster Quadrate im UAH-Satelliten-Datensatz der globalen mittleren Temperatur zeigt keinerlei globale Erwärmung seit 18 Jahren und 5 Monaten, also seit März 1997.

Dann erschien eine andere Studie, diesmal mit der Aussage, dass die globale Temperaturaufzeichnung des GISS eine globale Erwärmung während des Stillstands zeigt und dass daher GISS globale Erwärmung während des Stillstands zeigt. Dieses Beispiel eines Zirkelschlusses passierte ohne Schwierigkeiten die Begutachtung, weil die Studie zu der politisch korrekten Schlussfolgerung gekommen war, dass es keinen Stillstand gibt.

Allerdings kam die Studie zu dieser Schlussfolgerung, ohne das Wort „Satellit“ zu erwähnen. Die UAH-Daten zeigen keine Erwärmung seit 18 Jahren und 5 Monaten.

Abbildung 1c: Der lineare Regressionstrend kleinster Quadrate des via Satellit gemessenen Trends der globalen Temperaturanomalie zeigt keine globale Erwärmung seit 18 Jahren und 5 Monaten, also seit März 1997.

Der Vollständigkeit halber folgt hier noch die „Erwärmungs“-Rate der terrestrischen Datensätze seit Januar 1997, obwohl diese völlig unzuverlässig sind:

Abbildung 1d: Der lineare Regressionstrend kleinster Quadrate in der mittleren monatlichen Temperaturanomalie nach GISS, HadCRUT4 und NCDC zeigt eine globale Erwärmung mit einer Rate äquivalent zu etwas über 1°C pro Jahrhundert im Zeitraum des Stillstands von Januar 1997 bis Juli 2015.

Wenn man bedenkt, dass ein Drittel des Strahlungsantriebs von 2,4 W/m² aus allen anthropogenen Quellen während des Stillstands-Zeitraumes stammt, ist eine Erwärmungsrate von etwas mehr als 1°C pro Jahrhundert nicht wirklich alarmierend. Allerdings hat es die Studie, die das vermeintliche Fehlen des Stillstands zeigte, sorgfältig vermieden zu erwähnen, wie gering die Erwärmung in den terrestrischen Datensätzen tatsächlich ist – selbst nach all den zahlreichen Manipulationen.

Wie immer muss man hier aber aufpassen: Nur weil es während der letzten Jahrzehnte keine oder nur eine geringe Erwärmung gegeben hat, kann man daraus nicht folgern, dass die Erwärmung für immer zum Stillstand gekommen ist. Die Trendlinien messen nur das, was geschehen ist; sie sagen nicht voraus, was geschehen wird.

Außerdem hat die lange, allmähliche Bildung des gegenwärtigen El Niño, der nicht vor dem Jahreswechsel seinen Höhepunkt erreichen wird, schon jetzt die tropischen Temperaturen beeinflusst und wird infolge des Wirkens der thermohalinen Zirkulation eventuell auch die globalen Temperaturen beeinflussen.

Obwohl man erwarten kann, dass dieser El Niño von einer La Niña gefolgt wird, was die temporäre Erwärmung wieder aufhebt, ist das nicht immer der Fall. Kurz gesagt, der Stillstand könnte zu Ende gehen und dann verschwinden. Allerdings haben wir hier schon oft zuvor betont, dass der Stillstand – so politisch nützlich er auch für alle sein kann die wünschen, dass die „offizielle“ wissenschaftliche Gemeinschaft seiner Pflicht zum Hinterfragen nachkommt – weit weniger wichtig ist als die immer größer werdende Diskrepanz zwischen den Prophezeiungen der globalen Zirkulationsmodelle und der beobachteten Realität.

Die Diskrepanz zwischen den Modellprophezeiungen im Jahre 1990 (Abbildung 2) und 2005 (Abbildung 3) einerseits und die tatsächlichen Messungen andererseits vergrößert sich immer weiter. Falls sich der Stillstand noch ein wenig weiter fortsetzt, wird die Erwärmungsrate in dem Vierteljahrhundert seit dem ersten IPCC-Zustandsbericht aus dem Jahr 1990 unter ein Äquivalent von 1°C pro Jahrhundert absinken.

Abbildung 2: Echtzeit-Projektionen der Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ des IPCC im Jahre 1990 für die 307 Monate von Januar 1990 bis Juli 2015 (orangefarbener Bereich und rote Trendlinie) im Vergleich zu gemessenen Anomalien (dunkelblau) und Trend (hellblau) mit einem Äquivalent von nur 1 K pro Jahrhundert, gemittelt aus den Satelliten-Datensätzen von RSS und UAH.

Abbildung 3: Vorhergesagte Temperaturänderung von Januar 2005 bis Juli 2015 mit einer Rate äquivalent zu 1,7 (1,0; 2,3) K pro Jahrhundert (orangefarbener Bereich mit dicker roter Best Estimate-Trendlinie), verglichen mit den beobachteten, nahe Null liegenden Anomalien (dunkelblau) und Trend (hellblau) der realen Welt, gebildet aus dem Mittel der Temperaturanomalien in der unteren Troposphäre nach RSS und UAH.

Die Liste der Kernfakten über die globale Temperatur (unten) sollte man jedem vorlegen, der weiter daran glaubt, dass – um es mit den Worten von Mr. Obamas Twitterei auszurücken – „die globale Erwärmung real, vom Menschen verursacht und gefährlich“ ist.

In Hintergründe werden die Quellen der IPCC-Vorhersagen aus den Jahren 1990 und 2005 erläutert. Auch wird gezeigt, dass sich die Ozeane den ARGO-Daten zufolge mit einer Rate äquivalent zu weniger als 0,25°C pro Jahrhundert erwärmen.

Kernfakten zur globalen Temperatur

● Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung seit 223 Monaten von Januar 1997 bis Juli 2015 – also während über der Hälfte der 439 Monate langen Satelliten-Aufzeichnungen.

● Es gab keine Erwärmung, obwohl ein Drittel aller anthropogenen Antriebe seit 1750 erst nach Januar 1997 freigesetzt wurden, also während des Stillstands der globalen Erwärmung.

● Der gesamte RSS-Datensatz von Januar 1979 bis heute zeigt eine globale Erwärmung mit einer wirklich nicht alarmierenden Rate von lediglich 1,2°C pro Jahrhundert.

● Seit 1950, also seit dem Zeitpunkt, an dem ein menschlicher Einfluss auf das Klima zum ersten Mal theoretisch möglich ist, lag der Trend der globalen Erwärmung unter einem Äquivalent von 1,2°C pro Jahrhundert.

● Der globale Erwärmungstrend seit dem Jahr 1900 ist äquivalent zu 0,75°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und dürfte mit uns nicht viel zu tun haben.

● Zur höchsten Erwärmungsrate über 15 Jahre oder mehr seit 1950 kam es während der 33 Jahre von 1974 bis 2006. Die Rate lag äquivalent zu 2,0°C pro Jahrhundert.

● Zum Vergleich, die Erwärmung im Temperatur-Datensatz aus Mittelengland während der 40 Jahre von 1694 bis 1733, also lange vor der industriellen Revolution, erreichte ein Äquivalent zu 4,33°C pro Jahrhundert.

● Im Jahre 1990 lag die Mittelfrist-Prognose des IPCC äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel höher als seine jüngste Prognose von 1,7°C pro Jahrhundert.

● Der Erwärmungstrend seit 1990, dem Jahr des 1. IPCC-Zustandsberichtes, ist äquivalent zu 1°C pro Jahrhundert. Das IPCC hat eine zweieinhalb mal so hohe Rate prophezeit.

● Damit die zentrale Prognose des IPCC von einer Erwärmung um 1°C von 1990 bis 2025 doch noch eintrifft, müsste es im nächsten Jahrzehnt zu einer Erwärmung von 0,75°C kommen, also einem Äquivalent zu 7,5°C pro Jahrhundert.

● Obwohl das IPCC seine Erwärmungsprognose im Kurzfristzeitraum zurückgefahren hat, sagt es langfristig bis zum Jahr 2100 bei Business as Usual immer noch eine Erwärmung um 4,8°C voraus.

● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 liegt deutlich mehr als zweimal so hoch wie die höchste Erwärmungsrate über mehr als 15 Jahre, die seit dem Jahr 1950 gemessen worden ist.

● Die IPCC-Vorhersage von 4,8°C bis 2100 liegt viermal so hoch wie der gemessene globale Erwärmungstrend, seit wir diesen theoretisch hätten beeinflussen können, also seit 1950.

● Die Ozeane erwärmen sich den ARGO-Bojen zufolge mit einer Rate von lediglich 0,02°C pro Jahrzehnt, äquivalent zu 0,23°C pro Jahrhundert oder 1°C in 430 Jahren.

Hintergründe

Unsere jüngste Graphik zeigt die lineare Regression kleinster Quadrate des Trends der monatlichen globalen mittleren Temperaturen, der so weit zurückreicht, wie es möglich ist und immer noch einen Null-Trend findet. Das Anfangsdatum ist nicht cherry picked, um mit der Temperaturspitze des El Niño des Jahres 1998 zusammenzufallen. Stattdessen ist er berechnet, um den längsten Zeitraum mit einem Null-Trend zu finden.

Die Tatsache des langen Stillstands ist ein Hinweis auf die sich stetig vergrößernde Diskrepanz zwischen Prophezeiung und Wirklichkeit bei den Temperaturmessungen.

Die Satelliten-Datensätze sind allgemein deutlich weniger unzuverlässig als andere Datensätze, zeigen sie doch den Großen El Niño klarer als alle anderen Datensätze. Dieses Ereignis verursachte wie seine beiden Vorgänger während der letzten 300 Jahre eine verbreitete Korallenbleiche, was eine unabhängige Verifikation erlaubte, dass Satelliten-Datensätze mehr als alle anderen in der Lage sind, derartige Fluktuationen ohne künstliches Herausfiltern abzubilden.

Terrestrische Temperaturen werden mit Thermometern gemessen. Korrekt in ländlichen Gebieten aufgestellte Thermometer abseits von menschlichen Wärmequellen zeigen Erwärmungsraten, die unter jenen liegen, die veröffentlicht werden. Die Satelliten-Datensätze basieren auf Referenzmessungen mittels der genauesten derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, welche eine unabhängige Verifikation der Temperaturmessungen ermöglichen, indem man mittels ins Weltall gerichteter Spiegel die kosmische Hintergrundstrahlung heranzieht, die etwa 1% des Gefrierpunktes von Wasser beträgt oder einfach 2,73 Grad über dem Absoluten Nullpunkt liegt. Es waren Messungen von minimalen Variationen dieser kosmischen Hintergrundstrahlung, die es der NASA ermöglichten, das Alter des Universums zu berechnen: 13,82 Milliarden Jahre.

Die RSS-Graphik (Abbildung oben rechts) ist akkurat. Die Daten wurden monatlich direkt von der RSS-Website heruntergeladen. Ein Computer-Algorithmus liest sie aus dem File heraus und plottet sie automatisch mittels einer fortschrittlichen Routine, die automatisch das Bildformat des Datenfensters an beide Achsen anpasst, um die Daten der Klarheit halber im maximal möglichen Maßstab zu zeigen.

Der letzte monatliche Datenpunkt wird visuell untersucht um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue, über die gezackte dunkelblaue Linie gelegte Trendlinie zeigt die Daten nach der linearen Regression kleinster Quadrate sowie die den Schnittpunkt mit der Y-Achse und die Neigung der Linie.

Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Das Verfahren ist angemessen, weil die globalen Temperaturaufzeichnungen nur wenig Autoregression zeigen, werden doch die Sommertemperaturen auf der einen Hemisphäre durch die Wintertemperaturen auf der anderen Hemisphäre kompensiert. Daher würde ein AR(n)-Modell Ergebnisse erzeugen, die sich ein wenig vom Trend der kleinsten Quadrate unterscheiden.

Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend in der Graphik und der Korrelationskoeffizient berechnet werden. Dieser ist sehr klein, und obwohl die Daten hoch variabel sind, verläuft der Trend flach.

Bei RSS selbst ist jetzt ernsthaftes Interesse an der Länge des Großen Stillstands aufgekommen. Dr. Carl Mears, der leitende Forschungswissenschaftler bei RSS, diskutiert dieses hier.

Die Ergebnisse von Dr. Mears werden in Abbildung T1 zusammengefasst:

Abbildung T1: Output von 33 IPCC-Modellen (türkis) im Vergleich mit der globalen Temperaturänderung nach RSS (schwarz) von1979 bis 2014. Die vorübergehenden Abkühlungen durch die Vulkanausbrüche des El Chichon (1983) und des Pinatubo (1991) zeichnen sich ab, ebenso wie die Wärmespitze des Großen El Nino von 1998.

Dr. Mears schreibt:

Die Leugner mögen es zu vermuten, dass der Grund für die Diskrepanz zwischen Modellen und Beobachtungen eine Art Problem mit der zugrunde liegenden Modellphysik ist, und sie weisen alle anderen Formen der Erklärung zurück. Dies verleitet sie zu der Schlussfolgerung, sehr wahrscheinlich irrig, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die wachsende Diskrepanz zwischen RSS-Daten und den Modellen ein, führt diese allerdings auf Rosinenpickerei des Anfangsdatums der Graphik der globalen Temperatur zurück:

Jüngst war in einer Anzahl von Artikeln der Mainstream-Presse zu lesen, dass es nur eine geringe oder gar keine Änderung der global gemittelten Temperatur während der letzten beiden Jahrzehnte gegeben zu haben scheint. Deswegen stellt man uns viele Fragen mit dem Tenor ;Ich habe diese Graphik auf einer Leugner-Website gesehen. Sind das wirklich Ihre Daten?‘ Während einige dieser Berichte den Endzeitpunkt ,cherry-picked‘ haben, um ihre Beweise noch stärker aussehen zu lassen, gibt es kaum einen Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten IPCC-Simulationen des historischen Klimas im AR 5 vorhergesagt. … Die Leugner mögen es wirklich, die Trends im Jahre 1997 beginnen zulassen, so dass das gewaltige ENSO-Ereignis von 1997/1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der kleinstmöglichen Neigung führt“.

Tatsächlich wird die vom Großen El Niño 1998 verursachte Temperaturspitze aus zwei Gründen fast vollständig bei der Berechnung des linearen Trends ausgeglichen: dem Fehlen einer ähnlichen Spitze beim El Niño 2010 und der schieren Länge des Stillstands selbst.

[Was ist das für ein „Wissenschaftler“, der alle anderen als „Leugner“ bezeichnet, die lediglich zu anderen Erkenntnissen gekommen sind als er selbst? Anm. d. Übers.]

Komischerweise bevorzugt Dr. Mears die terrestrischen Datensätze vor den Satelliten-Datensätzen. Das UK Met.-Office jedoch verwendet die Satellitendaten, um seine eigenen terrestrischen Daten zu kalibrieren.

Die Länge des Stillstands der globalen Erwärmung, so signifikant sie auch daherkommt, ist weit weniger wichtig als die stetig und rasch weiter zunehmende Diskrepanz zwischen den von den Modellen prophezeiten Temperaturtrends und der weit weniger ausgeprägten Temperaturänderung der realen Welt. Der El Niño dieses Jahres kann sich durchaus noch in diesem Jahr verstärken, was die Länge des Großen Stillstands reduziert. Allerdings setzt sich die Verbreiterung des Grabens zwischen Prophezeiung und Beobachtung weiter fort.

Quellen der IPCC-Projektionen in den Abbildungen 2 und 3.

Im Ersten Zustandsbericht des IPCC wurde prophezeit, dass die Temperatur bis zum Jahr 2025 um 1,0 °C (0,7; 1,5°C) steigen würde, was äquivalent ist zu einer Rate von 2,8°C (1,9; 4.2°C) pro Jahrhundert. In der Executive Summary wurde die rhetorische Frage gestellt: „Wie viel Vertrauen haben wir in unsere Prophezeiungen?“ Das IPCC verwies auf einige Unsicherheiten (Wolken, Ozeane usw.), kam aber dennoch zu dem Ergebnis:

Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle zumindest die groben Umrisse des Klimawandels prophezeien können … Es gibt Ähnlichkeiten zwischen Ergebnissen der gekoppelten Modelle mittels einfacher Repräsentationen des Ozeans und jenen komplizierteren Beschreibungen, und unser Verständnis der Differenzen, die es auch gibt, bestärkt uns in dem Vertrauen in unsere Ergebnisse“.

Dieses „substantielle Vertrauen“ war substantielles Über-Vertrauen. Und zwar weil die Rate der globalen Erwärmung seit 1990 – die wichtigsten „groben Umrisse des Klimawandels“, die die Modelle vermeintlich prophezeien sollten – inzwischen weniger als halb so groß ist wie vom IPCC damals prophezeit.

Im Jahre 1990 schrieb das IPCC Folgendes:

Auf der Grundlage der gegenwärtigen Modelle prophezeien wir:

Bei Treibhausgas-Emissionen unter dem Szenario A (Business as Usual) gibt es eine Rate der Zunahme der globalen mittleren Temperatur während des nächsten Jahrhunderts um etwa 0,3°C pro Jahrzehnt (mit einer Unsicherheits-Bandbreite von 0,2°C bis 0,5°C pro Jahrzehnt). Dies ist größer als während der letzten 10.000 Jahre aufgetreten. Dies wird zu einer wahrscheinlichen Erwärmung um etwa 1°C über dem jetzigen Wert bis zum Jahr 2025 und um 3°C vor dem Ende des nächsten Jahrhunderts führen. Der Anstieg wird nicht gleichmäßig verlaufen infolge des Einwirkens anderer Faktoren (S. Xii).

Später hieß es vom IPCC:

Die Zahlen unten basieren auf hoch auflösenden Modellen, skaliert, um mit unserer Best Estimate der globalen mittleren Erwärmung von 1,8°C bis zum Jahr 2030 konsistent zu sein. Für Werte, die konsistent mit anderen Schätzungen des globalen Temperaturanstiegs sind, sollten die Zahlen unten um 30% reduziert werden für die niedrige Schätzung oder um 50% erhöht werden für die hohe Schätzung (S. xxiv).

Der orangefarbene Bereich in Abbildung 2 repräsentiert die mittelfristige IPCC-Schätzung unter Szenario A einer kurzfristigen Erwärmung, d. h. 1,0°C (0,7; 1,5) bis zum Jahr 2025.

Die vom IPCC prophezeite globale Erwärmung während der 25 Jahre ab 1990 bis zur Gegenwart differiert wenig um eine gerade Linie (Abbildung T2)

Abbildung T2: Historische Erwärmung von 1850 bis 1990 sowie prophezeite Erwärmung von 1990 bis 2100 unter dem IPCC-Szenario A (IPCC 1990, S. xxii)

Weil diese Differenz zwischen einer geraden Linie und dem leichten Sprung aufwärts der von IPCC im Zeitraum 1990 bis 2025 prophezeiten Erwärmungsrate so klein ist, kann man das noch in anderer Weise betrachten. Um die zentrale Schätzung von 1 K seit 1990 bis 2025 zu erreichen, müsste es eine doppelt so starke Erwärmung während der nächsten zehn Jahre geben, als es während der letzten 25 Jahre der Fall war. Das ist unwahrscheinlich.

Aber ist der Stillstand vielleicht der Tatsache geschuldet, dass CO2-Emissionen nicht annähernd so stark gestiegen sind wie die IPCC-Prophezeiung unter Szenario A im Jahre 1990 benannt? Nein: Die CO2-Emissionen sind ziemlich deutlich über die unter Szenario A prophezeite Menge gestiegen (Abbildung T3)

Abbildung T3: CO2-Emissionen durch fossile Treibstoffe usw. im Jahre 2012 aus Le Quéré et al. (2014) im Vergleich zur Karte der „anthropogenen Kohlendioxid-Emissionen“ in Milliarden Tonnen Kohlenstoff pro Jahr. Quelle: IPCC 1990

Daher haben sich die CO2-Emissionen seit 1990 als viel näher Szenario A entsprechend erwiesen als an jedes andere Szenario, weil trotz all des Geredes um Reduktionen von CO2-Emissionen die Tatsache besteht, dass die Rate der Ausweitung des Verbrennens fossiler Treibstoffe in China, Indonesien, Indien, Brasilien usw. die geringen Reduktionen in westlichen Ländern bis heute weit in den Schatten stellen.

Es stimmt schon, die Methankonzentration ist nicht so gestiegen wie im Jahre 1990 prophezeit, weil die Methan-Emissionen, obwohl weitgehend ungesteuert, einfach nicht so steigen, wie die Modelle prophezeit hatten. Auch hier war also die Grundlage aller Prophezeiungen abwegig.

Das Gesamtbild ist klar. Szenario A ist das Emissions-Szenario aus dem Jahr 1990, dass der Menge der beobachteten CO2-Emissionen am Nächsten liegt.

Abbildung T4: Methan-Konzentration wie in vier IPCC-Zustandsberichten prophezeit, zusammen mit der beobachteten Konzentration, welche sich entlang der unteren Grenze der Geringst-Prophezeiung bewegt. Diese Graphik erschien in der vorläufig-endgültigen Version von IPCC (2013), wurde jedoch auf mysteriöse Weise aus der veröffentlichten Endversion entfernt, vermutlich weil das IPCC einen solchen direkten Vergleich zwischen absurd übertriebenen Prophezeiungen und der wenig aufregenden Wirklichkeit nicht zeigen wollte.

Um genau zu sein, ein Vierteljahrhundert nach 1990 beträgt die globale Erwärmung bis jetzt 0,27°C, was äquivalent zu etwa über 1°C pro Jahrhundert ist – wenn man es ausdrückt als linearer Regressionstrend kleinster Quadrate des Mittels von RSS und UAH der monatlichen mittleren globalen Temperaturanomalien. Die zentrale Schätzung des IPCC von 0,71°C, also äquivalent zu 2,8°C pro Jahrhundert, welche unter Szenario A im Jahre 1990 mit „substantiellem Vertrauen“ prophezeit worden war, war dreimal zu hoch gegriffen. Tatsächlich liegt die tatsächliche Rate sichtlich deutlich unter selbst der kleinsten Schätzung.

Im Jahre 1990 war die zentrale Prophezeiung der kurzfristigen Erwärmungsrate des IPCC um zwei Drittel höher als dessen heutige Prophezeiung. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert, heute ist es ein solches von 1,7°C pro Jahrhundert – und wie Abbildung T5 zeigt, hat sich selbst das als eine substantielle Übertreibung erwiesen.

Erwärmt sich der Ozean?

Eine oft herangezogene Erklärung des Großen Stillstands lautet, dass das gekoppelte Ozean-Atmosphäre-System weiterhin Wärme akkumuliert hat mit etwa der von den Modellen prophezeiten Rate, aber das die Wärme während der letzten Jahrzehnte durch die Ozeane aus der Atmosphäre herausgefiltert worden ist. Und man hypothetisiert angesichts des Umstands, das die oberflächennahen Schichten weit weniger Erwärmung zeigen als von den Modellen prophezeit, dass das, was man die „fehlende Wärme“ nennt, irgendwie in die kaum vermessenen Tiefen unter 2000 m diffundiert ist, von wo sie irgendwann in Zukunft wieder freigesetzt wird.

Tatsächlich ist unbekannt, ob sich der Ozean erwärmt: jede der automatisierten ARGO-Bojen führt nur drei Messungen pro Monat durch für eine Wassermenge von 200.000 km³ – grob etwa ein 100.000 Quadratmeilen [ca. 259.000 km²] großes Gitterquadrat mit einer Kantenlänge von 316 km und einer Tiefe von 2000 m. Im Klartext, die Ergebnisse einer so geringen Auflösung sind nicht viel besser als Raten. (Willis Eschenbach drückt es so aus: es ist etwa das Äquivalent zu versuchen, eine einzelnes Temperatur- und Salzgehalts-Profil an einem einzigen Punkt im Oberen See einmal pro Jahr zu erstellen).

Unglücklicherweise scheint es, als ob ARGO den Ozean-Datensatz seit Dezember 2014 nicht mehr aktualisiert hat. Allerdings haben wir 11 ganze Jahre mit Daten. Die Ergebnisse zeigt Abbildung T5. Falls die ARGO-Messungen richtig sind, ist die Erwärmung der Ozeane äquivalent zu 0,2°C pro Jahrhundert.

Abbildung T5: Der gesamte, fast globale ARGO-Datensatz der Wassertemperatur der Ozeane in den oberen 2000 m von Januar 2004 bis Dezember 2014 (schwarze gezackte Kurve), zusammen mit dem linearen Regressionstrend kleinster Quadrate, berechnet aus den Daten vom Autor (grüner Pfeil).

Und schließlich, obwohl die ARG-Bojen die Temperaturänderung in den Ozeanen direkt messen, ändert die NOAA die Temperaturänderung künstlich in Zetajoule der Änderung des ozeanischen Wärmegehaltes, wodurch die Änderung viel größer aussieht.

Die erschreckend klingende Änderung des Wärmegehaltes von 260 ZJ im Zeitraum 1970 bis 2014 (Abbildung T6) ist äquivalent zu lediglich 0,2 K pro Jahrhundert globaler Erwärmung. All jene „Hiroshima-Bomben von Wärme“, von denen die extremistischen Klima-Websites reden, sind in Wirklichkeit ein kaum wahrnehmbarer Nadelstich. Der Ozean und dessen Wärmekapazität sind viel größer als so Mancher wahrhaben will.

Abbildung T6: Änderung des ozeanischen Wärmegehaltes von 1957 bis 2013 in Zetajoules vom NODC Ocean Climate Lab der NOAA: http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT, wobei die Werte des Wärmegehaltes zurück konvertiert wurden zu den Änderungen der Wassertemperatur in den Ozeanen in Kelvin, wie sie ursprünglich gemessen worden sind. Die Konversion der NOAA der minimalen Erwärmungszahlen in Zetajoule, kombiniert mit einer übertriebenen vertikalen Achse der Graphik, hat die Auswirkung, dass eine sehr kleine Änderung der Wassertemperatur viel signifikanter aussieht als sie ist.

Die Rück-Konversion der Änderung des ozeanischen Wärmegehaltes in Temperaturänderungen enthüllt eine interessante Diskrepanz zwischen den NOAA-Daten und denen des ARGO-Systems. Während des Zeitraumes der ARGO-Daten von 2004 bis 2014 implizieren die NOAA-Daten eine Erwärmung der Ozeane um 0,05°C pro Jahrzehnt, äquivalent zu 0,5°C pro Jahrhundert – oder eine fast doppelt so hohe Rate wie von ARGO gemessen.

Zwar hat ARGO den besser aufgelösten Datensatz, aber da die Auflösung aller Ozean-Datensätze sehr gering ist, muss man all diese Ergebnisse mit Vorsicht betrachten. Was man sagen kann ist, dass aufgrund solcher Beweise, wie sie diese Datensätze erbringen können, die Differenz zwischen dem zugrunde liegenden Erwärmungstrend des Ozeans und dem der Atmosphäre nicht statistisch signifikant ist. Dies zeigt, dass falls sich die „fehlende Wärme“ wirklich in den Ozeanen versteckt, sie auf magische Weise den Weg in tiefe Schichten gefunden hat, ohne die oberen Schichten auf ihrem Weg zu erwärmen. Ebenfalls aufgrund dieser Daten gibt es keine Beweise für eine rapide oder katastrophale Erwärmung der Ozeane.

Außerdem gibt es bis heute keine empirische, theoretische oder numerische Methode, komplex oder einfach, die erfolgreich mechanistisch spezifiziert hat, wie entweder die durch die anthropogene Anreicherung der Atmosphäre mit Treibhausgasen verursachte Erwärmung die Tiefsee erreicht hat, ohne den Wärmegehalt der durchdrungenen oberen Ozeanschichten wesentlich zu verändern, oder wie die Wärme vom Grund der Ozeane eventuell irgendwie wieder die Klimabedingungen nahe der Oberfläche beeinflussen kann, die für das Leben auf dem Festland der Erde relevant sind.

Die meisten Ozean-Modelle, die zur Berechnung der gekoppelten allgemeinen Modell-Sensitivität herangezogen worden sind, können die meisten der physikalischen Prozesse nicht auflösen, die für die Wärmeaufnahme durch die Ozeane relevant sind. Ultimativ verlangt der Zweite Hauptsatz der Thermodynamik, dass sich jedwede in der Tiefsee akkumulierte Wärme via verschiedener Diffusionsprozesse auflösen muss. Es ist nicht plausibel, dass irgendwelche durch die Tiefsee aufgenommenen Wärmemengen plötzlich die oberen Ozeanschichten erwärmen und damit auch die Atmosphäre.

Falls die „Tiefsee“-Erklärung für den Stillstand korrekt wäre (und diese ist lediglich eine von Dutzenden Anderen, die präsentiert worden sind), haben die komplexen Modelle dabei versagt, dies korrekt abzubilden: anderenfalls wäre die wachsende Diskrepanz zwischen den prophezeiten und beobachteten atmosphärischen Erwärmungsraten nicht so signifikant geworden, wie es der Fall ist.

Warum waren die Modell-Prophezeiungen übertrieben?

Im Jahre 1990 prophezeite das IPCC – unter seinem Szenario A (Business as Usual) – dass es vom Beginn der industriellen Revolution an bis zur Gegenwart einen Strahlungsantrieb von 4 Watt pro Quadratmeter geben würde, der durch den Menschen verursacht ist (Abbildung T7):

Abbildung T7: prophezeite, vom Menschen verursachte Strahlungsantriebe (IPCC 1990).

Allerdings hat sich das IPCC von 1995 an entschlossen, aufgrund dürftiger Beweise zu vermuten, dass anthropogene Aerosole – meist Ruß durch Verbrennung – die Erde abschattet, und zwar stark genug, um einen starken negativen Strahlungsantrieb auszulösen. Auch hat es inzwischen verspätet erkannt, dass seine projizierten Zunahmen der Methan-Konzentration wilde Übertreibungen waren. Als Folge dieser und anderer Änderungen schätzt es jetzt, dass der gesamt-anthropogene Antrieb der industriellen Ära lediglich 2,3 W/m² beträgt oder etwas weniger als halb so groß ist wie laut dessen Prophezeiung im Jahre 1990.

Abbildung T8: Gesamt-anthropogene Antriebe von 1750 bis 1950, 1980 und 2012 (IPCC 2013).

Allerdings könnte selbst das noch eine erhebliche Übertreibung sein, beträgt doch die Best Estimate des tatsächlichen gegenwärtigen Strahlungs-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) lediglich 0,6 W/m² (gesamter natürlicher und anthropogener Antrieb); Abbildung T9:

Abbildung T9: Energiebudget-Diagramm für die Erde nach Stephens et al. (2012).

Kurz gesagt, der größte Anteil des vom IPCC prophezeiten Antriebs ist entweder eine Übertreibung oder hat bereits zu der Temperaturänderung geführt, welcher auch immer, die er verursachen sollte. Es gibt nur wenig globale Erwärmung in der Pipeline als Folge unserer Emissionssünden in Vergangenheit und Gegenwart.

Es kann auch sein, dass das IPCC und die Modelle unablässig die Klimasensitivität übertrieben haben. Eine jüngst erschienene Studie zu dieser Frage von Monckton of Brenchley et al. (2015), kam auf eine Klimasensitivität im Bereich von 1°C pro Verdoppelung des CO2-Gehaltes (man gehe zu www.scibull.com und klicke dort auf „Most Read Articles“). Die Studie identifizierte Fehler in der Art und Weise, wie die Modelle mit Temperatur-Rückkopplungen umgegangen waren, sowie deren Verstärkung, welche für zwei Drittel der Gleichgewichts-Erwärmung verantwortlich waren, die das IPCC prophezeit hatte.

Prof. Ray Bates hat jüngst in Moskau eine Studie veröffentlicht, in der er auf der Grundlage der Analyse von Lindzen & Choi (2009, 2011) zu dem Ergebnis gekommen war (Abbildung T10), dass Temperatur-Rückkopplungen insgesamt negativ sind. Demzufolge hat er die Schlussfolgerungen sowohl von Lindzen & Choi (1990) als auch von Spencer & Braswell (2010, 2011) bestätigt, denen zufolge die Klimasensitivität unter – und vielleicht beträchtlich unter – 1°C pro CO2-Verdoppelung liegt.

Abbildung T10: Realität (Mitte) im Vergleich zu 11 Modellen. Aus Lindzen & Choi (2009).

Eine zunehmende Anzahl begutachteter Studien kommt zu dem Ergebnis, dass die Klimasensitivität deutlich unter den 3°C (1,5; 4,5) pro CO2-Verdoppelung liegt, die zum ersten Mal im Charney-Report aus dem Jahr 1979 für die Academy of Sciences in den USA kolportiert worden war. Hierbei handelt es sich bis heute um die Best Estimate des IPCC.

Auf der Grundlage der bis heute vorliegenden Beweise gibt es daher keine wissenschaftliche Basis, überhaupt irgendwelche Maßnahmen zu ergreifen, um die CO2-Emissionen abzuschwächen.

Und zum Schluss: Wie lange wird es dauern, bevor die Freiheits-Uhr (Abbildung oben rechts!) 20 Jahre ohne jede globale Erwärmung erreicht? Falls das geschieht, wird die Klimaangst unhaltbar werden.

Link: http://wattsupwiththat.com/2015/08/06/the-pause-draws-blood-a-new-record-pause-length-no-warming-for-18-years-7-months/

Übersetzt von Chris Frey EIKE




HadCRUT4 tritt den Manipulateuren der terrestrischen Temperatur bei

Obwohl die Satelliten von RSS und UAH alles beobachten, haben alle drei der terrestrischen Rekordhalter an ihren Datensätzen manipuliert, um die offensichtliche Erwärmungsrate noch einmal weiter nach oben zu treiben. Inzwischen gab es so viele Adjustierungen mit so wenig Rechtfertigungen – sämtliche Adjustierungen sorgten für eine Aufsteilung des Anstiegs –, dass ein Drittel bis ein Fünftel der gesamten Erwärmung des 20. Jahrhunderts ausschließlich auf diese Adjustierungen zurückgeht, die eigentlich in die andere Richtung hätten gehen sollen, wie McKitrick & Michaels in einer bis heute nicht in Frage gestellten Studie im Jahre 2007 gezeigt haben. Die Erwärmung in den Datensätzen ist während der letzten Jahrzehnte doppelt so hoch wie tatsächlich eingetreten.

Die drei terrestrischen Datensätze sind nicht mehr glaubwürdig. Die Satelliten zeigen jetzt die einzige halbwegs verlässliche globale Temperaturaufzeichnung. Und darin zeigt sich seit 18 Jahren und 5 Monaten (UAH) bzw. seit 18 Jahren und 6 Monaten (RSS) keine globale Erwärmung, obwohl etwa ein Drittel aller anthropogenen Antriebe seit 1750 erst nach 1997 aufgetreten sind.

Für die Geschichtsbücher jedoch folgt hier eine sechsmonatliche Zusammenfassung dessen, was die drei terrestrischen und die beiden Satelliten-Datensätze zeigen. Man mache daraus, was man kann, aber ich für meinen Teil werde die drei terrestrischen Datensätze in keiner Weise mehr für Untersuchungen heranziehen, wurden sie doch alle drei weit über Nützlichkeit hinaus verändert, in die falsche Richtung und auf eine Art und Weise, die nicht einfach zu rechtfertigen ist.

Beispiel: Vor ein oder zwei Monaten hat ein Tom Karl von NCDC notorisch und absichtlich die Temperaturmessungen der ARGO-Bojen nach oben korrigiert, obwohl das ARGO-System rein zufällig das am wenigsten schlechte Ozean-Messsystem ist, das wir haben. Die Satelliten zeigen keinerlei Erwärmung der unteren Troposphäre während der letzten 11 Jahre; die ARGO-Bojen zeigen keine Erwärmung der Oberflächenschichten der Ozeane im gleichen Zeitraum. Und doch hat Mr. Karl kapriziös verordnet, dass sich die Oberfläche doch schließlich erwärmt haben muss.

Einst wurde Wissenschaft durch Messungen betrieben; heute wird sie durch Gebote zerstört. Wollen wir hoffen, dass die Geschichte, wenn sie mit Verblüffung auf die Ära zurückblickt, in der man es Typen wie Mr. Karl erlaubt hatte, einst wissenschaftliche Institutionen zu betreiben und zu ruinieren*, ihn hinsichtlich jedes kleinen Details so unfreundlich behandelt wie er es verdient.

[*Dies ist wieder eines der unnachahmliche Wortspiele von Lord Monckton: … to ru(i)n major once-scientific institutions…]

Aus diesem und anderen Gründen trete ich nicht mehr dafür ein, die terrestrischen Temperaturwerte mit den Satellitenwerten zu mitteln. Die terrestrischen Temperaturen sind inzwischen lediglich noch Fiktion.

Die folgende Tabelle zeigt, wie stark sich die terrestrischen Temperaturwerte mittlerweile von den Satellitenwerten unterscheiden. Es werden drei Zeiträume gezeigt, die alle bis Juni 2015 laufen. Der erste Zeitraum ab Januar 1979 beginnt beim ersten Monat, der allen fünf Datensätzen gemeinsam ist. Die zweite Periode ab Januar 1990 beginnt im Jahr des Ersten IPCC-Zustandsberichtes. In diesem Zeitraum haben sich die positive und die negative Phase der PDO gerade in etwa aufgehoben, was einen ziemlich genauen Trend der langzeitlichen Erwärmung zeigt. Der dritte Zeitraum ab Januar 1997 beginnt zum Zeitpunkt des Anfangs des Großen Stillstands von 18 Jahren und 6 Monaten.

Für den Datensatz HadCRUT4 werden die alten und neuen Werte bis Mai 2015 kursiv gezeigt zusammen mit dem neuen Wert bis Juni 2015. Satellitendatensätze sind in Fettdruck gezeigt.

Von 1979 bis heute beträgt die Differenz zwischen den Mittelwerten der terrestrischen und der Satelliten-Datensätze 0,4 K pro Jahrhundert; von 1990 bis heute 0,56 K pro Jahrhundert, von 1997 bis heute ist die Differenz kräftig gestiegen auf 1,06 K pro Jahrhundert. Es ist zulässig, hieraus zu schließen, dass es das Hauptziel dieser Manipulation der terrestrischen Datensätze war, den empörenden Stillstand auszumerzen.

Die Graphiken folgen unten. Um es frank und frei zu sagen: Selbst nach den Manipulationen liegt die Erwärmungsrate nicht einmal annähernd bei dem, wo sie eigentlich liegen sollte, falls irgendeine der IPCC-Prophezeiungen eingetreten wäre. Meine Vermutung ist, dass wenn sie einmal ihre Weltregierung in Paris haben, sie mit den Manipulationen aufhören und die Temperaturaufzeichnunen in Ruhe lassen.

Tatsächlich erwarte ich, dass wir sehr viel weniger über Klimawandel hören werden, wenn die Installation der Weltregierung erst einmal in trockenen Tüchern ist. Da die Divergenz zwischen Prophezeiung und Wirklichkeit auch weiterhin immer größer wird, werden die neuen Diktatoren nicht wünschen, dass irgendjemand noch auf die Große Lüge verweist, durch die sie die Macht übernommen haben und – zum ersten Mal – die globale Macht.

Januar 1979 bis Juni 2015

Januar 1990 bis Juni 2015

Januar 1997 bis Juni 2015

HadCRUT4: Vergleich der alten und der neuen Versionen:

Link: http://wattsupwiththat.com/2015/08/04/hadcrut4-joins-the-terrestrial-temperature-tamperers/

Übersetzt von Chris Frey EIKE, der hofft, sich bei der Auflistung der Graphiken nicht vertan zu haben.




Hat Tom Karl von der NOAA/NCDC die Gesetze der Thermodynamik abgeschafft?

[Hinweis: Auch hier kommt an einigen Stellen die pointierte Ausdruckskunst von Monckton zum Ausdruck. Ich habe diese Passagen in [ ] und kursiv gesetzt unübersetzt gelassen. Der ganze Wortwitz würde bei der Übersetzung verloren gehen, und ich denke auch, dass eine Übersetzung zum Verständnis nicht notwendig ist. – Chris Frey, Übersetzer]

Bild rechts: Leider keine ARGO-Bojen, die viel, viel weiter auseinander liegen. Bild: Gabriele Planthaber / pixelio.de

Ich zeigte dem Energy and Environment Committee eine Graphik, die das Mittel der Temperaturanomalien von drei terrestrischen und zwei Satelliten-Datensätzen darstellte. Die Graphik zeigte, dass sich die Erde während der ersten acht Jahre des 21. Jahrhundert abgekühlt hatte:

Der Texas-Repräsentant Joe Barton, hochrangiges republikanisches Mitglied des Klimakomitees des Hauses, heuchelte Erstaunen. Er wandte sich an Karl und sagte: „Sie und andere Funktionäre haben während der letzten Monate wiederholt vor diesem Komitee ausgesagt und wieder und immer wieder von der ,globalen Erwärmung‘ geredet. Nicht einer von Ihnen hat uns jemals gesagt, dass es während der letzten sechs oder sieben Jahre zu einer globalen Abkühlung gekommen war. Warum nicht? Oder lügt Lord Monckton uns an?“

Tom Karl, der neben mir saß, sah so aus, als ober sich wünschte, die „sich erwärmende“ Erde würde ihn verschlucken. Er [shifted from one well-padded butt-cheek to the other.]. Er knurrte missbilligend: [„Er, ah, well, that is, we wouldn’t have quite – oof – um – done the calculations that way, aaahh… We wouldn’t have averaged the anomalies from – umf – multiple datasets with different fields of coverage, err – aaagh…”]

Karl wurde von der Glocke gerettet [was Saved by the Bell]. Eine Abteilung wurde gerufen und die Anhörung unterbrochen, als die Ehrenwerten Mitglieder hinausdrängten, um abzustimmen.

Während die Mitglieder des Komitees ihrer demokratischen Pflicht nachkamen, fand Tom Karl seinen Weg zu mir und zischte: „Wie können Sie erwarten, ernst genommen zu werden?“

„Gar nicht“, erwiderte ich, „ich erwarte, dass die Daten ernst genommen werden.“

Karl thematisierte auch meine Aussage vor dem Komitee, dass es während der letzten 100 Jahre keinen besonderen Trend bei Hurrikanen gegeben hatte, die auf das US-Festland übergetreten waren. Er trug ein großes Portfolio von Graphiken eines Künstlers mit sich. Er öffnete den Ordner und sagte: „Sie haben unrecht!“

„Nein“, erwiderte ich, „ich habe recht!“

Er deutete auf die Graphik. Ich hatte tatsächlich unrecht. Karls Graphik zeigte keinen Trend bei auf das Festland übertretenden Hurrikanen nicht nur für 100, sondern für 150 Jahre. Er zog eine Flappe, dann hellte sich seine Miene wieder auf: „Ah“, sagte er, „aber schauen Sie nur die Zunahme der tropischen Stürme während der letzten 30 Jahre!“

„Sie wissen verdammt gut“, antwortete ich, „dass die vermeintliche Zunahme lediglich ein Artefakt der Überwachung mit Satelliten ist, die vor 30 Jahren begonnen hat. Davor hätten Sie nur von Hurrikanen erfahren, die Sie betroffen haben, aber kaum von jedem tropischen Sturm“.

Die Mitglieder des Komitees kamen murmelnd zurück in den Anhörungssaal und nahmen ihre Plätze ein. Joe Barton blaffte: „Sie beide sollten besser an dieses Komitee schreiben und uns informieren, wie sie zu Ihren gegenseitig inkompatiblen Schlussfolgerungen gekommen waren hinsichtlich der Frage, ob es während der letzten sieben oder acht Jahre wirklich eine Abkühlung gegeben hat“.

Da war ich schnell bei der Hand und sandte dem Komitee noch in der gleichen Woche einen Brief, in dem ich erklärte, dass jeder einzelne Datensatz die Abkühlung zeige. Besondere Freude bereitete es mir, dass diese Abkühlung selbst in Karls eigenem NCDC-Datensatz zu erkennen war:

Karl sandte dem Komitee eine ziemlich gereizte Antwort des Inhalts, dass die bloßen Daten nicht relevant seien. Acht Jahre seien ein zu kurzer Zeitraum, um irgendwelche Schlussfolgerungen zu ziehen, bla bla. Was zuzugeben er sich nicht durchringen konnte war, dass er mit seiner Aussage, dass es von 2001 bis 2008 keine globale Abkühlung gegeben hatte, falsch lag. Schließlich zeigte sein eigener Datensatz diese Abkühlung.

Möglicherweise leckt sich Karl immer noch die Wunden, die ihm ein bloßer Laie mit der Widerlegung von Prophezeiungen mit Daten zugefügt hatte. Dann hat er sein Bestes getan, den Stillstand von 18 Jahren und 6 Monaten vollständig zu beseitigen, macht dieser doch alle wild übertriebenen Prophezeiungen von irrtumsanfälligen Modellen zum Gespött, die ungerechtfertigterweise, aber profitabel vom politisch-wissenschaftlichen Establishment favorisiert werden, von dem er ein Mitglied ist.

Skeptische Wissenschaftler einschließlich Bob Tisdale, Judith Curry, Ross McKitrick, Dick Lindzen und unser freundlicher Gastgeber haben alle vorbildlich schnell reagiert und darauf hingewiesen, wie offenkundig Karl die Daten frisiert hatte.

Dabei gibt es einen herrlichen Punkt, den sie nicht erwähnt hatten. Karls Studie scheint die Gesetze der Thermodynamik aufzuheben.

Nehmen wir einmal an, er hätte recht, ad argumentum. In diesem Falle hätte sich die globale Erwärmung während der letzten 15 Jahre mit der nicht besonders alarmierenden Rate von 0,116 K pro Dekade fortgesetzt. Im Jahre 1990 lautete die zentrale Business-As-Usual-Prophezeiung mittelfristig 0,28 K Erwärmung pro Dekade. Wie auch immer man es sieht, daraus folgt jedenfalls, dass Karls Studie eine Bestätigung dafür ist, dass die Modelle mehr als doppelt übertrieben haben.

Aber schauen wir mal, was auf beiden Seiten der [Wasser-]Oberfläche während dieses gleichen Zeitraume passiert war.

Unter der Oberfläche lauert die große Tiefe. Die Datenquelle mit der am wenigsten schlechten Auflösung bzgl. der Wassertemperatur der oberen 1900 m des Ozeans ist das Netzwerk von etwa 3600 automatischen ARGO-Bojen.

Anders als deren Vorgänger, also Eimer von Schiffen und Sensoren im Kühlwasser für die Maschinen sowie Thermometer auf den Promenadendecks wurden diese Bojen speziell konstruiert, um einen konsistenten, kalibrierten, kompetenten Datensatz mit Daten der Ozeantemperatur zur Verfügung zu stellen.

Sie haben ihre Probleme, nicht zuletzt dasjenige, dass es viel zu wenige davon gibt. Jede Boje nimmt nur 3 Messungen pro Monat vor in 200.000 km³ Ozean. Die Bias-Unsicherheit ist natürlich geringer als in jenen schlechten alten Tagen von Eimern und so, aber die Abdeckung lässt zu wünschen übrig.

Ein weiteres Problem ist, dass ARGO erst ab dem Jahr 2004 gute Daten lieferte, und es scheint keine Aktualisierung dieser Daten seit Ende 2014 gegeben zu haben.

Nichtsdestotrotz ist ARGO das am wenigsten Schlechte, das wir haben. Und was die Bojen zeigen ist, dass die Rate der ozeanischen Erwärmung während dieser 11 vollen Datenjahre äquivalent ist zu weniger als einem Vierzigstel Grad pro Dekade – 0,023 Grad pro Dekade, um es genau zu sagen:

Die untere Troposphäre erstreckt sich in etwa genauso hoch über die Oberfläche wie die von ARGO vermessene Ozeanfläche in die Tiefe. Deren Temperatur wird gemessen von Satelliten, welche die Datensätze von RSS und UAH speisen. Sie haben eine große Bias-Unsicherheit, aber eine geringe Unsicherheit bzgl. der Abdeckung. Folgt man der jüngsten Revision des UAH-Datensatzes, erkennt man so ziemlich das Gleiche. Hier folgt die RSS-Graphik der 11 Jahre von 2004 bis 2014:

Diese Überlegungen werfen eine wichtige Frage auf, die – einmal gestellt – offensichtlich ist. Aber wie schon Dr. Lyne, mein kluger Tutor in Cambridge uns gewöhnlich daran erinnerte: „Haben Sie keine Angst, das Offensichtliche auszusprechen! Es ist überraschend, wie oft das Offensichtliche nicht bemerkt wird, solange nicht jemand darauf hinweist“.

Hier lautet die offensichtliche Frage: Woher stammt Karls Oberflächen-Erwärmung?

Sie kommt nicht von oben, denn in der unteren Troposphäre gab es keine Erwärmung von 2004 bis 2014.

Vier Fünftel davon kommt auch nicht von unten, spricht doch Karls Studie nur davon, dass im 15-jährigen Zeitraum 2000 bis 2014, wovon 11 Jahre mit ARGO-Daten vorliegen, die Erwärmungsrate äquivalent war zu 0,116 Grad pro Dekade – mehr oder weniger genau fünf mal die gemessene Ozean-Erwärmungsrate.

Nicht viel kommt auch vom Festland, nimmt doch Karls Studie nur wenige Adjustierungen der Erwärmung der Luft über dem Festland vor, welche in jedem Falle lediglich 29% der Erdoberfläche ausmachen.

Woher kommt die fehlende Wärme? Spukhafte Fernwirkung* vielleicht? Haben Herr Karl und die unvergleichlichen Begutachter bei Science, die diesen riesigen Fehler hätten bemerken müssen, unabsichtlich die Gesetze der Thermodynamik aufgehoben? Das sollte man uns sagen. Falls ich nämlich recht habe, wäre dies die einfachste, klarste und vollständigste Widerlegung der Studie von Karl.

[Der Link steht so im Original!]

Link: http://wattsupwiththat.com/2015/06/05/has-noaa-ncdcs-tom-karl-repealed-the-laws-of-thermodynamics/

Übersetzt von Chris Frey EIKE




Heartland Institut an Ban Ki-Moon: „Klimawandel ist nicht so schlecht wie Sie glauben“

James Delingpole of Breitbart London, Marc Morano of Climate Depot und Monckton of Brenchley sowie Climate Change Weekly zeigten ihre Beglaubigungsschreiben am Südtor des Vatikan.

Wir hatten uns als Journalisten akkreditiert, um über die jüngste Konferenz zum Thema Klimawandel zu berichten, die von den Pontifical Academies of Sciences und den Social Sciences gemeinsam organisiert worden war.

Das allein war schon eine komische Oper für sich. Ich hatte schon ein paar Tage zuvor einwandfreie Beglaubigungsschreiben eingereicht, aber keine Antwort erhalten. Wir wandten uns an das Pressebüro des Heiligen Stuhls (manchmal geöffnet von 11 bis 13 Uhr) und fragten, warum es keine Bestätigung gegeben hatte.

„Oh, wir beantworten nur Einsendungen, die um eine Antwort bitten“.

„Aber wir hatten um eine Antwort gebeten“.

„Ähh, manchmal senden wir keine Antwort, obwohl sie sogar erbeten wurde“.

Der Heilige Stuhl regiert ein Fünftel der Weltbevölkerung mit dem Budget eines Gemeinderats. Er tut sein Bestes, Gott segne ihn.

Wie auch immer, wir hatten unsere Akkreditierung, und da standen wir dann vor dem Tor, umgeben von klassischer Architektur im Rokoko-Stil von monumentaler Größe. Die auf den Petersplatz hinausblickenden Kolonnaden waren während der letzten Jahre instand gesetzt und gereinigt worden. Sie sahen aus wie gerade frisch gebaut. Unbedingt ansehen, wenn Sie das nächste Mal im Rom sind.

Der Wächter geleitete uns in eine bequeme Ecke beim Tor und sagte: „Warten Sie hier mit den Anderen!“ Ein halbes Dutzend triefender Schreiberlinge warteten hier schon und stampften mit den Füßen, um der bitteren globalen Erwärmung an jenem Tag Ende April zu begegnen.

Eine Horde Schulkinder tauchte auf, begleitet von einem Trio nervöser Lehrer, und bildete eine unordentliche Linie am Sicherheits-Checkpoint der römischen Polizei nicht weit entfernt vom Tor. Eine vor Kurzem eingegangene Bombendrohung hatte alle in Alarmbereitschaft versetzt.

Die Schweizergarde wartete, bis die Kinder den Sicherheits-Checkpoint vollständig blockiert hatten, pickten dann drei von uns heraus und ordnete an, dass wir uns ans Ende der Reihe stellen sollten, hinter die Kinder.

Falls wir bis 10 Uhr nicht durch das Tor durch waren, wussten wir, dass wir von der Pressegruppe ausgeschlossen waren, die hinter dem Petersdom vorbei und in das Casina Pio IV eskortiert wurden, der „Cottage von Papst Pius IV“. Ich dachte an „Hamptons Cottage“.

Das stattlichen neo-klassizistischen Gebäude thront inmitten der handverlesenen Rasenflächen der Vatikanischen Gärten. Aber mit diesem Tempo würde es uns nicht vergönnt sein, diese zu sehen.

Die Linie der schnatternden Bambini kam zentimeterweise voran. Ich schaute zurück auf die Schweizergarde. Sie starrten uns an. Warum, fragte ich mich. Und warum im Einzelnen hat sie uns nicht direkt vor, sondern hinter die lange Reihe der Schulkinder zu dem Checkpoint dirigiert?

Einen Moment sah ich woanders hin, und just in diesem Moment wurden die anderen Journalisten, die außerhalb des Tores gewartet hatten, durch das Tor gewunken und sich zu jenen zu gesellen, die bereits das Tor passiert hatten. Nur wir mussten zuvor durch den Checkpoint.

Die Machenschaften, um uns draußen zu halten – falls es solche waren – wurden vom Himmel [heaven] suspendiert. Eine dunkle Regenwolke zog durch. Die himmlischen Schleusen öffneten sich. Die Polizei – nicht sofort im Trockenen ihres Häuschens – hatte Mitleid mit den anstehenden Kindern und winkte sie alle durch, und uns mit ihnen. Anderenfalls wären wir um fatale zehn Minuten zu spät gekommen.

Wir huschten an der Schweizergarde vorbei und gesellten uns zu der Gruppe Journalisten, die hurtig am Südrand des Petersdomes vorbei in die Vatikanischen Gärten eilten [Anm. d. Übers.: Hier ist es kaum möglich, den den gesamten Artikel durchziehenden Wortwitz von Monckton angemessen zu übersetzen. Im Original lautet dieser Absatz: „We dashed past the Swiss Guards and joined the group of journalists just as it was marched briskly off up the south flank of St Peter’s and round the apse to the Vatican Gardens“]

Wir betraten das Cottage durch die Gartentür und fanden uns in einem hohen Raum mit blendendem Marmor und einer Stuckdecke, angestrichen in gedeckten, eleganten Farbtönen.

Dort warteten wir ein paar Minuten. Hinter uns verlangte La Stampa, Ban Ki-Moon fotografieren zu dürfen, und die Londoner Times murmelte irgendetwas wie Skeptikern wurde der Zutritt erlaubt in ein Handy. Der Presseoffizier des Vatikans, der unsere Beglaubigungsschreiben entgegen genommen hatte, fuhr hoch. Er war sichtlich irritiert, uns hier zu sehen, und gab seinem Erstaunen Ausdruck, dass wir erfolgreich hinein gekommen waren.

Nur weil man paranoid ist, bedeutet das noch nicht, dass sie einen nicht kriegen wollen.

Wir wurden die dunkle Steintreppe der Diener hinauf geleitet in einen Vorraum. Ich kannte meinen Weg darum herum, hatte ich doch schon früher einmal an einer wissenschaftlichen Konferenz an der Pontifical Academy teilgenommen. Ich lief durch die Haupteingangshalle in den Konferenzraum.

Reihen von Kardinälen, Bischöfen und aktivistischen Wissenschaftlern waren bereits an Ort und Stelle. Ban Ki-Moon gab gerade seine Eröffnungs-Plattitüden zum Besten über die Notwendigkeit einer „nachhaltigen Entwicklung“. Sogar er selbst schien gelangweilt über das, was er sagte.

Trotzdem sah der Sekjen [?] aus wie ein begossener Pudel. Seit über einem halben Jahrhundert hat sich die katholische Kirche standhaft den Entvölkerungsprogrammen der UN entgegengestellt (heute als „nachhaltige Entwicklung“ bezeichnet), die u. A. Verhütung und Abtreibung vorsahen. Beides verbietet die katholische Lehre.

Inzwischen sind die Dämme erstürmt worden, die Verteidigungslinien sind eingebrochen, und die Pontifical Academy of Sciences übergab die Kirche den Mächten der Dunkelheit.

Unter dem neuen Regime von Papst Franziskus war es kein Geringerer als der UN-Generalsekretär höchstselbst, der das düstere Narrativ von „Nachhaltiger Entwicklung“ propagierte, die imaginären Gefahren des Klimawandels an die Wand malte, von zwei, drei, vier oder noch mehr Grad globaler Erwärmung sprach und – fälschlich – behauptete, dass die Armen durch einen sich erwärmenden Planeten mehr zu verlieren hätten als die Reichen.

Langatmig kam Ban Ki-Moon dann zum Ende, und Kardinal Turkson, von dem es heißt, er habe die päpstliche Enzyklika entworfen, hielt eine im Ganzen staatsmännisch vernünftige Rede über die Notwendigkeit von „Verantwortung und Solidarität“, der man auf beiden Seiten der Debatte kaum widersprechen konnte. Falls die Enzyklika selbst im gleichen Tenor abgefasst wäre, könnte vielleicht noch alles gut werden.

Ban Ki-Moon und sein Gefolge erhoben sich und gingen. Ich folgte ihnen hinaus und fand mich auf dem Flur ein paar Momente später ihm direkt gegenüber.

Ich schüttelte ihm die Hand und sagte ihm: „Herr Generalsekretär, seien Sie vorsichtig mit dem Klimawandel. Er könnte nicht annähernd so aussehen, wie man Sie glauben gemacht hat“.

Die UN haben den Klimawandel schon lange als eine Gelegenheit angesehen, ihre Macht und ihren Reichtum auszuweiten auf Kosten der Steuerzahler in den Mitgliedsstaaten. Von Anfang an wurde nur eine Seite der Argumentation am UN-Hauptquartier in New York zugelassen: die extremistische Seite.

Und jetzt, an einem regnerischen Morgen in den hübsch zurechtgemachten Vatikanischen Gärten, und vielleicht zum ersten Mal, hat Ban Ki-Moon einen Klimaskeptiker getroffen.

Er erwiderte warm meinen Händedruck, wie es jeder reife Diplomat tun muss (vor seinem Antritt bei den UN war er Außenminister in Korea). Er rang sich sogar ein ungewisses Lächeln ab. Aber er sah verwirrt aus und ein bisschen ängstlich.

Seine Furcht wurzelte in dem wachsenden Bewusstsein unter der Regierungselite der Welt, dass man das mit dem Klimawandel diametral falsch verstanden hatte und dass das Heartland Institute dabei ist, den Menschen die Wahrheit zu sagen.

Keinen geringen Anteil an seiner Verwirrtheit wurzelte in dem unglücklichsten Aspekt des gegenwärtigen vatikanischen Klimagipfels. Monsieur Marcelo Sánchez Sorondo, Kanzler der Pontifical Academy of Sciences, hatte über 100 bedeutende Wissenschaftler aus der ganzen Welt zur Teilnahme eingeladen – aber nicht ein einziger davon war ein Klimaskeptiker.

Der Weg war von Anfang an vorgezeichnet. Dies waren die Leute, die den Papst dahingehend beraten würden, was seine bevorstehende Enzyklika zum Klimawandel sagen sollte. Und Mgr. Sánchez Sorondo hat sichergestellt, dass Seine Heiligkeit nur einen Standpunkt zu hören bekommen würde – ein Standpunkt, dass die Ereignisse sich schon jetzt als wissenschaftlich falsch erwiesen haben.

Der Gegensatz zum Regiment des vorigen Papstes hätte größer nicht sein können. Papst Benedikt hat klargestellt, dass es nicht Sache der Kirche sei, sich auf die eine oder andere Seite der Klimadebatte zu stellen und dass man Skeptiker nicht von der Diskussion ausschließen sollte, wenngleich es auch die Pflicht der Gläubigen sei, Respekt vor der natürlichen Umwelt und den darin lebenden Geschöpfen zu haben.

Kardinal Renato Martino von der römischen Kurie hatte im Jahre 2007 im Vatikan eine Klimakonferenz abgehalten. Obwohl als Hauptredner der wahrhaft gläubige Alarmist David Miliband fungierte, der Bruder des britischen Möchtegern-Premierministers Ed Miliband, wurden auch Skeptiker dazu eingeladen.

Deren Leiter war Professor Antonio Zichichi, der bedeutendste Wissenschaftler Italiens, dem es gelungen war, eine Form von Antimaterie zu isolieren mittels eines Apparates, der aussah wie eine gigantische Blechbüchse, lange bevor der große Milliarden-Apparat des CERN in Genf dazu in der Lage war. Zichichi, Gründer und Präsident der World Federation of Scientists, ist ein Naturphilosoph und Teilchenphysiker in der klassischen Tradition, die auf Beweisen und Daten besteht anstatt auf Prophezeiungen und Politik.

Unter den Skeptikern der Klimakonferenz 2007 war Dr. Cal Beiser, ein führender protestantischer Theologe, der Vernünftigeres sagte als die katholischen Theologen heutzutage; Prof. Fred Singer, der Raketen-Spezialist und klimatologische Physiker, der den US-Wettersatelliten-Service gegründet hatte; Sonja Böhmer-Christensen, die Respekt einflößende Herausgeberin des Fachjournals Energy & Environment – und ich selbst.

Diesmal war keine dieser Personen eingeladen worden. Stattdessen war ein Who is Who der Klimaextremistenbewegung anwesend.

Martin Rees, der Britische Astronomer Royal, saß in der ersten Reihe. Während seiner Zeit als Präsident der Royal Society hat er ein törichtes Statement zum Klimawandel verfasst, das nicht nur den wissenschaftlichen Fakten ins Gesicht schlug, sondern auch die Regeln der Society verletzte, welche es verbieten, sich in einer wissenschaftlichen Kontroverse auf eine Seite zu schlagen.

Auf Betreiben vieler Mitglieder musste dieses Statement zurückgezogen und durch etwas weniger Absurdes ersetzt werden.

Jeffrey Sachs, der Ökonom, der gesagt hatte, dass Skeptiker Blut an ihren Händen hätten, weil immer mehr Menschen durch Extremwetterereignisse ums Leben kommen würden, gab eine Grundsatzerklärung ab, der zufolge der Untergang drohte, sollte es auch nur zu der geringsten Temperaturänderung kommen.

Als dann Redner für Redner den blank totalitären klimaextremistischen Plattitüden Ausdruck verlieh, die heute von allen erwartet werden, die der regierenden Klasse angehören wollen, war kein einziges abweichendes Murmeln zu hören.

Die Eröffnungssitzung wurde geleitet von Peter Raven, einem fanatischen Wahren Gläubigen und IPCC-Leitautor. Anstatt die Teilnehmer am Panel vorzustellen und diese sprechen zu lassen, verkündete er, dass die Eröffnungserklärung von ihm kommen würde.

Das Heartland Institute, sagte er, war in der Stadt, um gegen die Konferenz zu opponieren und sie davon abzuhalten, die Katholische Kirche zu beeinflussen.

Mr. Raven gab dann eine ziemlich verstümmelte Historie der Theorie vom Klimawandel, die bei Arrhenius begann, wobei er es aber sorgfältig vermied, seine Studie aus dem Jahr 1906 zu erwähnen, in der er seine Schätzung aus dem Jahr 1896 um zwei Drittel reduzierte, die eine Verdoppelung des atmosphärischen CO2-Gehaltes hervorrufen würde.

Er erwähnte Bert Bolin und die Gründung des IPCC, sagte aber nicht, dass dessen Gründungsdokument die Hypothese verlangt, dass der vom Menschen verursachte Klimawandel potentiell katastrophal sei.

Dann sagte er, dass keine Wissenschaft gründlicher oder sicherer sei als die des IPCC. Hunderte Autoren haben deren Berichte geschrieben, die dann sorgfältig von Experten begutachtet worden wären. Und doch vermied er es sorgfältigst zu erklären, dass die IPCC-Autoren die Macht haben, die Begutachtungen zu ignorieren und die Begutachter abzulehnen. Genauso akribisch ruhig war er hinsichtlich des Scheiterns aller prinzipiellen Prophezeiungen des IPCC, wieder und immer wieder.

Dann, sagte er, entscheidet jede Regierung individuell, ob der jeweilige IPCC-Bericht genehmigt werde. Irgendwie hat er vergessen zu erwähnen, dass die allermeisten Repräsentanten von Regierungen, die über die IPCC-Berichte abstimmen, keine wissenschaftlichen Qualifikationen oder Hintergrundwissen haben.

Er kam nicht einmal auch nur in die Nähe der zahlreichen Irrtümer und Unehrlichkeiten, bei denen das IPCC ertappt worden ist. Nichts lag seinen Lippen ferner als zu erwähnen, dass das IPCC mittlerweile seine Prophezeiungen bzgl. der globalen Erwärmung mittelfristig um fast die Hälfte reduziert hatte.

Er sagte, dass dem jüngsten IPCC-Bericht zufolge der Klimawandel im Gange sei. Er sagte nicht, dass dieser Klimawandel bereits seit 4,5 Milliarden Jahren im Gange ist. Er sagte, dass sich die Welt erwärmt und der Mensch die Ursache dafür sei. Er sagte nicht, dass sich die Welt seit über 18 Jahren nicht mehr erwärmt hat.

Auch sagte er nicht, dass nur 0,3% aller Abstracts der in den 21 Jahren von 1991 bis 2011 in der begutachteten Literatur veröffentlichten 11.944 Studien so weit gingen zu sagen, dass das meiste der Erwärmung um 0,7 K seit 1950 den Menschen geschuldet sei.

Er sagte: „Ich weiß nicht, wie es bei Ihnen ist, aber ich kann mir kein wissenschaftliches Ergebnis vorstellen, dass besser etabliert ist als jenes, dass die Erwärmung stattfindet und die Menschen diese Erwärmung zuwege bringen“. Kein einziges abweichendes Wort war von den sorgfältig verlesenen Delegierten zu hören.

Nachdem er seinen atemberaubenden, unvollständigen und beschämend parteiischen Sermon zum Zustand der Klimaforschung abgegeben hatte, lieferte Peter Raven sein Urteil zur Intervention von Heartland in Rom mit dem folgenden bemerkenswerten Passus:

„Es ist vielleicht eine Maßzahl der Käuflichkeit dieser Leute, dass sie die Wissenschaft anzugreifen wünschen … Es ist diesen Gruppen geschuldet, dass bisher keine grundlegenden Maßnahmen ergriffen worden sind… Um diese Leute dazu zu bringen, ihre Meinung zu ändern, reicht es nicht aus, Papierfetzen hochzuhalten: Es ist notwendig, Moral, Liebe, Kümmern um die Menschen, Führung von Religionen, von jeder Kirche, von Papst Franziskus ins Spiel zu bringen. Niemand ändert die Ansichten von Leuten, die glauben, dass es für sie ökonomisch kostspielig sein würde. Wir müssen ihnen die Konsequenzen aufzeigen“.

Dieser wenig durchdachte Ausbruch war ein sichtbares Zeichen der Panik, die sich immer mehr den Gläubigen der Neuen Religion bemächtigt, ausgelöst durch die immer größer werdende Lücke zwischen ihren schreienden Prophezeiungen und der unspektakulären Wirklichkeit.

Als Mr. Raven endlich zum Ende gekommen war, döste das Panel weiter mit einer Abfolge von heißen Luftblasen, geäußert in jenem ernsten Ton synthetischer Bedenken, das einem auf der internationalen Bühne eine Rolle spielend vorgaukelte.

Ein Dr. Dasgupta, der sich selbst als ein „Ökonom“ beschrieb, sagte, dass „Umweltressourcen unterbewertet“ seien und dass „eines der Dinge, die wir tun wollen, die Änderung des moralischen Klimas ist“, indem wir die Umwelt als eine Kapitalanlage betrachten und deren Herabsetzung wir durch das Festsetzen eines „Kohlenstoff-Preises“ Rechnung tragen sollten. Er sagte, dass 100 Dollar pro Tonne eine Unterschätzung seien. Er sagte nicht, dass selbst in einem Markt wie dem der EU der mittlere Preis für das Recht zur Emission einer Tonne Kohlenstoff nur ein Zehntel seiner „Unterschätzung“ beträgt.

Der Präsident der Pontifical Academy of Social Sciences sagte, dass selbst die geringste Zunahme der globalen Temperatur unsägliche Schäden verursachen würde…

An dieser Stelle wurde meine Mitschrift rüde unterbrochen. Mgr. Sánchez Sorondo, mit dem ich vor einigen Jahren zusammen in der Pontifical Academy gespeist hatte, erkannte mich im Hauptraum der Kirche und sandte einen Lakaien zu mir, der herausfinden sollte, was ich hier tue.

Dann schickte er einen anderen Lakaien, um meine Beglaubigungen des Vatikanischen Pressebüros zu sehen, und schickte nach deren Lektüre einen dritten Lakaien, der mich aufforderte, den Konferenzraum zu verlassen und wie die anderen Journalisten der Konferenz auf Video-Bildschirmen draußen zu folgen. Journalisten wie ich, sagte Lakai Nr. 3, sind im Auditorium nicht vorgesehen.

Der Kohlenstoff-Fußabdruck all jener Lakaien muss schon ein Ding sein.

Als ich ging, wurde ich von einem der prominentesten katholischen Journalisten in Rom angesprochen. Was, fragte er, habe ich aus der Konferenz gemacht?

Ich gab meiner Enttäuschung darüber Ausdruck, dass nur jene einer engen Seite der wissenschaftlichen Debatte eingeladen worden waren. Ich erwähnte Kardinal Martinos faires Vorgehen im Jahre 2007, während der nahebei stehende Repräsentant des Kardinals sich selbst vorstellte.

Später an diesem Tag traf ich den Journalisten erneut. Beim Lunch hatte er Mgr. Sánchez Sorondo gefragt, wie er die Teilnehmer an der Konferenz ausgewählt habe, und erwähnte, dass sie allesamt nur eine Seite der Debatte repräsentieren. Er erwähnte, dass Kardinal Martino auf der Konferenz 2007 beide Seiten gehört hatte.

Mgr. Sánchez Sorondo sah ihn durchdringend an und sagte: „Ich sehe, Sie haben eine versteckte Agenda“.

Der Journalist erwiderte: „Sie kennen mich besser als das. Aber es ist mein Prinzip, beide Seiten zu hören und darüber zu berichten – was auch für Sie kein schlechtes Prinzip wäre, Monsignore“.

Mgr. Sánchez Sorondo, inzwischen wütend, säuselte etwas, dass die Pontifical Academy of Sciences die Dinge anders als die Kurie behandelt, deren Mitglied Kardinal Martino ist.

Nun, die Academy sollte die Dinge nicht anders behandeln. Sie sollte beide Seiten hören. Das Prinzip audiatur et altera pars ist eines der beiden Prinzipien natürlicher Gerechtigkeit, die die Kirche, ebenso wie das Gesetz, hochzuhalten verpflichtet ist. Die Academy würde dem Papst schlecht dienen, falls sie ihn zum bloßen Ja-Sager degradiert. Sie sollte zumindest in der Lage sein, den Mut zu finden, falls nötig dem Pontifex zu sagen „Up to a point, Lord Copper“*.

Die Kirche hat sich niemals wirklich von der Rufschädigung erholt, die sie sich selbst zugefügt hatte mit der törichten Entscheidung, Galileo zu verbieten zu sagen, dass sich die Erde um die Sonne dreht. Wird sie sich durch die Zurückweisung der wissenschaftlichen Methode seitens der Pontifical Academy und ihres unsachgemäßen Vorgehens in der Klimafrage erholen? On verra.

Eine halbe Meile von der Konferenz entfernt startete die Cornwall Alliance for the Stewardship of Creation von Cal Beisner ihre eigene Initiative, um die katholische Kirche zurück in den Bereich der Wissenschaft zu holen. Cal schrieb dem Papst einen Brief mit ungefähr 200 Unterschriften (Tendenz steigend), in dem er den Papst aufforderte zu erkennen, dass der schnellste Weg, Menschen aus der Armut zu holen und damit die Weltbevölkerung zu stabilisieren, darin besteht, diesen Menschen Zugang zu billigen und reichlich vorhandenen fossilen Treibstoffen zur Stromerzeugung zu ermöglichen.

Am Ende dieses Tages wurde offensichtlich, dass die Mission von Heartland nach Rom eine Auswirkung auf das zunehmend angstvoller werdende politisch-wissenschaftliche Establishment hatte. Peter Ravens Ausbruch enthüllte, unter welch starkem Druck sie stehen angesichts der immer größer werdenden Lücke zwischen den Prophezeiungen, die diese profitable Angst ausgelöst hatten, und der Weigerung der Temperatur, so zu reagieren, wie sie es tun sollte.

Als wir die Via della Conciliazione verließen, waren die Regenwolken abgezogen, und voller Sonnenschein fiel auf den honigsüßen Marmor des Petersdomes. Die Mächte der Dunkelheit waren weg. Hoffnung war zurückgekehrt.

Übersetzt von Chris Frey EIKE

*Anmerkung des Übersetzers: Autor Monckton ist ein absoluter Meister von Wortspielen, geschliffenen Formulierungen und treffendem Stil. Allgemein gehen häufig beim Übersetzen von texten Esprit und Atmosphäre verloren. Dies gilt insbesondere für Beiträge von Monckton. Da es sich hier um einen Brief an das EIKE handelt und kein Link zum Original angegeben werden kann, ist der Text im Original hier angefügt. Ich empfehle dringend jedem, der des Englischen halbwegs mächtig ist, denselben zu lesen.

C. F.

Related Files




Umweltpolitik: nicht so sehr Umwelt, sondern viel mehr übergeschnappt

[*Mit „Children’s Coalition“ meint Monckton immer die gegenwärtige Regierungskoalition in UK. Natürlich will er damit zum Ausdruck bringen, was er von ihr hält. Er verwendet noch zahlreiche weitere Male ähnliche Bezeichnung für seine Regierenden, die alle mit einem * gekennzeichnet werden ohne nochmalige Erklärung. Anm. d. Übers.]

Während jener Zeit des vermeintlichen „Sparkurses“ haben sich die nationalen Schulden verdoppelt.

Ein nicht geringer Teil des rapiden Schuldenwachstums ist den gewaltigen Summen geschuldet, die die Kinder* für grandiose Dummheiten zum Fenster hinaus geworfen haben wie die Konversion von Drax, dem größten, saubersten und thermisch effizientesten Kohlekraftwerk der Welt von der Verbrennung von Kohle hin zu kleinen, aus Amerika importierten Holzchips.

Die kleinen Knirpse* hatten nicht verstanden, dass die Energiedichte von Kohle viele Male größer ist als die von Brennholz. Selbst wenn Birnam Wood nach Dunsinane kommen würde, gibt es in ganz Europa nicht genug Bäume, um Drax am Laufen zu halten.

Dann gab es da das Londoner „Rent-A-Bike-Schema“, das mit läppischen 26.000 Dollar pro Bike daherkam – und niemand nahm Anstoß daran, weil dies der Rettung des Planeten diente.

Dann gab es die jüngsten Entscheidungen seitens sowohl der schottischen Exekutive als auch der UK-Regierung, dass Fracking nicht erlaubt werden sollte. Seit über einem Jahrzehnt haben Russland und andere entsprechende Interessengruppen Geld in „grüne“ Gruppen gepumpt, die gegen Fracking mit den fadenscheinigen Begründungen protestiert haben, dass es Erdbeben auslöst, das Trinkwasser vergiftet und die Zehn Biblischen Plagen heraufbeschwört, die jeden betreffen werden, der es befürwortet.

Und genau zur gleichen Zeit – man glaubt es kaum – haben schottische und britische Minister Programme subventioniert, um CO2 aus Kraftwerken durch Rohre mit sehr hohem Druck tief in den Untergrund zu pressen. Hallo, hallo – ist da jemand zu Hause?

Dann gibt es da die nutzlosen Windmühlen. Diese Fledermäuse und Vögel schreddernden Schandflecken überschatten jetzt grimmig fast zwei Drittel der einst wunderschönen Landschaft in Schottland. Die Touristenzahlen in den einst schönen Landschaften, die jetzt durch diese sinnlose Industrialisierung dieser Landschaft zernarbt sind, sind regelrecht eingebrochen.

Die riesigen Summen, die von verschiedenen, vom Steuerzahler finanzierten und sich überall einmischenden Agenturen ausgegeben worden sind, um die seltenen Greif- und andere Vögel zu schützen – die Kornweihe, den Weißkopfadler, den Fischadler, den Auerhahn, das Birkhuhn, um nur einige zu nennen – sind allesamt verschwendet worden. Die Subventionsfarmen machen täglich Hackfleisch aus den Vögeln. Schon bald werden viele dieser edlen, aber fragilen Spezies in Schottlands Umwelt ausgestorben sein. Und warum? Um – nun – die Umwelt in Schottland zu retten.

Nicht mehr lange, und während die letzten Adler in ihren blutigen Tod fliegen am Fuße dieser grausamen Türme aus Stahl, wird über 100% von Schottlands Strom aus Wind erzeugt werden – bei jenen seltenen Gelegenheiten, wenn der Wind weder zu stark noch zu schwach weht.

Aus geographischen Gründen ist die einzige Anbindung an ein Netz in einem anderen Land nur mit England möglich. England wird also zum Nachfrage-Monopolisten für Schottlands flatterhaften Stromüberschuss – und darf dafür so wenig bezahlen wie es mag.

Die meiste Zeit jedoch drehen sich die Turbinen nicht – oder falls doch, werden sie vom Netz mit Strom versorgt, um sich bei zu viel Wind abzuregeln. Dann wird Schottland den größten Teil des Stromes – und eventuell den gesamten Strom – aus England importieren müssen. England wird dann zum Monopol-Versorger an Energie für Schottland – und kann dafür einen so hohen Preis fordern wie es mag.

Niemals zuvor in der Wirtschaftsgeschichte hat sich eine Nation so krass daneben verhalten und sich selbst an das falsche Ende eines Monopol-Versorgers und eines Monopol-Abnehmers gesetzt – gleichzeitig! Das ist ökonomische Idiotie an erster Stelle in der ganzen Welt.

Idiotien wie diese sind der politische Kontext, in dem das Umweltkomitee des Unterhauses agiert. Beispiel: Der Climate Change Act 2008, kürzlich beschrieben als das teuerste und nutzloseste Gesetz, das jemals von der Mutter aller Parlamente durchgewinkt worden ist. Zum Zeitpunkt der Absegnung durch das Parlament fielen im Parlamentsviertel mehrere Inches [4 Inches = 10 cm] der globalen Erwärmung – also der erste Schnee, der dort seit 74 Jahren liegen geblieben ist.

„Tim“, der ignorant und höhnisch lächelnd den sehr wenigen Skeptikern gegenüber tritt, denen man erlaubt hatte, vor ihn zu treten, und der vor den wirklich Gläubigen katzbuckelt, die ihn so reich gemacht haben, fragte King, wie viele Länder hinter dem bedrückenden Weltregierungs-Vertrag von Paris stehen würden, der im kommenden Dezember unterzeichnet werden soll. Kings Antwort war ebenso alarmierend wie entlarvend. Alle außer zwei Nationen würden ohne zu zögern unterschreiben, sagte er.

Eine dieser beiden Nationen ist Kanada, dessen Premierminister Stephen Harper die meisten halbamtlichen Pseudoumweltgruppen abgewickelt hat, die einst sein Land heimgesucht hatten. Allerdings, sagte King mit einem einfältigen Lächeln, wird in Kanada in diesem Frühjahr gewählt. Man hat den Eindruck, dass die UN alles tun würde – egal mit welchen Kosten – um Harper unter keinen Umständen zu erlauben, diese Wahl zu gewinnen.

Die zweite Nation ist Australien, dessen gerade gewählte Nicht-Links-Regierung ebenfalls sofort viele der von seiner sozialistischen Vorgänger-Regierung eingeführten kostspieligen Absurditäten der Umweltpolitik abgeschafft hat (im Folgenden einfach „übergeschnappte Politik“ genannt).

Allerdings wird der Wähler dort erst lange nach der Klimakonferenz in Paris im Dezember in der Lage sein, den gegenwärtigen Premierminister Tony Abbott aus seinem Amt zu entfernen. Und aus Sicht der UN ist es besonders wichtig und notwendig sicherzustellen, dass auch nicht eine einzige Nation dem Weltregierungs-Vertrag fernbleibt.

Der Grund hierfür ist, dass – was auch immer die Bürokraten und „Wissenschaftler“ öffentlich verlauten lassen – sie privat in Panik sind*, weil sie die Wissenschaft so dramatisch in den Dreck gefahren haben, dass sie öffentlich geächtet werden würden, wenn dies allgemein bekannt wird – wie es offensichtlich schon jetzt allen bekannt ist, die regelmäßig die WUWT-Temperatur-Aktualisierungen anschauen. Daraus geht nämlich hervor, dass die Rate der globalen Erwärmung ein geringer und immer weiter schwindender Bruchteil der alarmierenden Raten ist, die einst mit „substantiellem Vertrauen“ vorhergesagt worden sind.

[*Ob das auch für die EIKE-Forentrolle gilt? Ich frage mich schon länger, ob sie wirklich glauben, was sie da von sich geben. Anm. d. Übers.]

Die selbsternannten „Weltführer“, die uns einst weismachten wie sicher Sie sich waren, dass Sie recht hatten, können jetzt einfach nicht zugeben, dass Sie unrecht hatten. Das wäre eine Erniedrigung, von der die regierende Klasse kollektiv beschlossen hat, sie nicht durchzumachen. Daher ist für diese Kreaturen die einstimmige Zustimmung zu dem Weltregierungs-Vertrag unabdingbar wichtig.

Der Grund: Nur falls die CO2-Emissionen auf nahezu nichts zurückgefahren werden können, werden Sie in der Lage sein vorzugeben, dass der wirkliche Grund für das empörende und fortgesetzte Verhalten der globalen Temperaturen, nicht einmal annähernd mit den vorhergesagten Raten zu steigen, die harten Maßnahmen sind, die Sie eingeführt haben und die zu der fast totalen Eliminierung von CO2-Emissionen geführt haben.

Es folgt jetzt noch eine längere E-Mail an Monckton von einer mutigen australischen Politikerin an Monckton, die dieser hier zitiert. Darin kommt der ganze hasserfüllte Trieb der Linken gegen Tony Abbott zum Ausdruck. Monckton will damit seinen Punkt unterlegen, was ihm auch gelingt. Ich habe hier aber darauf verzichtet, diese E-Mail auch noch zu übersetzen. Anm. d. Übers.

Link: http://wattsupwiththat.com/2015/02/10/environmental-policy-not-so-much-enviro-as-mental/

Übersetzt von Chris Frey EIKE




Der Große Stillstand verlängert sich erneut

Abbildung 1 (rechts): Der lineare Regressionstrend kleinster Quadrate im Datensatz der mittleren globalen Temperaturanomalie des RSS zeigt keine globale Erwärmung seit Oktober 1996, also seit 18 Jahren und drei Monaten.

Angesichts dessen, dass sich der Papst unklugerweise darauf vorbereitet, für immer die politische Neutralität aufzugeben, die ihm seine Stellung auferlegt und seine Unterschrift unter eine klima-kommunistische Enzyklika zu setzen, entworfen vom radikalen Präfekten der Academy of Sciences im Vatikan, Monsignore Marcelo Sanchez Sorondo, zeigt der Allmächtige weiterhin einen Sinn für Humor.

Die Welt-Konferenz in Paris ist zeitlich nicht einmal mehr ein Jahr entfernt. Und dennoch hat die globale Erwärmung, die das IPCC so vertrauensvoll aber irreführend vor 25 Jahren vorhergesagt hatte, vollständig aufgehört.

Abbildung 2: Kurzzeit-Projektionen von Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, ausgegeben mit „substantiellem Vertrauen“ vom IPCC (1990) von Januar 1990 bis November 2014 (orangefarbene Region und rote Trendlinie) im Vergleich zu den beobachteten Anomalien (dunkelblau) und Trend (hellblau) mit einem Äquivalent von weniger als 1,4 K pro Jahrhundert als Mittelwert der monatlichen mittleren Temperaturanomalien der unteren Troposphäre von RSS- und UAH-Satellitenmessungen.

Ein Vierteljahrhundert nach 1990 ist das Ergebnis der globalen Erwärmung bis heute – ausgedrückt als der lineare Regressionstrend kleinster Quadrate im Mittel der RSS- (1) und UAH (2)-Daten – 0,34°C, äquivalent zu lediglich 1,4°C pro Jahrhundert oder mehr als halb so gering wie die zentrale Schätzung des IPCC (1990) und noch deutlich unter der geringsten Schätzung (Abbildung 2).

Der Große Stillstand ist ein wachsendes Ärgernis für all jene, die uns mit „substantiellem Vertrauen“ weisgemacht haben, dass die Wissenschaft ,settled‘ und die Debatte vorüber sei. Die Natur hatte Anderes im Sinn. Trotz inzwischen fast 70 Entschuldigungs-Gründen, die untereinander nicht kompatibel und mehr oder weniger implausibel sind und die in nervös gewordenen begutachteten Journalen und unter missionierenden Wissenschaftlern erscheinen, kann die Möglichkeit nicht länger ausgeschlossen werden, dass der Stillstand stattfindet, weil die Computermodelle schlicht und ergreifend falsch sind hinsichtlich der Sensitivität der Temperatur in Bezug auf menschliche Treibhausgase. Dies wird in einer großen begutachteten Studie deutlich, die im Dezember 2014 im führenden Wissenschaftsjournal des Orients veröffentlicht worden ist.

Bemerkenswerterweise liegen sogar noch die jüngsten und deutlich reduzierten Projektionen des IPCC bzgl. der globalen Erwärmung ebenfalls viel zu hoch (Abbildung 3):

Abbildung 3: Vorhergesagte Temperaturänderung von Januar 2005 bis November 2014 mit einer Rate von 1,7 (1,0; 2,3)°C pro Jahrhundert (orangefarbene Region mit dicker roter Best-Estimate-Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und Nulltrend in der realen Welt (hellblau) als Mittelwert der monatlichen mittleren Temperaturanomalien der unteren Troposphäre von RSS- und UAH-Satellitenmessungen.

Im Jahre 1990 lag die zentrale Schätzung des IPCC der Erwärmung im Kurzfristzeitraum um zwei Drittel über der heutigen Schätzung. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert. Jetzt ist es ein Äquivalent von 1,7°C – und wie Abbildung 3 zeigt, erweist sich selbst das noch als substantielle Übertreibung.

In den RSS-Satellitendaten gab es seit über 26 Jahren keine statistisch von Null unterscheidbare globale Erwärmung. Keines der Modelle hat vorhergesagt, dass im Endeffekt ein Vierteljahrhundert lang keine globale Erwärmung auftreten würde.

Schlüsselfakten zur globalen Temperatur:

● Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung seit 219 Monaten von Oktober 1996 bis Dezember 2014 – ein Zeitraum, der mehr als die Hälfte der 432-monatigen Satellitenaufzeichnung umfasst.

● Der Trend der globalen Erwärmung seit 1990 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und hat vermutlich nicht viel mit uns zu tun.

● Seit 1950, als ein menschlicher Einfluss auf die globale Temperatur erstmals theoretisch möglich war, lag der Trend der globalen Erwärmung unter einem Äquivalent zu 1,2°C pro Jahrhundert.

● Die größte Erwärmungsrate über 10 Jahre oder mehr seit 1950 war in den 33 Jahren von 1974 bis 2006 aufgetreten. Der Wert war äquivalent zu 2,0°C pro Jahrhundert.

● Im Jahre 1990 lag die mittlere Vorhersage des IPCC im Kurzfristzeitraum bei einem Äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel höher als dessen gegenwärtige Vorhersage von 1,7°C pro Jahrhundert.

●Der Trend der globalen Erwärmung seit 1990, als das IPCC seinen ersten Bericht geschrieben hat, ist äquivalent zu weniger als 1,4°C pro Jahrhundert – also die Hälfte dessen, was das IPCC damals vorhergesagt hatte.

● Obwohl das IPCC seine Erwärmungsvorhersage im Kurzfristzeitraum reduziert hat, hat es seine Erwärmungsvorhersage für dieses Jahrhundert bei ,Business as Usual‘ um 4,8°C bis zum Jahre 2100 nicht reduziert.

● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 ist deutlich mehr als doppelt so hoch wie die höchste Erwärmungsrate über mehr als zehn Jahre, die seit 1950 gemessen worden ist.

● Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 ist fast vier mal so hoch wie der in der realen Welt gemessene Erwärmungstrend, seit wir theoretisch in der Lage waren, das Klima zu beeinflussen (1950).

● Von September 2001 bis November 2014 ist der Erwärmungstrend im Mittel der 5 globalen Temperaturdatensätze Null. Keine Erwärmung seit 13 Jahren und drei Monaten.

● Jüngste Extremwetterereignisse können nicht der globalen Erwärmung geschuldet sein, weil es keinerlei globale Erwärmung gegeben hat. So einfach ist das.

Technische Anmerkung

Unsere letzte thematische Graphik zeigt den linearen Regressionstrend kleinster Quadrate im Datensatz der monatlichen globalen mittleren Verhältnisse in der unteren Troposphäre, indem man so weit wie möglich zurückgehen kann und immer noch einen Null-Trend findet. Der Startzeitpunkt ist keine „Rosinenpickerei“ dergestalt, dass der Beginn mit der Temperaturspitze des Super-El Nino 1998 zusammenfällt. Stattdessen ist der so berechnet, dass man den längsten Zeitraum mit einem Null-Trend findet.

Aber ist der RSS-Satelliten-Datensatz „Rosinenpickerei“? Nein. Es gibt gute Gründe, diesen als den besten der fünf primären globalen Temperatur-Datensätze anzusehen. Der unermüdliche „Steven Goddard“ zeigte im Herbst 2014, dass der RSS-Datensatz – zumindest soweit er das Historical Climate Network HCN betrifft – eine geringere Warmverzerrung zeigt als die Aufzeichnungen von GISS (3) oder UAH (2). Der UAH-Datensatz soll demnächst überarbeitet werden, um dessen Warmverzerrung zu reduzieren und ihn konformer mit dem RSS-Datensatz zu machen.

Abbildung 4: Warmverzerrungen der Temperatur. RSS zeigt einen geringeren Bias als die UAH- und GISS-Aufzeichnungen. UAH wird in seiner demnächst erscheinenden Version 6.0 Schritte unternehmen, um den Warm-Bias in seiner Erfassung der globalen Temperatur zu reduzieren.

Steven Goddard schreibt:

„Die Graphik vergleicht die US-Temperaturen nach UAH, RSS und GISS mit den tatsächlichen Messungen der HCN-Stationen in den USA. UAH und GISS zeigen beide eine große Warmverzerrung, während RSS nahe bei den gemessenen täglichen Temperaturdaten liegt. Der geringe Unterschied zwischen RSS und HCN ist möglicherweise dem Umstand geschuldet, dass meine HCN-Berechnungen nicht flächengemittelt [gridded] sind. Meine Schlussfolgerung lautet, dass RSS der einzige glaubwürdige Datensatz ist und alle anderen einen falschen Warm-Bias aufweisen“.

Auch zeigt sich in den RSS-Daten der Große El Nino von 1998 deutlicher als in allen anderen Datensätzen. Der Große El Nino verursachte wie seine beiden Vorgänger während der letzten 300 Jahre eine verbreitete Korallenbleiche. Dies ist eine unabhängige Verifikation, dass RSS viel besser in der Lage ist, derartige Fluktuationen abzudecken ohne künstliches Herausfiltern derselben wie in anderen Datensätzen.

Terrestrische Temperaturen werden mit Thermometern gemessen. Korrekt in ländlichen Gebieten aufgestellte Thermometer, ausreichend weit entfernt von menschlichen Wärmequellen zeigen Erwärmungsraten, die merklich unter denen liegen, die veröffentlicht werden. Die Satelliten-Datensätze basieren auf Messungen der genauesten derzeit verfügbaren Thermometer – Platin-Widerstandsthermometer, die eine unabhängige Verifikation der Temperaturmessungen erlauben, indem man mittels Richtung Weltraum ausgerichteter Spiegel die bekannte Temperatur der kosmischen Hintergrundstrahlung misst, welche 1% des Gefrierpunktes von Wasser ausmacht bzw. um 2,73 Grad über dem Absoluten Nullpunkt liegt. Es war die Messung infinitesimaler Variationen der kosmischen Hintergrundstrahlung, die es der NASA erlaubte, das Alter des Universums zu berechnen: 13,82 Milliarden Jahre.

Die RSS-Graphik ist genau (Abbildung 1 oben rechts). Die monatlichen Daten stammen direkt von der RSS-Website. Ein Computer-Algorithmus liest sie aus dem Textfile heraus, mittelt sie und plottet sie automatisch mittels einer fortschrittlichen Routine, die automatisch das richtige Format des Datenfensters auf beiden Achsen adjustiert, um die Daten der Klarheit halber im maximalen Maßstab zu zeigen.

Der letzte monatliche Datenpunkt wird visuell untersucht um sicherzustellen, dass er korrekt positioniert worden ist. Die hellblaue, über die die tatsächlichen Daten zeigende dunkelblaue Profilkurve gelegte Trendlinie wird errechnet durch die Methode der linearen Regression kleinster Quadrate, welche den Schnittpunkt mit der y-Achse berechnet sowie die Neigung der Linie mittels zweier etablierter und funktional identischer Gleichungen, die miteinander verglichen werden, um sicherzustellen, dass es zwischen ihnen keine Diskrepanzen gibt. Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia verlangt dies in einer der Klimagate-E-Mails. Die Methode ist geeignet, weil globale Temperaturaufzeichnungen nur wenig Autoregression zeigen.

Dr. Stephen Farish, Professor für epidemiologische Statistik an der University of Melbourne hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend in der Graphik und der Korrelations-Koeffizient berechnet werden, der sehr niedrig ist, weil der Trend trotz der hoch variablen Daten flach verläuft.

RSS selbst ist inzwischen ernsthaft an der Länge des Großen Stillstands interessiert. Dr. Carl Mears, der leitende Forschungswissenschaftler beim RSS, diskutiert dies hier.

Seine Ergebnisse werden in Abbildung 5 zusammengefasst:

Abbildung 5: Output der 33 IPCC-Modelle (türkis) verglichen mit der gemessenen globalen Temperaturänderung nach RSS (schwarz), 1979 bis 2014. Die vorübergehenden Abkühlungsphasen durch die Ausbrüche des Chichon (1983) und des Pinatubo (1991) werden gezeigt, ebenso wie die Wärmespitze durch den Großen El Nino von 1998.

Dr. Mears schreibt:

„Die Leugner mögen die Hypothese, dass die Ursache für die Diskrepanz zwischen Modellen und Beobachtungen irgendeinem Problem mit der fundamentalen Modellphysik geschuldet ist, und sie gehen mit Geringschätzung über jede andere Art der Erklärung hinweg. Dies führt sie zu der sehr wahrscheinlich irrigen Schlussfolgerung, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die zunehmende Diskrepanz zwischen den RSS-Daten und den Modellen ein, aber er vermutet „Rosinenpickerei“ hinsichtlich des Startdatums des Graphen der globalen Temperatur:

„Vor Kurzem hat eine Anzahl von Artikeln in den Main-Stream-Medien darauf hingewiesen, dass es so aussieht, als ob es während der letzten zwei Dekaden kaum oder gar keine Änderungen der Temperatur gegeben habe. Deswegen stellt man uns eine Menge Fragen nach dem Motto ,ich habe diesen Plot auf einer Leugner-Website gesehen. Sind das wirklich Ihre Daten?‘ Während in einigen dieser Berichte die Endpunkte tatsächlich ,cherry-picked‘ sind, um deren Beweise stärker erscheinen zu lassen, gibt es kaum Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als vom IPCC im AR 5 vorhergesagt. Die Leugner mögen es wirklich, Trends im Jahre 1997 beginnen zu lassen, so dass das gewaltige El Nino-Ereignis von 1997/1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der kleinstmöglichen Neigung führt“.

In Wirklichkeit wird die Temperaturspitze des Großen El Nino von 1998 großenteils durch zwei Faktoren in der linearen Trendberechnung kompensiert: die nicht unähnliche Spitze des El Nino 2010 und die schiere Länge des Großen Stillstands selbst.

Ersetzt man alle monatlichen RSS-Anomalien für das Jahr 1998 mit dem mittleren Anomaliewert von 0,55 K, erhalten während des El Nino 2010 und berechnet dann erneut den Trend seit September 1996 (nicht Dr. Mears‘ „1997“) bis September 2014 zeigt sich, dass die Trendwerte „-0,00°C (-0,00°C pro Jahrhundert)“ in den unveränderten Daten (Abbildung 1) zu „+0,00°C (+0,00°C pro Jahrhundert)“ geworden sind. Fazit:

keine Rosinenpickerei.

Die Länge des Großen Stillstands bzgl. der globalen Erwärmung, so signifikant sie auch ist, ist indessen von geringerer Bedeutung als die immer größer werdende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und den weit weniger aufregenden Temperaturänderungen in der realen Welt, die gemessen worden sind.

Im Ersten Zustandsbericht hat das IPCC vorhergesagt, dass die globale Temperatur um 1,0°C (0,7; 1,5) bis zum Jahre 2025 steigen würde, äquivalent zu 2,8 (1,9; 4,2)°C pro Jahrhundert. In der ,executive Summary‘ wird gefragt: „wie viel Vertrauen haben wir in unsere Vorhersagen?“ Das IPCC verwies zwar auf einige Unsicherheiten (Wolken, Ozeane usw.), kam aber zu der Schlussfolgerung:

„Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle zumindest die groben Umrisse des Klimawandels vorhersagen können … Es gibt Ähnlichkeiten zwischen den Ergebnissen der gekoppelten Modelle unter Verwendung simpler Repräsentationen der Ozeane und jenen, die kompliziertere Verfahren verwenden, und unser Verständnis solcher Unterschiede, wie sie auftreten, verleiht uns einiges Vertrauen in unsere Ergebnisse“.

Jenes „substantielle Vertrauen“ war substantielles Über-Vertrauen. Weil die Rate der globalen Erwärmung seit 1990 nur etwa halb so groß ist wie vom IPCC damals vorhergesagt.

Erwärmt sich der Ozean?

Eine oft diskutierte Erklärung für den Großen Stillstand lautet, dass das gekoppelte Ozean-Atmosphäre-System weiterhin Wärme akkumuliert hat mit etwa der von den Modellen vorhergesagten Rate, dass aber während der letzten Jahrzehnte die Wärme aus der Atmosphäre durch die Ozeane entfernt worden ist, und – da global die oberflächennahen Schichten weit weniger Erwärmung zeigen als von den Modellen vorhergesagt – es wird hypothetisch angenommen, dass das, was man die „fehlende Wärme“ nennt, in die Tiefsee unter 2000 m abgesunken ist, wo man praktisch nichts messen kann. Von dort wird die Wärme irgendwann in der Zukunft wieder auftauchen.

Die „Fehlende-Wärme-Theorie bzgl. der Ozeane“ wird federführend von einer einzigen Gruppe in den USA befürwortet. Meehl, Arblaster, Fasullo, Hu und Trenberth (7) sagen:

„Acht Jahrzehnte mit einem leicht negativen globalen Oberflächen-Temperaturtrend zeigen, dass die Ozeane oberhalb 300 m signifikant weniger Wärme aufnehmen, während die Ozeane tiefer als 300 m signifikant mehr Wärme aufnehmen, verglichen mit den Dekaden ohne Stillstand. Das Modell bietet eine plausible Beschreibung der Prozesse im Klimasystem, die die Stillstands-Perioden verursachen, und sie zeigen, dass eine Stillstands-Periode ein relativ normales Klimaphänomen ist und mit La Nina-Bedingungen zusammenhängen kann“. Balmaseda, Trenberth und Källen (8) sagen dagegen: „Im vergangenen Jahrzehnt ereignete sich etwa 30% der Erwärmung unter 700 m, was signifikant zu einer Beschleunigung des Erwärmungstrends beitrug. Die Erwärmung unterhalb 700 m bleibt bestehen, selbst wenn das ARGO-Beobachtungssystem zurückgezogen wird, obwohl die Trends reduziert sind“. Und Trenberth & Fasullo (2013), wiederholt in Trenberth, Fasullo & Balmaseda (9) sagen: „Eine Inventur der Änderungen der Energiespeicherung zeigt, dass sich über 90% des Ungleichgewichtes als ein Anstieg des ozeanischen Wärmegehaltes OHC manifestieren. … Die globale Erwärmung ist nicht zum Stillstand gekommen: sie hat sich lediglich auf unterschiedliche Weise manifestiert“.

Diese US-Gruppe wird unterstützt durch eine Gruppe an der Chinese Academy of Sciences (10):

„eine schwankende globale Wärmesenke in mittleren Ozeantiefen geht einher mit unterschiedlichen Klimaregimes der Erwärmung an der Oberfläche infolge anthropogenen Antriebs. Während der zweiten Hälfte des 20. Jahrhunderts zeigte sich eine rapide globale Erwärmung, da mehr Wärme an der Oberfläche verblieben war. Im 21. Jahrhundert hat sich die Erwärmung verlangsamt, da mehr Wärme in tiefere Ozeanschichten abgesunken ist … Abkühlungsperioden im Zusammenhang mit der späteren Wärmeabscheidung in größeren Tiefen dauerten historisch gesehen 20 bis 35 Jahre“.

In (11) spekulieren die Akademiker, dass zu irgendeinem Zeitpunkt in der Zukunft der Stillstand sein Vorzeichen ändern könnte, was zu einer weiteren Episode einer möglicherweise beschleunigten globalen Erwärmung führt.

Und doch gibt es bis auf den heutigen Tag kein empirisches, theoretisches oder numerisches Verfahren, das erfolgreich mechanistisch spezifiziert hat, wie einmal die durch anthropogene Treibhausgase erzeugte Wärme aus der Atmosphäre kommend die tiefen Ozeanschichten erreicht haben könnte ohne den Wärmegehalt der durchlaufenen oberflächennahen Schichten wesentlich zu verändern, oder wie zum Anderen die Wärme vom Grund der Ozeane eventuell zurück an die Oberfläche kommen kann, um die oberflächennahen Klimabedingungen zu verändern, die für das landbasierte Leben auf der Erde relevant sind.

Die meisten Ozeanmodelle, die für Sensitivitäts-Läufe gekoppelter allgemeiner Zirkulationsmodelle verwendet werden, können einfach nicht den größten Teil der physikalischen Prozesse auflösen, die für das Einfangen der Wärme durch die Tiefsee relevant sind. Ultimativ verlangt der Zweite Hauptsatz der Thermodynamik, dass jedwede Wärme, die sich in der Tiefsee akkumuliert haben könnte, mittels verschiedener Diffusionsprozesse aufgelöst wird. Es ist nicht plausibel, dass irgendwelche von der Tiefsee aufgenommene Wärme plötzlich die oberen Ozeanschichten erwärmen wird und über diesen Zwischenschritt die Atmosphäre.

Selbst falls Wärme die benthischen Schichten erreicht, ohne die oberflächennahen Schichten auf ihrem Weg zu erwärmen, ist die kurzfristige oberflächennahe Reaktion ziemlich unempfindlich gegenüber einem steigenden atmosphärischen CO2-Gehalt. Aus diesem Grunde ist die Lösung der ozeanischen Thermodynamik keine Vorbedingung für das empirische Studium der Klimasensitivität mittels unseres einfachen Modells. Falls die „Tiefsee“-Erklärung für den Stillstand der globalen Erwärmung korrekt ist (und das ist lediglich eine unter Dutzenden anderen), dann sind die komplexen Modelle daran gescheitert, dies korrekt in Betracht zu ziehen: anderenfalls wäre die wachsende Diskrepanz zwischen den vorhergesagten und den beobachteten atmosphärischen Erwärmungsraten nicht so signifikant geworden, wie es der Fall gewesen ist.

Da die komplexen Modelle in dieser Hinsicht versagt haben, es ungenügende Beobachtungen aus der Tiefsee gibt, um zuverlässige quantitative Beweise einer vermeintlichen Wärmeakkumulation unter 2000 m zu erbringen, es noch weniger möglich ist, den Mechanismus des imaginären Wärmetransfers zu berechnen, es wiederum weniger möglich ist, die rechtzeitige Dosierung der jeweiligen Verteilung anthropogener, solarer oder untermeerischer Vulkanaktivitäten zu bestimmen, ist es sicher unvernünftig, von unserem einfachen Modell das zu erwarten, woran die komplexen Modelle aus sich selbst heraus gescheitert sind – und was kann man mit einem Modell nicht alles machen, einfach oder komplex, solange und bis Messungen mit weit höherer Auflösung als jetzt zur Verfügung stehen an allen Punkten der ozeanischen Säule.

Beispiel:

die 3500 automatisierten ARGO-Bathythermograph-Bojen haben eine Auflösung äquivalent zur Messung eines einzigen Temperatur- und Salzgehaltes im Oberen See weniger als einmal pro Jahr: und bevor ARGO Mitte Mitte des vorigen Jahrzehnts in Berieb ging wurde, war die Auflösung ozeanischer Temperaturmessungen sogar noch deutlich schlechter als das, vor allem in Tiefsee-Schichten.

Die mittlere Tiefe des globalen Ozeans beträgt 3700 m. Wie jüngst in (11) beobachtet, was implizit die Infragestellung der Behauptungen der USA-Gruppe (7 – 9) enthält, sind sowohl die Auflösung von Stichproben in verschiedenen Tiefen als auch die Länge der Aufzeichnung beide unzureichend, um entweder verlässliche Messungen des ozeanischen Wärmegehaltes oder das Monitoring der ozeanischen Strahlungsflüsse zu erlauben:

Einige grundlegende Elemente des Stichprobe-Problems sind in Tabelle 2 gelistet. Etwa 52% des Ozeans ist tiefer als 2000 m und etwa 18% tiefer als 3600 m. Definiert man eine bestimmte Wassermenge als „getestet“, falls mindestens eine CTD-Station innerhalb eines Gitterquadrats von 60 X 60 km² im Zeitintervall 1992 bis 2011 existiert, wurde etwa ein Drittel (11% der Gesamtmenge) Wasser unter 2000 m betrachtet … In Tiefen unter 3600 m waren etwa 17% vermessen … Viele Studien gehen davon aus, dass es in der Tiefsee während des historischen Zeitraumes keine signifikanten Änderungen gegeben hat … Die Historie der Erforschung zeigt jedoch, dass weiße Flächen auf der Karte entweder als uninteressant angesehen und damit aus der weiteren Diskussion ausgeklammert worden sind, oder das andere Extrem war der Fall, die Flächen seien gefüllt mit ,Drachen‘, die herbeigefleht werden, um seltsame Berichte von dort zu erklären (in G. De Jode 1578, Speculum Orbis Terrarum, Antwerpen). …

Jüngst wurden in (60) Schätzungen von Änderungen in der Tiefsee mit einer behaupteten Genauigkeit in der Größenordnung von 0,01 W/m² in den Raum gestellt (äquivalent zu einer Temperaturänderung von 0,0004°C innerhalb von 20 Jahren) unter 700 m. Falls diese Genauigkeit wirklich erreicht worden wäre, wäre die geringe Abdeckung ausreichend, vielleicht erweitert auf die WOCE hydrographische Überwachung und alle paar Jahrzehnte wiederholt“.

Außerdem mangelt es in fast allen Analysen des ozeanischen Wärmegehaltes und -haushaltes an genauer Berücksichtigung der räumlichen, zeitlichen und anderer systematischer Fehler und Unsicherheiten, wie z. B. jene, die in einer Arbeit durch eine Gruppe an der chinesischen Academy of Sciences (12) identifiziert worden sind:

„In dieser Studie wurde eine neue Quelle von Unsicherheiten bei der Berechnung des OHC diagnostiziert, und zwar infolge der ungenügenden vertikalen Auflösung der historischen Ozeantemperaturprofile unter der Oberfläche. Dieser Fehler wurde untersucht mittels einer Stichprobe einer hohen vertikalen Auflösung in einem klimatologischen Ozeanmodell, dem Messungen in Tiefenintervallen von der Oberfläche aus gegenüber gestellt wurden. Dann wurde der Fehler definiert als der Unterschied zwischen dem OHC berechnet aus Stichproben-Profilen und dem OHC des klimatologischen Ozeans. Der so erhaltene auflösungsbezogene Fehler scheint in den oberen 100 m kalt zu sein (mit einem Spitzenwert von etwa -0,1°C), warm in Tiefen zwischen 100 und 700 m (mit einem Spitzenwert um 0,1°C bei 180 m) und warm bei einer Mittelung zwischen 0 und 700 m (mit einem globalen Mittel von ~0,01°C bis -0,025°C sowie ~1 bis 2,5 X 10²² J). Geographisch zeigte sich eine Warmverzerrung innerhalb von 30°S bis 30°N und eine Kaltverzerrung in höheren Breiten beider Hemisphären. Das Vorzeichen hing von der konkaven oder konvexen Krümmung des vertikalen Temperaturprofils ab. Schließlich fordern die Autoren, ein biasfreies Beobachtungssystem in Zukunft zu installieren: Eine minimale vertikale Tiefe von 5% wird gebraucht, um die der vertikalen Auflösung geschuldete Verzerrung auf weniger als 0,005°C des globalen Mittels zu bringen (gleiche Genauigkeit wie bei ARGO).

Und weiter (13):

„…ein neues Korrekturschema für historische XBT-Daten wird vorgestellt für neun verschiedene Stichproben-Typen. Das Schema enthält auch Korrekturen sowohl für die Temperatur als auch für Aufzeichnungen in der Tiefe, die alle mit dem Kalenderjahr variabel sind, außerdem für die Wassertemperatur und den Typ der Stichprobe. Die Ergebnisse bestätigen die in vorhergehenden Studien gefundenen: eine Verlangsamung der Fallrate während der siebziger Jahre und des ersten Jahrzehnts dieses Jahrhunderts sowie der große, rein thermische Bias von 1970 bis 1985. Das Verhalten von neun unterschiedlichen Korrekturschemata wird verglichen. Nachdem die vorgestellten Korrekturen an die XBT-Daten im WOD09-Datensatz angebracht worden waren, wird der globale ozeanische Wärmegehalt von 1967 bis 2010 neu abgeschätzt“.

Eine demnächst erscheinende Studie (14) beschreibt ein vertikales Profil der Temperaturänderung im Ozean von 2004 bis 2013 mit einem Erwärmungs-Stillstand über 100 m und in Tiefen zwischen 300 und 700 m, nachdem einige der Stichproben-Verzerrungen und Instrumentenfehler und Unsicherheiten in den Daten des ozeanischen Wärmegehaltes berücksichtigt worden waren (d. h. der neue globale Ozean-Temperatur-Datensatz vom Institute for Atmospheric Physics wurde angebracht). Die beiden Erwärmung zeigenden Schichten liegen zwischen 100 und 300 sowie 700 und 1500 Metern. Diese Schichten mit Erwärmung zeigen ihre eigenen charakteristischen horizontalen räumlichen Verteilungen, wenn man sie mit den sich nicht erwärmenden Schichten zwischen 300 und 700 Metern vergleicht. Diese beobachtete Tatsache führt zu folgender Schlussfolgerung:

Es ist immer noch unklar, wie die Wärme in die Tiefsee transferiert worden sein soll“.

Außerdem ist der Vorschlag, dass die Wärmeakkumulation in der Tiefsee erklärt, warum es seit 18 Jahren keinerlei globale Erwärmung mehr gegeben hat, in der wissenschaftlichen Literatur alles andere als allgemein akzeptiert. Eine bemerkenswerte Vielfalt von miteinander konkurrierenden und mit oftmals sich widersprechenden Erklärungen für den Stillstand der globalen Erwärmung, hauptsächlich unter Betrachtung der Phänomene nahe der Oberfläche, werden in Studien aus jüngerer Zeit in den begutachteten Journalen der Klimawissenschaft vorgestellt.

[Die folgende Auflistung steht im Original ohne jeden Absatz in einem langen, unübersichtlichen Abschnitt, zum Glück aber mit Ordnungszahlen. Zum besseren Verständnis auch für mich selbst habe ich diesen Abschnitt den Ordnungszahlen folgend unterteilt. Anm. d. Übers.]

In der Literatur wird der Grund für den Stillstand der globalen Erwärmung auf sehr vielfältige Weise erklärt:

1. eine eingeführte Kaltverzerrung durch mangelnde Abdeckung während der letzten Jahre (15), widerlegt von (16) und hinsichtlich der Abdeckung der Arktis von (17);

2. anthropogene Aerosole aus der Kohleverbrennung (18), widerlegt von (19, 20);

3. Abnahme der Erwärmung infolge Absorption durch Ruß (20);

4. Emission von Aerosol-Partikeln durch Vulkanausbrüche (21), widerlegt von (22);

5. reduzierte Sonnenaktivität (23);

6. Effektivität des Montreal-Protokolls bei der Kontrolle der Emissionen von Chlor-Fluor-Kohlenwasserstoffen (24);

7. eine geringere Zunahme der Methan-Konzetration als erwartet (24);

8. eine Abnahme der stratosphärischen Wasserdampf-Konzentration (25);

9. verstärkte Passatwinde im Pazifik (26), (zuvor waren in (27) schwächere Passatwinde im Pazifik der anthropogenen globalen Erwärmung zugeordnet worden);

10. Stadium Waves [?] in der Zirkulation im tropischen Pazifik (28);

11. Zufall (29):

12. Aerosolpartikel von Kiefern (30),

13. Natürliche Variabilität (31, 32);

14. kältere Nachttemperaturen in der Nordhemisphäre (33);

15. Vorhersagen von jenen Modellen, die die Möglichkeit eines Stillstands der globalen Erwärmung zulassen;

16. die negative Phase der Pazifischen Dekadischen Oszillation (36 – 38);

17. die Atlantische meridionale overturning [?] Zirkulation (39);

18. Globale Verdunkelung (dimming), die globalen Aufhellung (brightening) von 1983 bis 2001 folgte (40);

19. relative Häufigkeit bestimmter Arten von El Nino (41);

20. oberflächennahe Abkühlung im äquatorialen Pazifik (42);

21. Abkühlung im Pazifik, verstärkt durch Erwärmung im Atlantik (43);

22. eine Kombination von Faktoren einschließlich der ENSO-Variabilität, Abnahme der Sonnenaktivität und stratosphärische Aerosole (44);

23. unterschätzer Antrieb anthropogener Aerosole (45);

24. eine neue Form multidekadischer Variabilität, die sich von den Ozeanoszillationen unterscheidet, aber mit diesen in Beziehung steht (46) und

25. Scheitern bei der Initialisierung der meisten Modelle, um sie mit Beobachtungen konform zu machen, besonders bei ozeanischen Bedingungen (47).

Und schließlich, obwohl die ARGO-Bojen die Änderung der Ozeantemperatur direkt messen, wird die Temperaturänderung vor der Veröffentlichung in Zetajoule der Änderung des ozeanischen Wärmegehaltes konvertiert, was die Änderung größer aussehen lässt. Die Konversion der OHC-Änderung zurück zu Temperaturänderungen ist sehr erhellend. Sie zeigt, wie gering die tatsächlich gemessene Änderung ist. Die Zunahme des ozeanischen Wärmegehaltes während der 94 ARGO-Monate September 2005 bis Juni 2013 betrug 10 X 10²² J = 100 ZJ (Abbildung 6).

Abbildung 6: Änderung des ozeanischen Wärmegehaltes 1957 bis 2013 aus dem NODC Ocean Climate Laboratory: http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT.

Konversion: 650 million km³ x 4 MJ per tonne per Kelvin: each cubic meter is 1,033 tonnes. Then:

100 ZJ increase in ohc 100.000.000.000.000.000.000.000 J

To raise 650.000.000.000.000.000 m³

x 1,033 te m–3 671.450.000.000.000.000 te

x 4,000,000 J te 2.685.800.000.000.000.000.000.000 J per Kelvin

Dann 100.000 / 2.685.800 = 0,037233 K über 94 Monate ist äquivalent zu 0,0457 K pro Jahrzehnt. Dem zufolge beträgt die Änderung der mittleren Ozeantemperatur in den oberen 2000 m während der letzten Jahrzehnte weniger als 0,5 K pro Jahrhundert, selbst nach den ziemlich extremen NODC-Aufzeichnungen des OHC.

References

1. RSS (2014) Satellite-derived monthly global mean lower-troposphere temperature anomaly dataset: http://www.remss.com/data/msu/monthly_time_series/RSS_Monthly_MSU_AMSU_Channel_TLT_Anomalies_Land_and_Ocean_v03_3.txt. Accessed 1 July 2014

2. UAH (University of Alabama at Huntsville) (2014) Satellite MSU monthly global mean lower-troposphere temperature anomalies. http://vortex.nsstc.uah.edu/data/msu/t2lt/uahncdc_lt_5.6.txt. Accessed 1 July 2014

3. NCDC, 2014, National Climatic Data Center monthly global mean land and ocean surface temperature anomalies, 1880-2013, ftp://ftp.ncdc.noaa.gov/pub/data/anomalies/monthly.land_ocean.90S.90N.df_1901-2000mean.dat. Accessed 1 July 2014

4. Morice, CP, Kennedy JJ, Rayner N, Jones PD (2012) Quantifying uncertainties in global and regional temperature change using an ensemble of observational estimates: The HadCRUT4 data set. J. Geophys Res 117:D08101. doi:10.1029/2011JD017187

5. GISS, 2014, Goddard Institute for Space Studies monthly global mean land and sea surface temperature anomalies, 1880-2014, http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt. Accessed 1 July 2014

6. McKitrick RR (2014) HAC-robust measurement of the duration of a trendless subsample in a global climate time series. Open J Stat 4:527-535

7. Meehl GA, Arblaster JM, Fasullo JT et al (2011) Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus periods. Nat Clim Change 1: 360–364

8. Balmaseda MA, Trenberth KE, Källen E (2013) Distinctive climate signals in reanalysis of global ocean heat content. Geophys Res Lett 40:175401759

9. Trenberth KE, Fasullo JT, Balmaseda MA (2014) Earth’s energy imbalance. J Clim 27:3129-3144

10. Chen X, Tung KK (2014) Varying planetary heat sink led to global-warming slowdown and acceleration. Science 345: 897–903

11. Wunsch C, Heimbach P (2014) Bidecadal thermal changes in the abyssal ocean. J Phys Oceanol 44: 2013–2030

12. Cheng L, Zhu J (2014) Uncertainties of the ocean heat content estimation induced by insufficient vertical resolution of historical ocean subsurface observations. J Atm Oceanic Tech 31: 1383–1396

13. Cheng L, Zhu J, Cowley R et al (2014a) Time, probe type, and temperature variable bias corrections to historical expendable bathythermograph observations. J Atm Oceanic Tech 31: 1793–1825

14. Cheng L, Zheng F, Zhu J (2014b) Distinctive ocean interior changes during the recent climate hiatus. Geophys Res Lett submitted

15. Cowtan K, Way RG (2014) Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends. Quart J R Meteot Soc 140: 1934-1944

16. Fyfe JC, Gillet NP, Zwiers FW (2013) Overestimated global warming over the past 20 years. Nat Clim Change 3: 767-769

17. Chung CE, Cha H, Vilma T et al (2013) On the possibilities to use atmospheric reanalyses to evaluate the warming structure of the Arctic. Atmos Chem Phys 13: 11209-11219

18. Kaufmann RK, Kauppi H, Stock JH (2011) Reconciling anthropogenic climate change with observed temperature 1998-2008. Proc Natl Acad Sci USA 108: 11790-11793

19. Kühn T, Partanen A-I, Laakso A et al(2014) Climate impacts of changing aerosol emissions since 1996. Geophys ResLett 41: 4711-4718

20. Neely RR, Toon OB, Solomon S et al (2013) Recent anthropogenic increases in SO2 from Asia have minimal impact on stratospheric aerosol. Geophys Res Lett 40. doi: 10.1002/grl.50263

21. Santer BD, Bonfils C, Painter JF et al (2014) Volcanic contribution to decadal changes in tropospheric temperature. Nat Geosci 7:185-189

22. Haywood J, Jones A, Jones GS (2014) The impact of volcanic eruptions in the period 2000-2013 on global mean temperature trends evaluated in the HadGEM2-ES climate model. Atmos Sci Lett 15: 92-96

23. Stauning P (2014) Reduced solar activity disguises global temperature rise, Atmos Clim Sci 4: 60-63

24. Estrada F, Perron P, Martinez-Lopez B (2013) Statistically derived contributions of diverse human influences to twentieth-century temperature changes. Nat Geosci 6: 1050–1055

25. Solomon S, Rosenlof KH, Portmann RW et al(2010) Contributions of stratospheric water vapor to decadal changes of global warming. Science 327: 1219-1223

26. England MH, McGregor S, Spence P et al (2014) Recent intensification of wind-driven circulation in the Pacific and the ongoing warming hiatus. Nat Clim Change 4: 222-227

27. Vecchi ga, Soden BJ, Wittenberg AT, et al (2006) Weakening of tropical Pacific atmospheric circulation due to anthropogenic forcing. Nature 441: 73-76.

28. Glaze Wyatt M, Curry JA (2013) Role for Eurasian Arctic shelf sea ice in a secularly varying hemispheric climate signal during the 20th century. Clim Dyn 42: 2763-2782

29. Schmidt GA, Shindell DT, Tsigaridis K (2014) Reconciling warming trends. Nat Geosci 7(158-160). doi: 10.1038/ngeo2105

30. Ehn M, Thornton JA, Kleist E, et al (2014) A large source of low-volatility secondary organic aerosol. Nature 506:476-479

31. Watanabe M, Shiogama H, Tatebe H et al (2014) Contribution of natural decadal variability to global warming acceleration and hiatus. Nat Clim Change 4: 893–897

32. Lovejoy S (2014) Return periods of global climate fluctuations and the pause. Geophys Res Lett 41:4704-47

33. Sillmann, J, Donat MG, Fyfe JC et al (2014) Observed and simulated temperature extremes during the recent warming. Environ Res Lett 9. doi: 10.1088/1748-9326/9/6/064023

34. Risbey J, Lewandowsky S, Langlais C,et al (2014) Nat Clim Change 4:835-840

35. Guemas V, Doblas-Reyes FJ, Andreu-Burillo I et al (2013) Retrospective prediction of the global warming slowdown in the past decade. Nat Clim Change 3:649-653

36. Maher N, Sen Gupta A, England MH (2014) Drivers of decadal hiatus periods in the 20th and 21st centuries. Geophys Res Lett 41:5978-5986

37. Trenberth KE, Fasullo JT, Branstator G et al (2014) Seasonal aspects of the recent pause in surface warming. Nat Clim Change 4: 911–916

38. Dong L, Zhou T (2014) The formation of the recent cooling in the eastern tropical Pacific Ocean and the associated climate impacts: a competition of global warming, IPO and AMO. J Geophys Res doi: 10.1002/2013JD021395

39. Schleussner CF, Runge J, Lehmann J, et al (2014) The role of the North Atlantic overturning and deep ocean for multi-decadal global-mean-temperature variability. Earth Sys Dyn 5:103-115

40. Rahimzadeh F, Sanchez-Lorenzo A, Hamedi M, et al (2014) New evidence on the dimming/brightening phenomenon and decreasing diurnal temperature range in Iran (1961-2009). Int J Climatol doi: 10.1002/joc.4107

41. Banholzer S, Donner S (2014) The influence of different El Nino types on global average temperature. Geophys Res Lett 41:2093–2099

42. Kosaka Y, Xie SP (2013) Recent global-warming hiatus tied to equatorial Pacific surface cooling. Nature 501: 403–407

43. McGregor S, Timmermann A, Stuecker MF, England MH, Merrifield M, Jin FF, Chikamoto Y (2014) Recent Walker circulation strengthening and Pacific cooling amplified by Atlantic warming. Nature Clim. Change 4:888-892. doi: 10.1039/nclimate2330

44. Huber M, Knutti R (2014) Natural variability, radiative forcing and climate response in the recent hiatus reconciled. Nat Geosci 7: 651–656

45. Hansen J, Sato M, Kharecha PK, et al(2011) Earth’s energy imbalance and implications. Atmos. Chem Phys 11:13421-13449.

46. Maclas D, Stips A, Garcia-Gorriz E (2014) Application of the Singular Spectrum Analysis Technique to Study the Hiatus on the Global Surface Temperature Record. Plos One. doi: 10.1371/journal.pone.0107222

47. Meehl, GA, Teng H (2014) CMIP5 multi-model hindcasts for the mid-1970s shift and early 200s hiatus and predictions for 2016-2035. Geophys. Res. Lett. 41(5):17y11-1716

Link: http://wattsupwiththat.com/2015/01/03/the-great-pause-lengthens-again/

Übersetzt von Chris Frey EIKE




Die Ökonomie des Irrenhauses

Jetzt kommen die Ablenkungsmanöver [red herrings] nach hause, um geröstet zu werden. Die horrenden Kosten des fast einmaligen wissenschaftlichen Analphabetentums, zu dem während eines halben Jahrhunderts marxistischer Bildung selbst die regierende Klasse mutiert ist, werden jetzt nur zu schmerzhaft offensichtlich.

„Ed“ Davey, der bescheuert „Klimawandel-Minister“ genannt wird, ein „Liberal“-„Demokrat (d. h. ein Verrückt-Linker) Minister im Kabinett der Koalition der Kindischen – zu einem nicht geringen Teil wegen deren selbstmörderischer Klimapolitik – hat innerhalb von fünf Jahren mehr Schulden angehäuft als alle Britischen Regierungen zusammen zuvor. Soeben hat er die jüngste politische Maßnahme der Kindischen verkündet.

Das mehr als bankrotte UK – einst wirtschaftliches Machtzentrum der Welt – wurde zum ökonomischen Irrenhaus der Welt, weil „Ed“ dabei ist, den Verbrauch von Erdgas in Industrie und Wohnhäusern zu verbieten. Einfach so.

Das Ziel der Vollendung dieser jüngsten Verrücktheit liegt in weniger als zwei Jahrzehnten von heute an gerechnet. Etwa die Hälfte der Nation kocht oder heizt ihre Wohnungen mit Gas. Durch den Erlass der Regierung werden jene Haushalte bald gezwungen sein, zu deutlich teurerem und deutlich weniger effizientem elektrischen Kochen und Heizen zu wechseln, ob sie das nun stemmen können oder nicht.

Natürlich wird es auch gewaltige Kapitalkosten für ausgequetschte Steuerzahler geben, da das extensive und teure Gasnetz [unübersetzbares Wortspiel: extensive and expensive] sinnlos zerschlagen wird, da die Gaskraftwerke, die erst kürzlich einen großen Teil unserer Erzeugungskapazität mittels Kohle ersetzt haben, heruntergefahren werden und unser Land mit nutzlosen Vögel und Fledermäuse tötenden Windmühlen zugepflastert wird. Schon jetzt verschandeln Windmühlen etwa 60% der Landschaft in Schottland.

Die kleinen Strampler sind dabei, das Netzwerk bedrückender, instabiler und Verluste machender Windmühlen massiv auszudehnen. Um das zu finanzieren, wird der normale Haushalt zusätzlich mit 400 Pfund pro Jahr belastet, zusätzlich zu den massiven Energiepreissteigerungen, die sie bereits zu stemmen hatten.

Sie sind auch dabei, 1,2 GW neuer Kernkraftkapazität pro Jahr zu installieren (das Äquivalent zu zwei nuklear getriebenen U-Booten). Aber – Geisteskrankheit über Geisteskrankheit – die gering spezifizierten [low-spec], Reaktoren geringer Güteklasse [civilian-grade], die sie von Hitachi kaufen werden, kosten sechs mal so viel wie die hoch spezifizierten Rolls-Royce-Reaktoren hoher Güteklasse in unseren Trident-U-Booten.

Als ich Rolls Royce fragte, ob sie unter diesen Umständen planten, dem umwälzenden [thrusting] neuen UK-Markt für zivile Kernkraft-Stromerzeugung beizutreten, erhielt ich zur Antwort ein barsches – und verständliches – Nein. Die mit Nadelstreifen-Anzügen bekleidete Stimme im Telefon zeugte von verdeckter Ungeduld mit dem zunehmend bizarrer werdenden Verhalten der Koalition der Kindischen.

Was aber noch schlimmer ist: nicht nur Gas, sondern auch Benzin wird verbannt. Alle Autos sollen bis zu den vierziger Jahren dieses Jahrhunderts elektrisch sein. Einfach nur so.

Eigentlich hatte ich etwas höchstens halb so Irrsinniges wie dies hier erwartet. In der September-Ausgabe von Energy and Environment bin ich in einer Studie, die die vielen Fehler des IPCC aufdeckte, auch kurz auf die „Ökonomie“ der Subventionen der Krabbelkinder [toddler] bzgl. Elektroautos eingegangen. Es wurde vielfach erwähnt, obwohl ich dem Augenschein nach nicht annehme, dass irgendjemand im Kleinkinderzimmer im Ministerium der Klimaverrücktheit schon lesen gelernt hatte, so dass sie das nicht gesehen haben. Hier folgt es:

Verschiebung des Datums der Gesamt-Wohlstandsvernichtung

Es gab in diesem Jahrhundert keine globale Erwärmung. Falls die Erwärmung mit der während der letzten 30 Jahre beobachteten mittleren Rate von 0,14 K/Jahrzehnt sofort wieder einsetzen sollte, würde es bis zum Jahr 2035 eine Erwärmung von 0,28 K geben. Sollte sich die Erwärmungsrate danach verdoppeln und auf dieser Höhe während des gesamten restlichen Jahrhunderts verbleiben, würde die Erwärmung bis zum Jahr 2100 kaum mehr als 1,1 K betragen.

Da es seit 1750 (Temperaturaufzeichnung aus Zentralengland) zu einer Erwärmung um 0,9 K gekommen war, dürfte die 2°C-Grenze, jenseits derer alles zusammenbrechen soll, kaum vor Ende dieses Jahrhunderts erreicht werden. Eine geringe Erwärmungsrate ist weniger schädlich als eine rapide Rate, so dass selbst nach dem Jahr 2100 die Nachteile der Erwärmung nicht signifikant sein würden.

Sollte man Vorsichtsmaßnahmen in jedem Falle treffen?

Ob Abschwächungsmaßnahmen in jedem Falle durchgeführt werden, ist eine ökonomische Frage, die beantwortet wird durch Investitions-Abschätzungen. Die 8333 Pfund in UK-Subvention für Elektroautos würde als Beispiel dienen. Die beiden Faktoren für die Abschätzung sind der Anteil der globalen CO2-Emissionen, die eine Abschwächungs-Maßnahme vermeiden soll und die Kosten dieser Maßnahme.

Typische Benzinautos sind etwa zu 27% effektiv. Typische fossil getriebene Erzeugerstationen sind zu 50% effizient, die Zuleitung an den Endverbraucher zu 67%, das Aufladen der Batterie ist zu 90% effizient und der Elektromotor des Autos zu 90%, so dass die Treibstoff-Effizienz eines Elektroautos ebenfalls 27% beträgt. Allerdings braucht das Elektroauto 30% mehr Energie pro gefahrene Meile, um die Masse der Batterien zu transportieren.

CO2-Emissionen aus heimischen Transporten tragen zu etwa 24% zu den CO2-Emissionen in UK bei, und Autos, Lieferwagen und Taxis repräsentieren 90% des Transportwesens auf Straßen (DfT, 2013). Nimmt man einen Treibstoffverbrauch von 80% durch diese Autos an, tragen sie zu etwa 19,2% der UK-CO2-Emissionen bei. Die Konversion zu elektrischem Antrieb von dem 61% mit fossilen Treibstoffen in UK erzeugt wird, würden diese 19,2% um etwa 39% verringern (d. h. 7,5%).

Allerdings würde das Gewicht der Batterien zusätzlich zu Buche schlagen, und zwar 30% von 19,2% von 61%: d. h. 3,5% der UK-CO2-Emissionen. Die Gesamt-Einsparung bei der Umrüstung aller Autos, Lieferwagen und Taxis auf Elektro würde also 4% der UK-CO2-Emissionen ausmachen, was 1,72% der globalen CO2-Emissionen entspricht… und weiter im Original: abating 0.07% of global CO2 emissions of 2 ppmv yr–1, or 0.00138 ppmv. Assuming 400 μatm concentration at year end on business as usual, forcing abated by the subsidy for converting all UK cars to electricity would be 5.35 ln[400/(400-0.00138)], or 0.00002 W m–2, which, multiplied by the Planck parameter λ0 = 0.31 K W–1 m2, gives 0.000006 K warming abated by the subsidy.*

[*Ich hoffe, die Berechnungen sind richtig. Ich habe nicht nachgerechnet! Und bevor ich durch die Übersetzung Zahlendreher erzeuge, lasse ich hier lieber das Original stehen. Die Zahlen sprechen ohnehin für sich. Anm. d. Übers.]

Die Kosten für den UK-Steuerzahler der Subventionen für die im Jahre 2012 gekauften 30.000 Elektroautos, -lieferwagen und -taxis sind eine Einheits-Subvention von 8333 Dollar oder 5000 Pfund für jedes Fahrzeug sowie eine weitere Subvention von etwa 350 Dollar oder 210 Pfund pro Jahr als Steuernachlass für jedes Auto, insgesamt also 260,5 Millionen Dollar. Auf dieser Grundlage belaufen sich die Kosten der Subventionen aller 2.250.000 neuen Autos, die jedes Jahr verkauft werden (SMMT, 2013) auf 19,54 Milliarden Dollar.

Obwohl die Lebensdauer von Elektroautos 50% höher ist als die von Autos mit Verbrennungsmotoren, wird der Vorteil mehr als kompensiert durch die horrenden Kosten des Austausches aller Batterien, der alle paar Jahre erfolgen muss. Diese Zusatzkosten tauchen nirgendwo auf. Genauso nicht berücksichtigt werden die erheblichen Kosten der Nutzung erneuerbarer Energie, um den fossil erzeugten Anteil vom globalen Mittel bei 67% auf 61% zu verringern, obwohl streng genommen ein angemessener Anteil der Kosten „erneuerbarer“ Stromerzeugung zugerechnet werden müsste.

Teilt man diese jährlichen Kosten von 19 Milliarden Dollar durch die vermiedene Erwärmung, ergeben sich Abschwächungskosten von 3400 Billionen Dollar pro Grad Kelvin. Eine Abschwächung der projizierten Erwärmung um 0,013 K während des Untersuchungszeitraumes durch globale Methoden äquivalenter Kosten pro Einheit würde demnach 45 Billionen Dollar kosten oder sich der 6500-Dollar-Marke pro Kopf der globalen Bevölkerung nähern oder fast zwei Drittel der 71 Billionen Dollar globalen jährlichen BIP.

Stern (2006) schrieb, dass die Kosten der damals projizierten Erwärmung um 3 K während des 21.Jahrhunderts etwa bis 3% des globalen BIP betragen. Das IPCC (2013, WG II) legt die Kosten mit 0,2% bis 2% des BIP fest.

Unter der Annahme, dass 1 K Erwärmung im 20.Jahrhundert Kosten bis zu 0,5% des BIP ausmachen würden (tatsächlich würde eine so geringe Erwärmung gar nichts kosten), wäre die beabsichtigte globale Abschwächung mit Methoden des UK-Subventionsprogramms für Elektroautos 128 mal kostspieliger als Anpassung. …*

[*Im Original lautet dieser Absatz: Assuming that 1 K 20th-century global warming would cost as much as 0.5% of GDP (in fact so small a warming would cost nothing), global mitigation by methods of equivalent unit cost to the UK’s subsidy program for electric vehicles would be 128 times costlier than adaptation.]

Alles in allem wären die Kosten für Abschwächung 1 bis 2 Größenordnungen größer als diejenigen für Anpassung (Monckton of Brenchley 2013). Bezahlbare Maßnahmen sind ineffektiv; effektive Maßnahmen sind unbezahlbar. Zu wenig Abschwächung wird mit viel zu hohen Kosten erreicht. Da die Prämie 10 bis 100 mal die Kosten des versicherten Risiken übersteigen, sind Vorsichtsmaßnahmen als Versicherung gegen die vom Menschen verursachte globale Erwärmung nicht zu empfehlen.

Fußnote: Als ich das Ministerium für Klimawandel 2010 besuchte, um den Minister im House of Lords Lord Marland zu treffen, fragte ich ihn und seinen Chef-Zahlenverdreher Prof. David Mackay, ob ich deren Berechnungen sehen dürfte, die zeigten, wie viel globale Erwärmung die geisteskranke Politik während der kommenden Jahrzehnte verhindert würden, und welche Kosten pro vermiedenem Grad Kelvin Anstieg anfallen würden.

Plötzlich war da nur noch bestürztes Schweigen. Der Permanent Secretary schaute auf seine Armbanduhr und fummelte dann an seinem Schlips herum. Der Minister tippte einen Cricket-Ball auf und ab in planloser Sprachlosigkeit. Prof. Mackay sagte: … das kommt im Original viel besser: „Er, ah, mphm …” [I’d never heard that 19th-century Scottish playing-for-time interjection before] “… mphm, er, that is, well, we, ah, ugh, mphm – um, oof, we’ve never done any such calculation.”

Ich wandte mich an den Minister und sagte: „Darf ich daraus schließen, Minister, dass ihre Politik allein auf blindem Glauben basiert?“ Es scheint, als ob genau dies immer noch der Fall ist.

Link: http://wattsupwiththat.com/2014/12/22/the-economics-of-the-madhouse/

Übersetzt von Chris Frey EIKE

Bemerkungen des Übersetzers: Hier hat der unübertroffene Wortkünstler Monckton sich tatsächlich noch selbst übertroffen. Einige Passagen konnte ich nur recht frei übersetzen, bei anderen habe ich das Original eingefügt. Was Monckton hier anprangert, dürfte aber in jedem Falle herüberkommen.

C. F.




Klima: Da hat die Rechte recht – Aktualisierung bzgl. globale Erwärmung: Stillstand nunmehr seit 18 Jahren und 1 Monat

Bild rechts: Die New York Times zeigt die Parteigrenze bzgl. Klima.

Man stelle diese interessante Statistik in eine Reihe mit einer anderen interessanten Statistik: die Zunahme der CO2-Emissionen durch die Verbrennung fossiler Treibstoffe. Im Jahre 1988 emittierte die Welt 22 Milliarden Tonnen CO2. 1988 war das Jahr, in dem das IPeCaC ins Leben gerufen worden war und James Hansen sich zum ersten mal über die vermeintliche Bedrohung der „globalen Erwärmung“ vor dem US-Kongress ausgelassen hat, nachdem Tim Wirth die Air Condition im Anhörungsraum ausgeschaltet hatte.

Im Jahre 2013, nur 25 Jahre später, wurden 35 Milliarden Tonnen CO2 emittiert. Trotz all des Geredes um die Notwendigkeit der Kürzung von CO2-Emissionen, trotz all der Steuern und Abgaben und Subventionen und Profiteure, trotz all der pompösen Auftritte bei internationalen Bühnenshows, von Manchem Konferenzen genannt, trotz der ganzen globalen Plauderstunden – ist nichts weiter passiert, als dass die jährlichen CO2-Emissionen um rund 50% zugenommen haben.

Falls die Welt wirklich glauben würde, dass die globale Erwärmung ein ernstes Problem ist, dann ist es unwahrscheinlich, dass man eine so starke Zunahme der Emissionen des vermeintlich gefährlichen (aber in Wirklichkeit harmlosen und nützlichen) Spurengases CO2 zugelassen hätte.

Ist also irgendjemand besorgt? Aus den Daten geht die Antwort Nein hervor. Seit Oktober 1996 hat es keinerlei globale Erwärmung mehr gegeben (Abbildung 2). Der RSS-Temperaturplot dieses Monats kommt mit einem haarfeinen Sprung daher, verlängert sich doch der Zeitraum ohne jede globale Erwärmung von 18 Jahren und 1 Monat auf 18 Jahre und 2 Monate: Allerdings verbleiben bei strikter Interpretation des Zeitraumes ohne Erwärmung 18 Jahre und 1 Monat. Innerhalb eines Monats oder deren zwei könnte der gegenwärtige schwächelnde El Nino anfangen, die globalen Temperaturen zu beeinflussen, was den Großen Stillstand verkürzen würde. Sollte jedoch der El Nino von einer La Nina gefolgt werden, könnte sich der Stillstand Ende nächsten Jahres wieder verlängern – vielleicht sogar pünktlich zum Klimagipfel in Paris im Dezember. Dabei soll der nächste große Versuch unternommen werden, eine globale „Regierung“ einzuführen, und zwar auf der Grundlage der Angst vor der globalen Erwärmung.

Abbildung 2: Die lineare Regression kleinster Quadrate des Trends im globalen RSS-Satelliten-Datensatz der monatlichen mittleren globalen Temperaturanomalien zeigt seit Oktober 1996, also seit 18 Jahren und 1 Monat, keinerlei Erwärmung.

Die Stillstandsperiode von 18 Jahren und 1 Monat, also 217 Monate ist der am weitesten zurück reichende Zeitraum mit Satelliten-Temperaturmessungen und zeigt immer noch keinen von Null unterscheidbaren Trend.

Abbildung 3: Kurzfrist-Projektionen von Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ im IPCC-Bericht 1990 von 1990 bis Oktober 2014 (orangefarbene Zone und rote Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und Trend (hellblau) äquivalent zu weniger als 1,4 K pro Jahrhundert. Gemittelt aus den monatlichen mittleren Temperaturanomalien der unteren Troposphäre von RSS und UAH.

Ein Vierteljahrhundert nach 1990 beträgt der globale Erwärmungstrend bis jetzt 0,34°C – ausgedrückt als der lineare Regressionstrend kleinster Quadrate der mittleren globalen Temperaturanomalien nach RSS und UAH –, das ist äquivalent zu gerade mal 1,4°C pro Jahrhundert oder etwas unterhalb der Hälfte der zentralen Schätzung in IPCC 1990 und deutlich unterhalb selbst der geringsten Schätzung (Abbildung 3).

Der Große Stillstand stürzt jene immer mehr in Verlegenheit, die uns mit „substantiellem Vertrauen“ weisgemacht hatten, dass die Wissenschaft settled und die Debatte beendet ist. Die Natur war anderer Ansicht. Obwohl nunmehr über 50 mehr oder weniger plausible Entschuldigungen in nervösen begutachteten Journalen erschienen und von missionierenden Wissenschaftlern verkündet worden sind, kann die Möglichkeit, dass der Stillstand einfach den Computermodellen geschuldet sind, weil die Modelle schlicht und ergreifend falsch waren hinsichtlich der Sensitivität der Temperatur bzgl. anthropogener Treibhausgase, nicht länger beiseite geschoben werden.

Bemerkenswerterweise sind selbst die jüngsten und erheblich reduzierten kurzfristigen Projektionen der globalen Erwärmung ebenfalls exzessiv (Abbildung 4).

Abbildung 4: Vorhergesagte Temperaturänderung von Januar 2005 bis Oktober 2014 mit einer Rate äquivalent zu 1,7 (1,0; 2,3)°C (orangefarbener Bereich mit dicker roter Trendlinie des Best Estimate) im Vergleich zu den beobachteten Anomalien (dunkelblau) und der realweltlichen Null-Trendlinie (hellblau), gezeigt als das Mittel der Temperaturanomalien der unteren Troposphäre nach RSS und UAH.

Im Jahre 1990 lag die zentrale Schätzung des IPCC hinsichtlich der Erwärmung im Kurzfristzeitraum um zwei Drittel höher als heute. Damals war es ein Äquivalent zu 2,8°C pro Jahrhundert. Jetzt ist es ein 1,7°C-Äquivalent – und, wie Abbildung 4 zeigt – selbst das erweist sich als eine substantielle Übertreibung.

In den RSS-Satellitendaten findet sich keine von Null unterscheidbare globale Erwärmung mehr seit über 26 Jahren. Keines der Modelle hat vorhergesagt, dass es ein Vierteljahrhundert lang keine globale Erwärmung geben würde.

Der Große Stillstand könnte diesen Winter zu Ende gehen. Ein El Nino-Ereignis kündigt sich an, welches üblicherweise im Nordwinter seinen Höhepunkt erreicht. Es gibt jedoch zu wenig Informationen, um sagen zu können, wie viel vorübergehende Erwärmung dadurch auftreten wird. Die Temperaturspitzen der Jahre 1998, 2007 und 2010 durch jeweils ein El Nino sind in den Abbildungen 1 bis 4 offensichtlich.

Zu einem El Nino kommt es etwa alle drei bis vier Jahre, obwohl niemand so genau weiß, was der Auslöser ist. Sie bringen eine vorübergehende Temperaturspitze, dem oftmals ein scharfer Rückgang in der nachfolgenden La Nina-Phase folgt, wie man in den Jahren 1999, 2008 und 2011-2012 erkennen kann. Dabei gab es zuletzt eine La Nina mit einer „Doppelspitze“, was eine der Entschuldigungen für den Stillstand ist.

Das Verhältnis zwischen El Ninos und La Ninas tendiert dazu, während der 30-jährigen negativen oder Abkühlungs-Phase der Pazifischen Dekadischen Oszillation zu fallen. Die jüngste negative Periode begann Ende 2001. Obwohl also der Stillstand unterbrochen werden könnte, dürfte er spätestens Ende 2015 weitergehen. Wie auch immer, es wird immer klarer, dass die globale Erwärmung nicht einmal ansatzweise in die Nähe der von den Klimamodellen vorhergesagten Erwärmungsraten gekommen ist, und sie wird sich auch nicht der jetzt erheblich reduzierten vorhergesagten Rate nähern. Vielleicht gibt es in diesem Jahrhundert eine Erwärmung um höchstens 1°C, aber bestimmt nicht die vom IPCC vorhergesagten 3 bis 4°C.

Grundlegende Fakten bzgl. der globalen Temperatur:

Ø Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung während der 217 Monate von Oktober 1996 bis Oktober 2014. Das ist über die Hälfte der 429 Monate langen Satelliten-Aufzeichnung.

Ø Der Trend der globalen Erwärmung seit 1900 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und muss mit uns nicht viel zu tun haben.

Ø Zum rasantesten gemessenen Erwärmungstrend über 10 Jahre oder mehr war es während der 40 Jahre von 1694 bis 1733 in Mittelengland gekommen. Die Erwärmung war äquivalent zu einer Rate von 4,3°C pro Jahrhundert.

Ø Seit 1950, als ein potentieller menschlicher Einfluss erstmals theoretisch möglich war, lag der globale Erwärmungstrend bei einer Rate äquivalent zu 1,2°C pro Jahrhundert.

Ø Zur stärksten Erwärmungsrate über zehn Jahre oder mehr seit 1950 war es während der 33 Jahre von 1974 bis 2006 gekommen. Sie war äquivalent zu 2,0°C pro Jahrhundert.

Ø Im Jahre 1990 lag die mittelfristige Vorhersage einer kurzfristigen Erwärmung bei einer Rate äquivalent zu 2,8°C pro Jahrhundert, das ein um zwei Drittel höherer Wert als die jüngste Vorhersage von 1,7°C pro Jahrhundert.

Ø Der Trend der globalen Erwärmung seit 1990, also zum Zeitpunkt des ersten IPCC-Berichtes, liegt bei einer Rate äquivalent zu 1,4°C pro Jahrhundert – also halb so hoch wie vom IPCC damals vorhergesagt.

Ø Obwohl das IPCC mit seiner Vorhersage einer Kurzfrist-Erwärmung zurückgerudert ist, ist es nicht von seiner Erwärmungsvorhersage bei Business as usual abgerückt, d. h. von einer Erwärmung um 4,8°C bis zum Jahr 2100.

Ø Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 ist mehr als doppelt so hoch wie die größte Erwärmungsrate über mehr als zehn Jahre, die seit 1950 gemessen worden ist.

Ø Diese IPCC-Erwärmung liegt fast viermal so hoch wie der beobachtete Erwärmungstrend in der realen Welt, seit wir theoretisch einen Einfluss auf das Klima hätten ausüben können (seit 1950).

Ø Von September 2001 bis September 2014 liegt der Erwärmungstrend im Mittel der 5 globalen Temperatur-Datensätze bei Null. Keine Erwärmung seit 13 Jahren und 1 Monat.

Ø Jüngste Extremwetterereignisse können nicht der globalen Erwärmung zugeordnet werden, weil es keine globale Erwärmung gegeben hat. So einfach ist das.

[Man erkläre das mal der „Süddeutschen Zeitung“! Anm. d. Übers.]

Technische Bemerkung

Unsere letzte Graphik zu diesem Thema zeigt den linearen Regressionstrend nach der Methode kleinster Quadrate aus dem monatlichen RSS-Datensatz der globalen mittleren Temperatur der unteren Troposphäre, der so weit wie möglich zurückreicht und immer noch einen Null-Trend zeigt. Der Startzeitpunkt ist nicht willkürlich ausgewählt, um nicht zufällig zusammenzufallen mit der Temperaturspitze des El Nino des Jahres 1998. Stattdessen wurde er berechnet, um die längste Periode mit einem Null-Trend zu finden.

Terrestrische Temperaturen werden mit Thermometern gemessen. Thermometer, die korrekt in ländlichen Gebieten abseits anthropogener Heizquellen aufgestellt sind, zeigen Erwärmungsraten, die deutlich unter den veröffentlichten Trendwerten liegen. Die Satellitendatensätze basieren auf Messungen der genauesten, derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, die eine unabhängige Verifikation der Temperaturmessungen erlauben, indem mit in den Weltraum gerichteten Spiegeln die bekannte Temperatur der kosmischen Hintergrundstrahlung untersucht wird, welche 1% des Gefrierpunktes von Wasser ausmacht oder nur 2,73 Grad über dem absoluten Nullpunkt liegt. Aus diesen Messungen kleinster Variationen der kosmischen Hintergrundstrahlung hat die NASA das Alter des Universums berechnet: 13,82 Milliarden Jahre.

Die Graphik ist genau. Die Daten wurden monatlich direkt von der RSS-Website abgegriffen. Ein Computer-Algorithmus liest sie aus dem File heraus, bildet deren Mittelwert und plottet sie automatisch mitttels einer ausgereiften Routine, die automatisch das Bildformat des Datenfensters an beide Achsen anpasst, um die Daten mit der maximal möglichen Auflösung zu zeigen.

Der jüngste monatliche Datenpunkt wird visuell untersucht, um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue Trendlinie, geplottet durch die dunkelblaue Zackenkurve [spline-curve] zeigt, dass die tatsächlichen Daten bestimmt werden durch das Verfahren der Regression kleinster Quadrate. Dabei wird der Schnittpunkt mit der Y-Achse und die Neigung der Linie mittels zwei altbekannter und funktional identischen Gleichungen berechnet, die miteinander verglichen werden um sicherzustellen, dass es zwischen beiden keine Diskrepanz gibt. Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu bestimmen. Prof. Phil Jones von der University of East Anglia fordert dies in einer der Klimagate-E-Mails. Das Verfahren ist angebracht, weil globale Temperaturaufzeichnungen nur geringe Auto-Regression zeigen.

Dr. Stephen Farish, Professor für epidemiologische Statistik [?] an der University of Melbourne, hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend der Graphik bestimmt wird sowie den Korrelationskoeffizienten. Der ist sehr klein, weil der Trend trotz der hoch variablen Daten flach verläuft.

RSS selbst hat inzwischen ernsthaft Interesse an der Länge des Großen Stillstands. Dr. Carl Mears, leitender Forschungswissenschaftler bei RSS, behandelt dies hier.

Dessen Ergebnisse werden in Abbildung T1 zusammengefasst:

Abbildung T1: Ergebnisse von 33 IPCC-Modellen (türkis) im Vergleich zur von RSS gemessenen globalen Temperaturänderung (schwarz) 1979 bis 2014. Die vorübergehenden Abkühlungsphasen infolge vulkanischer Eruptionen von El Chichon (1983) und Pinatubo (1991) treten ebenso hervor wie die Temperatur-Wärmespitze durch den gewaltigen El Nino 1998.

Dr. Mears schreibt:

„Die Leugner mögen die Annahme, dass der Grund für die Diskrepanz zwischen Modell und Beobachtung in einem irgendwie gearteten Problem mit der fundamentalen Modellphysik zu finden ist, und sie machen sich über jede andere Erklärung lustig. Dies verleitet sie zu der Schlussfolgerung, sehr wahrscheinlich fälschlich, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.

Dr. Mears räumt die wachsende Diskrepanz zwischen den RSS-Daten und den Modellen ein, nimmt aber „Rosinenpickerei“ hinsichtlich des Startzeitpunktes des globalen Temperaturgraphen an:

„In letzter Zeit wurde in einer Anzahl von Artikeln in den Main Stream Medien darauf hingewiesen, dass es während der letzten beiden Jahrzehnte nur eine sehr geringe oder gar keine Änderung der global gemittelten Temperatur gegeben habe. Aus diesem Grunde stellt man uns viele Fragen des Inhalts ,ich habe diesen Plot auf einer Leugner-Website gesehen. Sind es wirklich Ihre Daten?‘ Während einige dieser Berichte Gegenstand von ,Rosinenpickerei‘ hinsichtlich ihrer Start- und Endpunkte waren, um die Beweisführung dieser Leute noch deutlicher zu machen, gibt es kaum noch Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten IPCC-Simulationen im letzten Zustandsbericht (AR 5) angenommen. … Die Leugner lieben es, Trends mit dem Startzeitpunkt 1997 beginnen zu lassen, so dass der gewaltige El Nino von 1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der geringstmöglichen Neigung führt“.

Tatsächlich ist die Temperaturspitze des großen El Nino von 1998 weitgehend in der Berechnung des linearen Trends kompensiert, und zwar durch zwei Faktoren: der nicht unähnlichen Spitze des El Nino 2010 und der schieren Länge des Stillstands selbst.

Ersetzt man alle monatlichen RSS-Anomalien aus dem Jahr 1998 mit dem mittleren Anomaliewert von 0,55 K….

[Ich bitte um Verständnis, dass ich den folgenden Absatz nicht weiter übersetzt habe. Er beschreibt, warum hier eben keine Rosinenpickerei betrieben wurde. Er lautet: Replacing all the monthly RSS anomalies for 1998 with the mean anomaly value of 0.55 K that obtained during the 2010 el Niño and recalculating the trend from September 1996 [not Dr Mears’ “1997”] to September 2014 showed that the trend values “–0.00 C° (–0.00 C°/century)” in the unaltered data (Fig. 1) became “+0.00 C° (+0.00 C°/century)” in the recalculated graph. No cherry-picking, then.]

Die Länge der Großen Pause bei der globalen Erwärmung, so signifikant diese inzwischen auch ist, ist weniger bedeutsam als die immer größer werdende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und der in der realen Welt gemessenen weit geringeren Temperaturänderung.

Im Ersten Zustandsbericht des IPCC wurde vorhergesagt, dass die globale Temperatur bis zum Jahr 2025 um 1,0 (0,7; 1,5)°C steigen würde, das entspricht einem Äquivalent von 2,8 (1,9;4,2)°C pro Jahrhundert. In der Executive Summary wurde gefragt: „wie viel Vertrauen haben wir in unsere Vorhersagen?“ Das IPCC hat auf einige Unsicherheiten hingewiesen (Wolken, Ozeane usw.), kam aber dennoch zu der Schlussfolgerung:

„Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle die Ereignisse der Klimaänderung zumindest in groben Umrissen vorhersagen können … Es gibt Ähnlichkeiten zwischen den Ergebnissen der gekoppelten Modelle, die einfache Repräsentationen des Ozeans verwenden, und solchen, die kompliziertere Beschreibungen enthalten, und unser Verständnis solcher Differenzen, wie sie auftreten, verleiht uns einiges Vertrauen in die Ergebnisse“.

Dieses „substantielle Vertrauen“ war substantiell übermäßiges Vertrauen. Für die Rate der globalen Erwärmung seit 1990 gilt, dass sie nur halb so groß ist wie vom IPCC damals behauptet.

Link: http://wattsupwiththat.com/2014/11/07/on-climate-the-right-is-right-global-temperature-update-the-pause-is-still-18-years-1-month/

Übersetzt von Chris Frey EIKE




RSS: Keine globale Erwärmung seit 17 Jahren und 10 Monaten

[*Dieser Satz ist eine einzige unübersetzbare Wortspielerei und lautet im Original: „After a one-month pause in the lengthening of the pause, the lengthening pause is lengthening again”]

Abbildung 1: Monatliche globale Anomalien der Mitteltemperatur der unteren Troposphäre nach RSS (dunkelblau) und Trend (dicke hellblaue Linie). Im Zeitraum September 1996 bis Juni 2014 zeigt sich kein Trend, also bereits seit 17 Jahren und 10 Monaten.

Und doch ist die lange Dauer des Stillstands, trotz aller Signifikanz, die dieser Vorgang inzwischen gewonnen hat, von geringerer Wichtigkeit als die immer weiter wachsende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und der weitaus weniger begeisternden Temperaturänderung in der realen Welt, die beobachtet worden ist.

Im Ersten Zustandsbericht wurde vorhergesagt, dass die globale Temperatur bis zum Jahr 2025 um 1,0°C (0,7; 1,5°C) steigen würde, was einem Trend von 2,8°C (1,9; 4,2°C) pro Jahrhundert entsprechen würde. In der ‚Executive Summary‘ wurde gefragt: „Wie viel Vertrauen haben wir in unsere Vorhersagen?“ Das IPCC verwies auf einige Unsicherheiten (Wolken, Ozeane usw.), kam dann aber zu dem Ergebnis:

„Nichtsdestotrotz … haben wir substantielles Vertrauen, dass Modelle zumindest die groben Umrisse der Klimaänderung vorhersagen können … Es gibt Ähnlichkeiten zwischen Ergebnissen gekoppelter Modelle, die einfache Repräsentationen des Ozeans verwenden und jenen, die kompliziertere Beschreibungen nutzen, und unser Verständnis solcher Unterschiede, wie sie auftreten, gibt uns einiges Vertrauen in die Ergebnisse“.

Dieses „substantielle Vertrauen” war eine substantielle Vermessenheit. Ein Vierteljahrhundert nach 1990 beträgt das Ergebnis – ausgedrückt als ein linearer Regressionstrend kleinster Quadrate des Mittels der monatlichen globalen Temperaturanomalien nach RSS und UAH – 0,34°C. Das ist lediglich äquivalent zu einem Trend von 1,4°C pro Jahrhundert oder genau die Hälfte der zentralen Schätzung des IPCC (1990). Sie liegt noch deutlich unter selbst der niedrigsten Schätzung (Abbildung 2).

Abbildung 2: Kurzfristige Projektionen der Erwärmung mit einer Rate von 2,8°C (1,9; 4,2°C) pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ des IPCC (1990), Januar 1990 bis Juni 2014 (orange Fläche und rote Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und dem Trend (hellblau) bei einem Äquivalent von 1,4°C pro Jahrhundert. Mittel der monatlichen, mit Satelliten gemessenen Temperaturanomalien der unteren Troposphäre.

Der Stillstand ist ein wachsendes Ärgernis für jene, die uns mit „substantiellem Vertrauen“ verkündet haben, dass die Wissenschaft ‚settled‘ und die Debatte vorüber ist. Die Natur wollte es anders. Trotz zahlreicher mehr oder weniger plausibler Entschuldigungen für den Stillstand, die in nervösen begutachteten Journalen auftauchen, kann die Möglichkeit, dass der Stillstand einfach deswegen auftritt, weil die Computermodelle schlicht falsch sind, nicht mehr beiseite geschoben werden.

Bemerkenswerterweise sind auch noch die jüngsten und erheblich reduzierten kurzfristigen Projektionen der globalen Erwärmung des IPCC exzessiv (Abbildung 3).

Abbildung 3: Vorhergesagte Temperaturänderung, Januar 2005 bis Juni 2014 mit einer Rate äquivalent zu 1,7°C (1,0; 2,3°C) pro Jahrhundert (orange Fläche mit dicker roter Best Estimate-Trendlinie), verglichen mit den beobachteten Anomalien (dunkelblau) und dem Trend (hellblau).

Im Jahre 1990 lag die zentrale Schätzung hinsichtlich einer kurzfristigen Erwärmung um zwei Drittel höher als heute. Damals war es ein Äquivalent von 2,8°C pro Jahrhundert. Jetzt ist es ein Äquivalent von 1,7°C – und, wie Abbildung 3 zeigt, ist selbst das noch eine substantielle Übertreibung.

In den RSS-Satellitendaten hat es über 26 Jahre lang keine globale Erwärmung gegeben, die statistisch unterscheidbar von Null ist. Keines der Modelle hat vorhergesagt, dass es im Endeffekt ein Vierteljahrhundert lang keinerlei Erwärmung geben würde.

Der lange Stillstand könnte diesen Winter gut sein Ende finden. Ein El Niño-Ereignis hat begonnen. Die üblichen Verdächtigen haben gesagt, dass es ein Rekordereignis wird, aber bis jetzt gibt es viel zu wenig Informationen, um sagen zu können, zu wie viel vorübergehender Erwärmung es kommen könnte. Die Temperaturspitzen der El Niños von 1998, 2007 und 2010 treten in den Abbildungen 1 bis 3 klar hervor.

Zu einem El Niño kommt es etwa alle drei bis vier Jahre, obwohl sich niemand sicher ist, was sie auslöst. Sie verursachen eine vorübergehende Temperaturspitze, der oftmals ein scharfer Temperaturrückgang während der La Niña-phase folgt, wie man in den Jahren 1999, 2008 und 2011-2012 erkennen kann, als es eine La Niña mit einer „Doppelspitze“ gab.

Das Verhältnis von El Niños zu La Niñas tendiert dazu, in die 30-jährige negative oder Abkühlungsphase der Pazifischen Dekadischen Oszillation zu fallen. Die jüngste hat im Jahre 2001 begonnen. Selbst wenn also der Stillstand zum Jahreswechsel ein paar Monate lang pausieren oder gar verkürzen sollte, dürfte er sich spätestens Ende 2015 wieder einstellen. Wie auch immer, es wird immer klarer, dass die globale Erwärmung nicht einmal ansatzweise mit der von den Klimamodellen vorhergesagten Rate eingetreten ist, und es ist alles andere als wahrscheinlich, dass sie selbst mit der stark reduzierten vorhergesagten Rate eintritt. Es kann sein, dass die Erwärmung in diesem Jahrhundert gerade mal 1°C beträgt [wenn es nicht sogar kälter wird. Anm. d. Übers.]

Schlüsselfakten über die globale Temperatur:

Ø Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung während der 214 Monate von September 1996 bis Juni 2014. Das sind 50,2% der Zeitspanne mit Satellitenbeobachtungen von 426 Monaten.

Ø Die höchste gemessene Erwärmungsrate pro Jahrhundert gab es in Mittelengland von 1663 bis 1762 mit einer Rate von 0,9°C pro Jahrhundert – vor der industriellen Revolution. Das war nicht unsere Schuld.

Ø Der Trend der globalen Erwärmung seit 1900 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und dürfte mit uns nicht viel zu tun haben.

Ø Der höchste Erwärmungstrend über 10 Jahre oder mehr trat innerhalb der 40 Jahre von 1694 bis 1733 in Mittelengland auf. Er war äquivalent zu 4,3°C pro Jahrhundert.

Ø Seit 1950, als der menschliche Einfluss auf die globale Temperatur erstmals theoretisch möglich war, lag der Trend der globalen Erwärmung äquivalent zu 1,2°C pro Jahrhundert.

Ø Die höchste Erwärmungsrate über zehn Jahre oder mehr seit 1950 war während der 33 Jahre von 1974 bis 2006 aufgetreten. Sie war äquivalent zu 2,0°C pro Jahrhundert.

Ø Im Jahre 1990 lag die mittlere Schätzung des kurzfristigen Erwärmungstrends seitens des IPCC äquivalent zu 2,8°C pro Jahrhundert, also um zwei Drittel über deren jetziger Vorhersage.

Ø Der globale Erwärmungstrend seit 1990, als das IPCC seinen ersten Bericht geschrieben hat, ist äquivalent zu 1,4°C pro Jahrhundert – die Hälfte dessen, was das IPCC damals vorhergesagt hat.

Ø Im Jahre 2013 lag die neue mittlere Schätzung des kurzfristigen Erwärmungstrends bei einer Rate von nur 1,7°C pro Jahrhundert. Selbst das ist übertrieben.

Ø Obwohl das IPCC seine kurzfristige Erwärmungs-Vorhersage gekappt hat, hat es nicht seine Business-as-Usual-Vorhersage von 4,8°C bis zum Jahr 2100 gekappt.

Ø Die vom IPCC vorhergesagte Erwärmungsrate bis 2100 ist mehr als doppelt so hoch wie die höchste Erwärmungsrate über zehn Jahre oder mehr, die seit 1950 gemessen worden ist.

Ø Die IPCC-Vorhersage von 4,8°C bis zum Jahr 2100 ist fast das Vierfache des in der realen Welt beobachteten Erwärmungstrends, seit wir in der Theorie Einfluss auf die Temperatur hätten ausüben können, also 1950.

Ø  Seit dem 1. Januar 2001, dem Beginn des neuen Jahrtausends, ist der Erwärmungstrend des Mittels von fünf Datensätzen Null. Keine Erwärmung seit 13 Jahren und 5 Monaten.

Ø Jüngste Extremwetterereignisse können nicht mit der globalen Erwärmung in Verbindung gebracht werden, weil es keine globale Erwärmung gegeben hat. So einfach ist das.

Technische Anmerkung

Unsere jüngste Themengraphik zeigt den RSS-Datensatz für die 214 Monate von September 1996 bis Mai 2014 – über die Hälfte des 426 Monate langen Zeitraumes mit Satellitenaufzeichnungen.

Terrestrische Temperaturen werden mit Thermometern gemessen. Thermometer, die korrekt in ländlichen Gebieten aufgestellt sind, also weit entfernt von menschlichen Wärmequellen, zeigen eine Erwärmung deutlich unter derjenigen, die veröffentlicht wird. Die Satelliten-Datensätze basieren auf Messungen der akkuratesten verfügbaren Thermometer – Platin-Widerstand-Thermometer, die nicht nur Temperaturen in verschiedenen Höhen über der Erdoberfläche messen (via Mikrowellen-Sounding-Geräten), sondern sich auch ständig selbst kalibrieren via in das Weltall gerichteter Spiegel und der bekannten Temperatur der kosmischen Hintergrundstrahlung, die 1% des Gefrierpunktes von Wasser ausmacht oder 2,73 Grad über dem Absoluten Nullpunkt liegt. Nur durch die Messung winziger Variationen der kosmischen Hintergrundstrahlung hat die NASA das Alter des Universums errechnet: 13,82 Milliarden Jahre.

Die Graphik ist akkurat. Die Daten sind direkt monatlich von der RSS-Website geladen worden. Ein Computer-Algorithmus liest sie aus dem File, nimmt den Mittelwert und plottet diesen automatisch mittels einer fortschrittlichen Routine, die automatisch das Verhältnis des Datenfensters auf beiden Achsen adjustiert, um die Daten mit maximaler Größenordnung zu zeigen.

Der letzte monatliche Datenpunkt wird durch Augenschein inspiziert um sicherzustellen, dass er korrekt dargestellt wurde. Die hellblaue Trendlinie über der dunkelblauen Profilkurve, die die tatsächlichen Daten zeigt, wird bestimmt durch die Methode einer linearen Regression kleinster Quadrate, die den Schnittpunkt mit der Y-Achse und Neigung der Linie berechnet mittels zwei etablierten und funktionell identischen Gleichungen, die miteinander verglichen werden um sicherzustellen, dass es zwischen ihnen keine Diskrepanz gibt. Das IPCC und die meisten anderen Agenturen benutzen eine lineare Regression, um globale Temperaturtrends zu berechnen. Prof. Phil Jones von der University of East Anglia fordert dies in einer der Klimagate-E-Mails. Die Methode ist geeignet, weil die globalen Temperaturaufzeichnungen kaum Autoregression aufweisen.

Dr. Stefan Farish, Professor für epidemiologische Statistik an der University of Melbourne, hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ überprüft, der den Trend des Graphen bestimmt sowie den Korrelations-Koeffizienten, der sehr niedrig ist, weil der Trend trotz der hoch variablen Daten flach verläuft.

Link: http://wattsupwiththat.com/2014/07/03/rss-shows-no-global-warming-for-17-years-10-months/#more-112409

Übersetzt von Chris Frey EIKE




Ende eines Irrtums

Inzwischen zweifelt kein ehrlicher Wissenschaftler mehr daran, dass die offiziellen Schätzungen der Klimasensitivität, auf deren Grundlage die Regierungen Billionen locker machen, Übertreibungen sind. Und doch verstärken die Regierungen – vor allem die hart Linken – noch ihre Bemühungen, die Steuerzahler auszurauben und die Finanziers ihrer politischen Opponenten, der Unternehmen fossiler Treibstoffe, durch unmäßige Vorschriften ihre Existenzgrundlage zu entziehen.

Klima-extremistische Regierungen sind dabei, den Bankrott anzustreben – oder vielmehr Sie und mich bankrott zu machen – weil sie ebenfalls nur zu genau wissen, dass unser Einfluss auf das Klima viel zu gering ist, um es tatsächlich oder potentiell gefährlich werden zu lassen. Aber nach all ihrer widerlichen, weinerlichen Rhetorik hinsichtlich der dringenden Notwendigkeit, den Planeten zu retten [im Original groß geschrieben: to Save The Planet], können sie nicht als vollkommen falsch gesehen werden. Ihre Zaubereien dürfen nie an das Tageslicht kommen. Man ignoriere den Mann hinter dem Vorhang. Man schenke jedwedem Beweis aus der realen Welt keinerlei Aufmerksamkeit!

Die einzige Fluchtmöglichkeit für linke Regierungen und ihre akademischen Kumpane in der wissenschaftlichen Gemeinschaft sowie bei den Medien für die Demütigungen, die sie verbreiten, wäre anderenfalls unvermeidlich die Konfrontation mit Vorwürfen des Betrugs seitens der umschmeichelten nicht-linken Regierungen, die kollektiv weltweit die CO2-Konzentrationen kappen sollen. Dann, wenn sich die Temperatur weigert, weiter zu steigen – und sie wissen inzwischen, dass sie sich weigert – werden sie behaupten, dass ihre Maßnahmen zur CO2-Reduktion den Planeten gerettet haben, obwohl dieser von Anfang an gar nicht in Gefahr war. Es ist eine einfache, aber gefährliche Strategie, die in den marxistischen Main-Stream-Medien* niemals beschrieben, geschweige denn in Frage gestellt wird.

[*Unübersetzbares Wortspiel. Im Original steht statt ‘mainstream-media’ der Begriff ‘Marxstream media]

Sie könnten damit durchkommen. Nächstes Jahr in Paris (falls sie keinen Erfolg damit haben, uns überraschend schon in diesem Jahr zu erreichen), werden sie hoffen, die Regierungen überreden zu können, einen bindenden Klimavertrag zu unterzeichnen, der sich in keiner Hinsicht von dem unterscheidet, was in Kopenhagen gescheitert ist.

Alle Personen, die dies eventuell stoppen könnten, werden in Las Vegas sein. Falls Sie auch darunter sind, werden Sie sofort ein Zimmer im Mandalay Bay Resort and Casino buchen müssen (siehe Bild). Mehr Details bei www.heartland.com.

•••

Anmerkung des Übersetzers: Es folgen noch einige Absätze über die Spielernatur des Tagungsortes Las Vegas. Für die Thematik hier sind diese nicht so relevant, weshalb ich hier auf die Übersetzung verzichte. Anders als normal hat Monckton hier in einem recht einfach zu verstehenden Englisch geschrieben.

Link: http://wattsupwiththat.com/2014/06/06/end-of-an-error/

Übersetzt von Chris Frey EIKE