1

EPA lässt schon wieder unbequeme Klimadaten verschwinden…

Indem die EPA die zuvor schon gezeigten Daten unvollständig wiedergibt, führt sie die Öffentlichkeit in die Irre, indem sie mit den Daten Schindluder treibt. Die Website Climate Realism zeigte als Erstes diesen Vorgang des Verschwindenlassens von Daten in dem Report National Fire Center Disappears ‘Inconvenient’ U.S. Wildfire Data.

Jetzt macht die EPA das Gleiche – sie löscht wichtige historische Temperaturdaten. Die EPA hat ihre frühere Webseite Climate Change Indicators: High and Low Temperature gelöscht und durch eine neue ersetzt. Zuvor zeigten sie den U.S. Heat Wave Index von 1895 bis 2015, der eindeutig die einzigartige Dürre- und Hitzeperiode der 1930er Jahre dokumentiert hatte.

Glücklicherweise vergisst das Internet nie, und erst am 1. Mai 2021 wurde die ursprüngliche EPA-Site im Internet archiviert, so wie in Abbildung 1 dargestellt:

Abbildung 1. Frühere EPA-Grafik vor der Änderung der Biden-Administration mit Daten von 1895 bis 2015.

Beachten Sie in Abbildung 1, dass es einen sehr auffälligen Temperaturanstieg in den 1930er Jahren während der sogenannten „Dust Bowl“-Periode in der Geschichte der USA gibt. Laut dem National Weather Service:

Die ‚Dust Bowl‘-Jahre von 1930-36 brachten den Vereinigten Staaten einige der heißesten Sommer, die jemals aufgezeichnet wurden, insbesondere in den Ebenen, dem oberen Mittleren Westen und den Staaten am Großen See. Im oberen Mississippi-Tal wurden in den ersten Juliwochen des Jahres 1936 die höchsten Temperaturen dieser Periode gemessen, darunter viele neue Rekordwerte.

Die Reihe von heißen, trockenen Tagen war auch tödlich. Landesweit wurden etwa 5000 Todesfälle mit der Hitzewelle in Verbindung gebracht.

Diese langjährige Hitzewellen-Index-Tabelle wurde nun durch eine neue Tabelle ersetzt, die jede Vorstellung von der großen Hitzewellen-Periode der 1930er Jahre einfach „verschwinden“ lässt. Die EPA löschte die früheren Daten und ersetzte sie durch Daten, die für ein alarmistisches Narrativ passender sind, wie Abbildung 2 unten zeigt:

Abbildung 2. Neue EPA-Karte nach dem Wechsel der Biden-Administration mit Daten von 1910 bis 2015.

Die EPA hat auch eine weitere neue Seite Climate Change Indicators: Heat Waves hinzugefügt, die nicht einmal die „Dust Bowl“ der 1930er Jahre enthält. Stattdessen beginnt die Auflistung der EPA in den 1960er Jahren, einem Hitzewellen-Minimum im 20. Jahrhundert, wie in Abbildung 3 zu sehen ist. Indem die EPA die neuen Diagramme in den 1960er Jahren beginnt, anstatt alle verfügbaren Daten bis 1895 zurück zu verwenden, stellt sie einen künstlichen positiven und ununterbrochenen Aufwärtstrend bei Hitzewellen sicher.

Abbildung 2. Neue EPA-Karte nach dem Wechsel der Biden-Administration mit Daten von 1910 bis 2015.

Positiv zu vermerken ist, dass die EPA die ursprüngliche Seite Climate Change Indicators: Drought beibehalten hat, die in Abbildung 4 zu sehen ist. Diese zeigt keinen sich verschärfenden Dürretrend in den Vereinigten Staaten. Angesichts der jüngsten Änderungen der anderen EPA-Diagramme ist dieses nicht alarmistische Dürre-Diagramm auf der EPA-Webseite wahrscheinlich nicht mehr lange zu sehen.

Abbildung 4. EPA-Seite Klimawandel-Indikatoren: Dürre

Zu Beginn der Seite Climate Change Indicators macht die EPA einige nachweislich falsche Aussagen:

Das Klima der Erde verändert sich. Die Temperaturen steigen, Schnee- und Niederschlagsmuster verschieben sich, und extremere Klimaereignisse – wie schwere Regenstürme und Rekordtemperaturen – treten bereits auf. Viele dieser beobachteten Veränderungen stehen im Zusammenhang mit dem steigenden Gehalt an Kohlendioxid und anderen Treibhausgasen in unserer Atmosphäre, verursacht durch menschliche Aktivitäten.

Die Entscheidung, die Geschichte der Wetter- und Klimadaten auszulöschen, macht deutlich, dass das Anfangsargument der EPA schwach ist und auf Rosinenpickerei von denjenigen Daten basiert, die nur mit ihrer Prämisse übereinstimmen.

Es scheint, dass wir die sowjetische Ära der „verschwindenden“ Diagramme und Daten betreten haben. Wenn die neue Klimawandel-Indikatoren-Serie der EPA ein Hinweis auf die zukünftigen Klimaberichte der Regierung ist, scheint es, dass wir jetzt in die Biden-Ära der „Säuberung unbequemer Klimadaten“ eintreten.

Anthony Watts is a senior fellow for environment and climate at The Heartland Institute. Watts has been in the weather business both in front of, and behind the camera as an on-air television meteorologist since 1978, and currently does daily radio forecasts. He has created weather graphics presentation systems for television, specialized weather instrumentation, as well as co-authored peer-reviewed papers on climate issues. He operates the most viewed website in the world on climate, the award-winning website wattsupwiththat.com.

Link: https://climaterealism.com/2021/05/epa-disappears-more-inconvenient-climate-data-including-the-1930s-u-s-dust-bowl/

Übersetzt von Chris Frey EIKE

 




Die EPA „liquidiert“ die Daten der Hitze- und Dürreperiode der 1930er Jahre

Diese seit Langem unbestrittene Klimadaten-Graphik ist jetzt durch eine Graphik ersetzt worden, in welcher jeder Hinweis auf diese große Hitze- und Dürreperiode einfach „verschwunden“ ist:

Außerdem hat die EPA eine weitere Graphik mit „Hitzewellen“-Klimadaten hinzugefügt, welche die Periode aus den 1930er Jahren überhaupt nicht mehr enthält, liegt doch deren Startzeitpunkt in den 1960er Jahren:

Die Graphik bzgl. Dürren in den USA ist noch die gleiche, aber angesichts der Daten-Manipulationen in den anderen Graphiken dürfte sie vielleicht nicht mehr lange vorhanden sein:

Es sieht so aus, als wäre die Ära aus Sowjet-Zeiten angebrochen mit „verschwindenden“ Graphiken und Daten – aber jetzt in der Ära der „Klimawissenschafts-Säuberung unter Biden“.

Link: https://wattsupwiththat.com/2021/05/21/epa-disappears-the-1930s-drought-and-heat-wave-climate-data/

Übersetzt von Chris Frey EIKE

 




HadCRUT5 zeigt seit 1850 eine um 14% stärkere globale Erwärmung als HadCRUT4

Dies war nicht genug. Wie die endlos angepassten GISS-, RSS- und NCEI-Datensätze hebt HadCRUT5 den Trend an – und zwar um erschreckende 14%. Die übliche Methode wird angewandt: Man korrigiert die früheren Temperaturen nach unten (wir wissen so viel besser, wie die Temperatur vor anderthalb Jahrhunderten war, als die Inkompetenten, die die Messungen damals durchgeführt hatten) und korrigiert die späteren Temperaturen nach oben, mit dem Effekt, dass der Trend steiler wird und die scheinbare Erwärmung zunimmt.

Natürlich werden ausführliche Begründungen für die Änderungen geliefert. Es liegt jenseits meiner Gehaltsklasse, diese zu bewerten. Es ist jedoch bezeichnend, dass die stark manipulierten GISS-, HadCRUT-, RSS- und NCEI-Datensätze von Klimafanatikern verwaltet werden, während der UAH-Datensatz – der einzige der großen Fünf, der in die andere Richtung gegangen ist – von Klimaskeptikern verwaltet wird.

Ich kenne die beiden Skeptiker, die den UAH-Datensatz aufbewahren. Sie sind ehrenwerte Männer, deren einziges Ziel es ist, so gut sie können, die wahre Rate der globalen Erwärmung zu zeigen. Aber ich traue dem GISS-Datensatz nicht, der wiederholt und verwerflich von seinen Bewahrern manipuliert wurde. Ich traue auch RSS nicht: Als Ted Cruz unser Diagramm zeigte, das die 18 Jahre und 9 Monate der letzten großen Pause in der globalen Temperatur zum sichtbaren Unbehagen der „Demokraten“ im Senat belegte, sagte ich voraus, dass der Verwalter des RSS-Datensatzes, der Skeptiker als „Klimaleugner“ bezeichnet, ihn manipulieren würde, um die Pause verschwinden zu lassen. Ein oder zwei Monate später kündigte er an, dass er genau das tun würde, und genau das tat er dann auch. Was HadCRUT betrifft, lesen Sie einfach die Harry-Read-Me-Datei, um zu sehen, in welch hoffnungslosem Zustand sich das befindet.

Und der NCEI-Datensatz stand viele Jahre lang unter dem Einfluss des unseligen Tom Karl. Ich habe einmal neben ihm im Repräsentantenhaus ausgesagt, wo er versuchte zu behaupten, dass meine Behauptung, dass es fast ein Jahrzehnt der globalen Abkühlung gegeben habe, unbegründet sei – obwohl sein eigener Datensatz (wie auch alle anderen) genau das zeigte.

HadCRUT5 zeigt einen Trend von 1,04 K von 1850-2020, oder drei Fünftel Grad pro Jahrhundert, was einem Anstieg von 14% gegenüber dem Trend von 0,91 K der HadCRUT4-Daten entspricht:

Aus dem HadCRUT5-Trend kann man berechnen, wie viel Erwärmung letztendlich zu erwarten wäre, wenn wir das CO2 in der Luft im Vergleich zu 2020 verdoppeln würden. Man muss auch den anthropogenen Nettoantrieb seit 1850 kennen (2,9 W/m²); das planetarische Energie-Ungleichgewicht, das durch die Verzögerung der Rückkopplung verursacht wird (0,87 W/m²); den verdoppelten CO2-Strahlungsantrieb (3. 52 W/m² als Mittelwert in den CMIP6-Modellen); den anthropogene Anteil der beobachteten Erwärmung (70 %); der exponentielle Wachstumsfaktor, der mehr Wasserdampf in wärmerer Luft erlaubt (7 % pro Grad direkter Erwärmung); und der Planck-Sensitivitäts-Parameter (0,3 K/Wm²).

Alle diese Werte sind recht aktuell, weil alle damit beschäftigt waren, die Daten für die nächste mehrtausendseitige Horrorgeschichte des IPCC auf Vordermann zu bringen, die später in diesem Jahr erscheinen soll. Die Berechnungen sind in der Tabelle zusammengefasst. Die sieben Eingangsparameter habe ich nach drei Kriterien ausgewählt: Sie sollten aktuell sein, im mittleren Bereich liegen und dem Mainstream entsprechen, d.h. aus Quellen stammen, die die Klimafanatiker akzeptieren würden.

Das Industriezeitalter von 1850-2020 ist der Basiszeitraum für die Berechnung der Rückkopplungsreaktion pro Grad Referenzsensitivität über den Zeitraum. Diese stellt sich als 0,065 heraus. Dann findet man die Einheitsrückkopplungsantwort für den 100- bis 150-Jahres-Zeitraum von 2020 (415 ppmv CO2) bis 830 ppmv CO2, indem man die Einheitsrückkopplungsantwort erhöht, um zusätzlichen Wasserdampf in wärmerer Luft zu berücksichtigen.

Schließlich multipliziert man die Referenzsensitivität von 1,053 K bei verdoppeltem CO2 mit dem Systemgewinnfaktor, der die Rückkopplungsreaktion der Einheit plus 1 ist: Die mittlere Gleichgewichtsempfindlichkeit bei verdoppeltem CO2, bekannt als ECS, stellt sich als nur 1,1 K heraus. Wenn man den HadCRUT4-Erwärmungstrend verwenden würde, wäre ECS weniger als 1 K. Ich hatte zuvor vermutet, dass der HadCRUT5-Trend 1,1 K betragen würde, was 1,2 K ECS impliziert.

Man vergleiche diese kleinen und harmlosen Werte im mittleren Bereich mit den offiziellen CMIP6-Vorhersagen: untere Grenze 2 K; mittlere Grenze 3,7 K; obere Grenze 5,7 K; ujtopischer Rand 10 K.

Man kann sich ausrechnen, um wie viel größer die Einheitsrückkopplung nach 2020 im Vergleich zur Einheitsrückkopplung von 1850-2020 wäre, wenn diese absurd überhöhten Vorhersagen der neuesten Modellgeneration richtig wären: untere Grenze 14, mittlere Grenze 19, obere Grenze 67, utopische Grenze 130.

Diese aufschlussreichen Zahlen zeigen, wie wahnsinnig und ungeheuerlich übertrieben die offiziellen Vorhersagen zur globalen Erwärmung sind. Es gibt keine physikalische Grundlage für die Annahme, dass die Einheitsrückkopplung ab 2020 auch nur das 14-fache der Einheitsrückkopplung von 1850-2020 betragen wird. Sie könnte höchstens etwa das 1,1-1,2-fache der früheren Einheitsrückkopplung betragen. Daher ist sogar die von den Modellen vorhergesagte untere Grenze der globalen Erwärmung von 2 K, die X = 14 impliziert, weit übertrieben.

Dies ist der einfachste Weg, um zu zeigen, dass die Vorhersagen der Modelle zur globalen Erwärmung ohne einen Funken Legitimität oder Glaubwürdigkeit sind. Sie sind ausgeklügelte Fiktionen. Sie leiden unter zwei Mängeln: Sie sind grob überzogen und entsprechend schlecht berechnet.

Denn, wie die Grafik zeigt, ist die ECS-Antwort auf Rückkopplungsanteile rechteckig-hyperbolisch. Der in den lächerlichen Vorhersagen der Modelle implizit enthaltene Rückkopplungsanteil (der Anteil des ECS, der durch die Rückkopplungs-Reaktion repräsentiert wird), übersteigt im Allgemeinen 0,5: aber es gibt absolut unmöglich, dass der Rückkopplungsanteil in einem nahezu perfekt thermostatischen Klima auch nur annähernd 0,5 betragen könnte. Als ich diese Grafik zum ersten Mal einer Gruppe von IPCC-Leitautoren zeigte, hörten sie plötzlich mit dem Spott auf, dem sie den größten Teil meines Vortrags unterworfen hatten. Plötzlich verstummte der führende Spötter und sagte dann: „Haben Sie das veröffentlicht?“

Nein, sagte ich, denn zu diesem Zeitpunkt hatte ich noch nicht herausgefunden, was die Klimatologen falsch gemacht hatten. „Nun, Sie müssen veröffentlichen“, sagte er. „Das ändert alles.“

Das tut es auch. Aber die Veröffentlichung wird sehr schwierig werden, nicht weil wir falsch liegen, sondern weil wir richtig liegen. Wenn es nur wenig mehr als 1 K anthropogene Erwärmung im nächsten Jahrhundert oder so geben wird, gibt es absolut keine Notwendigkeit, etwas zu tun, um dies zu verhindern. Die Abwanderung wichtiger Produktionsindustrien nach China, das mächtig von dem Klimabetrug profitiert, der im Westen von den dies subventionierenden katzbuckelnden Frontgruppen verführerisch gefördert wird, kann und sollte rückgängig gemacht werden.

Wir unternehmen Schritte, um die britische Regierung zu zwingen, der Wahrheit Beachtung zu schenken, dass die globale Erwärmung nicht mehr als ein Drittel der gegenwärtigen offiziellen Vorhersagen im mittleren Bereich betragen wird und dass daher kein Netto-Schaden daraus entstehen wird. Man verfolge, wie das jetzt weitergeht..

Link: https://wattsupwiththat.com/2021/02/21/hadcrut5-shows-14-more-global-warming-since-1850-than-hadcrut4/

Übersetzt von Chris Frey EIKE

 




Wie genau sind unsere Messungen bzgl. Wetter und Klima?

Heute dagegen brauchen wir beispielsweise auf einem Flug von New York nach Los Angeles detailliertere und zuverlässigere Wetterinformationen, wie z. B. ob es bei der Zwischenlandung in St. Louis schneit. Oder der Landwirt in Nebraska, der die Vorhersage für die Frühjahrsweizenproduktion in der Ukraine sehen muss. Er braucht die bestmöglichen Informationen, um besser abschätzen zu können, wie viele Hektar Winterweizen er für die heutigen globalen Märkte anbauen sollte.

Wir brauchen vor allem bessere und zuverlässigere Informationen, um zu entscheiden, welche Maßnahmen wir zur Vorbereitung auf Klimaveränderungen in Betracht ziehen sollten.

Während Wissenschaftler, Ingenieure und Software-Programmierer die Bedeutung und die Notwendigkeit dieser Datengenauigkeit kennen, ist sich die breite Öffentlichkeit nicht bewusst, wie herausfordernd diese Aufgaben sein können.

Wenn wir langfristige Klimadaten betrachten, müssen wir unter Umständen mehrere Proxies (indirekte Messgrößen, von denen wir hoffen, dass sie direkt mit dem Wetter variieren) verwenden, die eine zusätzliche Ebene von Komplexität, Kosten und Fehlerquellen hinzufügen. Einer der am häufigsten verwendeten Proxies sind die alten Temperatur- und CO2-Werte aus Eiskernproben. In den letzten paar hundert Jahren waren auch Baumringdaten eine primäre Quelle für die Jahrestemperaturen. Aber seit dem letzten halben Jahrhundert werden direkte atmosphärische Messwerte verwendet, die sehr genau und zuverlässig sind.

Aus Abbildung 1 geht hervor, dass der CO2-Gehalt ab Mitte der 1950er Jahre dramatisch anstieg. Wir haben aufgehört, Proxies zur Messung des atmosphärischen CO2-Gehalts zu verwenden, und haben begonnen, direkte Messwerte von der Mauna Loa Wetterstation auf Hawaii zu verwenden. Wir müssen uns also fragen, ob dieser dramatische Anstieg des CO2-Gehalts real war, oder ob er durch die Änderung des Messverfahrens teilweise verzerrt wurde. Oder wir haben in den frühen 1960er Jahren aufgehört, Baumringdaten zu verwenden. In der Zeit, als wir sowohl Baumring- als auch Thermometer-Aufzeichnungen hatten, wurden gewisse Diskrepanzen festgestellt. Wir können solche Änderungen in den Messungen nicht vornehmen, ohne Raum für Zweifel zu lassen.

Abbildung 1 zeigt zum Beispiel den CO2-Gehalt der Jahrtausende alten antarktischen Eisschilde. Vor Mitte der 1950er Jahre wurden die CO2-Schätzungen auf der Grundlage des CO2-Gasgehalts der Eisbohrkerne berechnet. Die auf diese Weise gemessenen CO2-Gehalte schienen über einen Zeitraum von mehreren zehntausend Jahren nie viel über 280 ppm zu steigen.

Man beachte nun, dass wir, beginnend vor etwa 6.000 Jahren, einen kleinen, aber stetigen Anstieg sehen, wenn wir von links nach rechts schauen. Und der Anstieg scheint bis Mitte der 1990er Jahre einigermaßen konstant zu sein. Hier ist die klassische Annahme, dass sowohl das CO2 als auch die Temperaturen gestiegen sind.

Kürzlich haben sich Wissenschaftler die abwärts gehende Neigung angesehen, wenn wir in den 1950er Jahren stehen und von rechts nach links schauen. Dabei stellt sich die Frage, ob das CO2 durch das enorme Gewicht der Gletscher herausgedrückt wird, während sie altern, und vielleicht auch in Kombination mit CO2, das chemisch gebunden wird, und in welchen Anteilen. Ab Mitte der 1950er Jahre sehen wir einen sehr deutlichen und schnellen Anstieg der CO2-Werte, und wir sehen die inzwischen bekannten CO2-Hockeyschläger. Ist das CO2 so schnell angestiegen, oder war es Teil der Anomalie, die durch die Änderung der Messmethoden verursacht wurde? Wir denken Letzteres.

Woher soll der Durchschnittsbürger das wissen? Wurde diese dramatische Veränderung jemals genau und verständlich erklärt? Wir wollen das erst einmal allgemeiner als „Datenintegrität“ bezeichnen.

Hier ist ein weiteres einfaches Beispiel. Wenn wir die Temperatur in der Gegend von Boston vor 200 Jahren messen wollten, hätten wir vielleicht zwanzig Thermometer an zwanzig verschiedene Orte gebracht. Wir hätten einige allgemeine Entscheidungen getroffen, einige entlang der Küste und den Rest an verschiedenen Stellen in der Stadt und auf dem Land zu platzieren – vor allem auf Bauernhöfen. Wir hätten vielleicht nur ein oder zwei in den Bergen oder Wäldern aufgestellt, weil diese Stationen bemannt sein und die Daten mehrmals am Tag aufgezeichnet werden mussten. Dann, vielleicht ein- oder zweimal pro Tag oder Woche oder Monat, könnten sie konsolidiert worden sein, um eine durchschnittliche „Boston-Temperatur“ für Oktober 1820 zu erhalten. Wie würde es aussehen, wenn die Boston-Temperatur im Oktober 1920 bzw. 2020 verglichen werden, um zu sehen, ob sie gestiegen ist oder nicht? Nun, das stellt eine ziemliche Herausforderung dar:

In den letzten hundert Jahren könnten einige Bäume um das Thermometer herum gewachsen sein, während die Thermometer im Jahr 1920 vielleicht den ganzen Tag in der vollen Sonne standen. Was nun?

● Einige Instrumente wurden aus irgendeinem Grund verschoben, z. B. wegen einer großen Autobahnbaustelle; wie hat sich das auf die Temperaturmesswerte ausgewirkt?

● Einige Instrumente könnten nach und nach für Monate oder sogar Jahre nicht mehr kalibriert worden sein, bevor sie repariert oder ersetzt wurden. Was machen wir mit den verdächtigen Daten während des fraglichen Zeitraums? Ignorieren?

● Wenn die Instrumente ersetzt wurden, wie wurden sie ersetzt? Einige Variablen sind die gleiche Höhe über dem Boden, der gleiche Schutzkasten, Quecksilber ersetzt durch Alkoholthermometer oder Thermoelemente, usw.

● Eine Wetterstation befand sich in der Nähe einer unbefestigten Straße, bis sie 1926 mit Zement und 1963 mit Asphalt bedeckt wurde? Später wurde sie wieder zu einem Feldweg umgestaltet, als das Gebiet 2004 zu einem Naturpark wurde?

● Wie würden wir diese Temperaturen[iii] mit den Temperaturen bis zum Jahr 2020 vergleichen, kontrastieren und integrieren? Sehr unterschiedlich und sehr herausfordernd:

1) Instrumente, die einst auf einer Weide standen, befinden sich jetzt in der Nähe von Flughafenlandebahnen und Düsenabgasen!

2) Ein anderes war in der Nähe einer schattigen, sandigen Straße, die jetzt ein asphaltierter Parkplatz ist.

3) Thermoelemente haben viele Thermometer ersetzt; wie wurden die Messwerte „zusammengestoppelt“?

4) Andere Wetterstationen wurden einfach wegen der hohen Kosten für ihre Wartung aufgegeben oder durch ein ferngesteuertes Thermoelement oder Telemetrie ersetzt.

5) Wie kann man[i] die Auswirkungen der Umweltverschmutzung der 1960er bis 1990er Jahre mit dem unberührten Himmel der 1800er Jahre in Einklang bringen, wenn Wolken eine so wichtige Rolle spielen?

6) Und die Wolkendecke von 1820 war wahrscheinlich ganz anders als heute, als Folge der zunehmenden Menge an „Aerosolen“, die eine wichtige Rolle bei der Wolkenbildung, dem „Treibhaus“- und dem „Albedo“-Effekt spielen.

In den letzten Jahrzehnten, und vor allem seit der Satelliten-Ära, wurden Hunderte von erdgebundenen Wetterstationen aus verschiedenen Gründen aufgegeben, unter anderem aus Kostengründen und wegen der Zuverlässigkeit der Daten. In den letzten Jahrzehnten haben die NASA und die NOAA versucht, aktuelle und historische Wetteraufzeichnungen an Land und auf dem Meer zu „normalisieren“. Abbildung 2 zeigt zwei Sätze von genau denselben Daten! Die blaue Linie repräsentiert die tatsächlichen landbasierten Temperaturen von 1.218 Stationen in den USA, als die Messwerte aufgenommen wurden. Man vergleiche das mit der roten Linie, die genau die gleichen Temperaturaufzeichnungen darstellt, aber nachdem sie von der NOAA „normalisiert“ wurden*.

*In einem Beitrag bei Real Climate Science wird schon Ende 2016 festgestellt: „Das Problem mit der NOAA-Graphik besteht darin, dass es Fake-Daten sind. Die NOAA erzeugt den Erwärmungstrend künstlich mittels Veränderung der Daten. Die RohDaten der NOAA zeigen im vergangenen Jahrhundert keinerlei Erwärmung“.

„Normalisierung“ hat eine praktische Grundlage. Es ist ein bisschen so, als würde man die Menge des Obstes berechnen, wenn man Äpfel zu Orangen addiert. Allerdings ist der Prozess anfällig für fehlerhafte Annahmen und Ausführung. Der prominente Umweltwissenschaftler Donald Easterbrook behauptet, dass die bisherigen historischen Aufzeichnungen absichtlich manipuliert wurden, wie in Abb. 2 dargestellt. Es wurde der Vorwurf erhoben, dass diese Temperaturen verzerrt wurden, um in das aktuelle Narrativ des CO2-induzierten globalen Klimawandels zu passen. Die historischen Daten der blauen Linie wurden in den letzten Jahrzehnten mindestens viermal verändert, und nun in ihrer endgültigen Form zeigt die rote Linie einen dramatischeren, steileren Temperaturanstieg seit den 1980er Jahren, indem die Temperaturen in den vorangegangenen Jahrzehnten gesenkt wurden! Wenn wir heute aufgefordert werden, Multi-Billionen-Dollar-Entscheidungen zu treffen, die auf unserer Temperaturhistorie des letzten Jahrhunderts basieren, sind sie schwerwiegend und folgenreich geworden.

For more information we recommend our book A Hitchhikers Journey Through Climate Change, coming soon to the CFACT store at CFACT.org.

[i] http://www.clker.com/clipart-thermometer-in-beaker.html

Autoren: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Terigi Ciccone is an Engineer, Science Enthusiast and Artist. Loves reading and travel, Naturalist, Author of the new book “A Hitchhiker’s Journey Through Climate Change.”

Link: https://www.cfact.org/2021/01/05/how-accurate-are-our-weather-and-climate-measurements/

Übersetzt von Chris Frey EIKE

 




Wie und warum NASA und NOAA Klimadaten manipulieren

Dieselben Klima-Alarmisten behaupten auch, dass Realisten „von Interessen fossiler Brennstoffe finanziert werden“ und daher verdächtige Motive haben. Nach Ansicht der Alarmisten sind Realisten nicht daran interessiert, Fakten und objektive Wahrheiten zu verbreiten, da ihre eigentliche Absicht darauf ausgerichtet sein muss, irgendeine Art von Vermögensinteresse zu schützen.

Sind diese beiden Argumente wirklich fundiert? Wenn ja, sollten sie dann nicht auch auf Alarmisten angewandt werden?

Was würde mit der Stichhaltigkeit der Argumente der Alarmisten geschehen, wenn sie tatsächlich diejenigen sind, die es versäumen, „der Wissenschaft zu folgen“? Was wäre, wenn ihre Motive weniger in der „Rettung des Planeten“ als vielmehr in der Arbeitsplatzsicherheit liegen würden? Was ist, wenn die Hüter der „Wissenschaft“ – die National Aeronautics and Space Administration (NASA) und die National Oceanic and Atmospheric Administration (NOAA) – die Klimadaten fälschen, und was ist, wenn die Quelle ihrer Finanzierung dieses Verhalten in einzigartiger Weise fördert?

Tony Heller hat über seine Website RealClimateScience.com schlüssig nachgewiesen, dass sowohl die NOAA als auch die NASA zumindest in den letzten 30 Jahren ihre Daten verändert und verfälscht haben, um das Narrativ zu untermauern, dass das vom Menschen verursachte CO2 die Temperatur der Erde beeinflusst. (Siehe Heller, „Wie die US-Temperaturaufzeichnungen verändert werden, Teil 1-3“).

Heller hat zum Beispiel überzeugend gezeigt, wie die NASA ihre ursprünglichen Temperaturdaten so verändert hat, dass die Temperatur für die Jahre 1905 bis 1940 gesenkt und die Daten für die Jahre 1940 bis 2010 angehoben wurden, wodurch künstlich ein klarer Aufwärtstrend der Temperatur über den gesamten Zeitraum erzeugt worden ist, während die ursprünglichen, unveränderten Daten tatsächlich einen Abkühlungstrend zeigen.

Heller wies auch nach, wie die „Wissenschaftler“ der NOAA ebenfalls zu der gleichen Schlussfolgerung des Erwärmungstrends gekommen sind. Doch während die NASA die vorhandenen Daten einfach angepasst hat, hat die NOAA sie noch einfacher erfunden.

In einem bestimmten Zeitraum gibt es eine Reihe von Wetterstationen, die keine Daten melden. Für diese Stationen, die keine Daten melden, „schätzt“ die NOAA die Daten mit Hilfe eines geheimen, selbst erstellten Algorithmus. Im Jahr 1950 „schätzte“ die NOAA nur 5% der fehlenden Stationen. Bis 2015 war die Zahl der geschätzten Stationen auf 48% gestiegen! Es ist für die NOAA nicht schwierig, eine Trendlinie zur Untermauerung ihrer Theorie zu zeichnen, wenn die Hälfte des Datensatzes selbst hergestellt wurde.

[Hervorhebung vom Übersetzer].

Weder die NOAA noch die NASA haben die Kritik von Tony Heller abgestritten, weil sie es nicht können. Die Zahlen sprechen für sich selbst. Stattdessen sind die NOAA und die NASA mit beiden Beinen auf den menschengemachten politischen Zug der globalen Erwärmung gesprungen – zur Hölle mit den Fakten.

Dann stellen sich also zwei offensichtliche Fragen: Warum sollten die NOAA und die NASA dies tun, und wie tun sie es? Lassen Sie uns zunächst untersuchen, warum.

Als US-Regierungsbehörden werden sowohl die NOAA als auch die NASA vollständig über den jährlichen Haushalts der [US-]Bundesregierung finanziert. Meine erste Begegnung mit diesem Verfahren fand statt, als ich von Präsident George W. Bush zum Administrator (CEO) der St. Lawrence Seaway Development Corporation – einer Bundesbehörde – ernannt worden war. Da ich mein ganzes Leben in der Privatwirtschaft verbracht hatte, war ich mit den Messgrößen vertraut, mit denen sie die Leistung und den Erfolg von Organisationen misst: Bilanz, Gewinn- und Verlustrechnung, Gewinn und Verlust, Börsenkurs, Verschuldungsgrad und so weiter.

Als es darum ging, die Leistung einer Bundesbehörde zu messen, erwartete mich eine Überraschung. Keine dieser Kennzahlen für den privaten Sektor war hier anwendbar. Keine davon wurde auch nur als relevant betrachtet. Es gab nur eine Kennzahl, die Erfolg oder Misserfolg misst. Das heißt, erhielt die Agentur die jährlichen Mittel, die sie von den Finanzausschüssen des Repräsentantenhauses und des Senats beantragt hatte?

Das war alles. Es gab keine Bilanz, Gewinn- und Verlustrechnung oder irgendeine andere gebräuchliche finanzielle Messgröße. Es zählte nur ein Maßstab: was für ein Stück des vom Steuerzahler finanzierten Kuchens erhielt die Agentur jährlich vom Kongress.

Ich habe schnell gelernt, dass hierbei hart – zeitweise sogar rücksichtslos – gekämpft wurde. Um erfolgreich öffentliche [Steuer-]Gelder zu erlangen, würden die Agenturen alles tun, alles sein und alles sagen, um dem Kongress politisch attraktiv zu erscheinen.

Das bedeutet, dass jede Bundesbehörde ständig ihr Fähnchen anch dem politischen Wind ausrichtet. Jede erfolgreiche Agentur ist in der Lage, die geringste Veränderung des politischen Windes zu erkennen. Dabei spielt es keine Rolle, ob die Behörde schlampig geführt wird, antiquiert ist oder sich stümperhaft und stolpernd ihren Weg durch den Bürokratie-Wald bahnt. Wenn es ihr gelingt, den Kongress von ihrem politischen Nutzen zu überzeugen, dann wird ihrem Haushaltsantrag stattgegeben, und das Überleben der Agentur ist gesichert.

Dies führt zu der unverrückbaren Tatsache, dass das Arbeitsergebnis jeder Bundesbehörde, einschließlich derer, die für die Erhebung von Klimadaten zuständig sind, hochgradig politisiert ist. Jede. Einzelne. Eine. Das unveränderliche Gesetz des bürokratischen Überlebens verlangt es.

NASA- und NOAA-„Wissenschaftler“ sind keine ideologisch neutralen Forscher, die in einem Vakuum leben. Sie existieren nicht in einem Elfenbeinturm der Datenreinheit. Sie sind Bürokraten, die bürokratische Interpretationen von Klimadaten vornehmen, und ihre Meinungen werden durch den institutionellen Imperativ des Gehorsams gegenüber politischen Notwendigkeiten eingerahmt. Jeder NOAA- oder NASA-Mitarbeiter, der es wagt, die vorherrschende Parteilinie in Frage zu stellen, würde seine Karriere beenden und Selbstmord begehen.

Dies erklärt, warum NOAA und NASA Klimadaten fälschen. Wie sie das tun, lässt sich an der Behandlung der täglichen Temperaturdaten durch die NOAA ablesen.

Das Ablesen von Temperaturaufzeichnungen scheint ein ziemlich unkomplizierter Prozess zu sein, nicht wahr? Falsch.

Zuerst müssen die Wetterstationen ausgewählt werden, deren die Daten man aufzeichnen will. Die „Ausreißer“ werden verworfen – ebenso die „Duplikate“. Dann müssen wie schon erwähnt die Daten der nicht meldenden Stationen „geschätzt“ werden. Aber das ist noch nicht alles. Als nächstes kommt die Anpassung der „Tageszeit“. Es scheint einen Unterschied zu machen, ob die Ablesung am Morgen oder am Nachmittag vorgenommen wurde.

Dann gibt es Anpassungen für den städtischen Wärmeinseleffekt – die Tatsache, dass das Gelände um viele der älteren Stationen bebaut, gepflastert oder anderweitig verändert wurde, so dass künstlich Wärme erzeugt wird, was die Temperaturmessungen verzerrt. Dann gibt es Anpassungen für verschiedene „Typen“ von Temperaturdaten. Um NOAA zu zitieren, „einige sind 175 Jahre alt und einige sind nur 1 Stunde alt“. Und: „Die Daten müssen „homogenisiert“ und „synthetisiert“ werden.

Vielleicht erfasst diese Aussage der NOAA am besten die außerordentliche Menge beurteilender Entscheidungen, welche die Sammlung von Temperaturdaten umgibt: „Diese Daten werden einer Qualitätskontrolle unterzogen und sind möglicherweise nicht mit den ursprünglichen Beobachtungen identisch“.

Das ist es. Qualitätskontrolle. Der geheime Brei der NOAA, der üppig auf alle ihre Temperaturbeobachtungen angewandt wird. Die Geschichte, warum und wie die NOAA und die NASA Daten manipulieren, läuft darauf hinaus: „Diese Daten sind qualitätskontrolliert und möglicherweise nicht mit den ursprünglichen Beobachtungen identisch. Die Klimaverlautbarungen und -bestimmungen der NOAA und der NASA sind keine „Wissenschaft“ – eine objektive Wahrheit. Sie sind geheim-bürokratische Interpretationen von Dutzenden von Klimadatenpunkten, die dazu dienen, eine Schlussfolgerung zu stützen, die den Finanzierungsimperativen der Agentur förderlich ist.

Und das ist die Wahrheit.

Autor: Collister Johnson has spent the last four decades working in the public and private sectors in Virginia, primarily in the fields of project finance and maritime transportation. He began his career in public service as Chairman of the Board of the Virginia Port Authority. He was appointed by President George W. Bush, and confirmed by the Senate, as a member of the Overseas Private Investment Corporation, and most recently, as Administrator of the St. Lawrence Seaway Development Corporation. In that capacity, he became knowledgeable in the field of climate and its impact on the Great Lakes. He currently serves on CFACT’s Board of Advisors. Johnson holds a B.A. degree from Yale University, and a J.D. from the University of Virginia.

Link: https://www.cfact.org/2020/12/02/why-and-how-nasa-and-noaa-manipulate-climate-data/

Übersetzt von Chris Frey EIKE




Wie oft müssen nutzlose Klimamodelle sterben, bevor sie aufgegeben werden?

Der Artikel ist zu finden unter https://quadrant.org.au/opinion/doomed-planet/2019/09/a-climate-modeller-spills-the-beans/ und der Link wurde in Kommentaren von Pat in früheren WUWT-Posts veröffentlicht. [Danke, Pat. Ich dachte, die Information wäre einen eigenen Artikel wert, also ist es das.]

Dr. Mototaka Nakamura ist ein Ozeanograph und Meteorologe auf höchstem Niveau, der von 1990 bis 2014 an der Wolkendynamik sowie an atmosphärischen und ozeanischen Strömungen arbeitete. Er hat ungefähr 20 Klimastudien über Fluiddynamik veröffentlicht und hat jetzt einfach genug von den Taschenspielertricks, die für Klimawissenschaft und Klimamodellierung gelten.

Im Juni veröffentlichte er ein kleines Buch in japanischer Sprache mit dem Titel „ Bekenntnisse eines Klimaforschers: Die Hypothese der globalen Erwärmung ist eine unbewiesene Hypothese “. Hinter diesem milden Titel verbirgt sich jedoch ein eindringliches Bild der Nutzlosigkeit von Klimamodellen für Prognosen. In einer vernünftigen Welt würde dies die aktuellen Klimamodelle töten, die absolut tot sind. Aber zurzeit ist die Welt natürlich alles andere als gesund.

Dr. Nakamura geht detailliert auf viele der Misserfolge von Klimamodellen ein. Einige dieser Fehler sind bei WUWT bekannt, und ich vermute, dass sie auch einigen Modellprogrammierern bekannt sind. z.B.

In diesen Modellen fehlen einige entscheidend wichtige Klimaprozesse und Rückkopplungen vollständig und sie repräsentieren einige andere wichtige Klimaprozesse und Rückkopplungen in stark verzerrter Weise, was diese Modelle für eine aussagekräftige Klimavorhersage völlig unbrauchbar macht.

Ich selbst verwendete Klimasimulationsmodelle für wissenschaftliche Studien und nicht für Vorhersagen und lernte dabei deren Probleme und Grenzen kennen.

und

Die Ad-hoc-Darstellung von Wolken dürfte die größte Quelle der Unsicherheit bei der Vorhersage des Klimas sein. Eine fundierte Tatsache ist, dass bereits eine sehr kleine Änderung, die so klein ist, dass sie nicht genau gemessen werden kann… in den globalen Wolkeneigenschaften den Erwärmungseffekt des verdoppelten atmosphärischen CO2 vollständig ausgleichen können.

und

Eine genaue Wolkensimulation ist in Klimamodellen einfach nicht möglich, da Prozesse in einem Maßstab von weniger als 1 mm berechnet werden müssen. “Stattdessen gaben die Modellbauer ihre eigenen Wolkenparameter ein. Wer sich mit realer Wolkenbildung und dann mit der Behandlung in Klimamodellen befasst, ist verblüfft über die oberflächliche Behandlung von Wolken in den Modellen.

… Aber es lohnt sich, den vollständigen Quadrant Online-Artikel zu lesen – und den Link an alle Ihre Freunde und natürlich an alle Ihre Feinde weiterzuleiten.

Hier noch ein kleiner Auszug aus dem genannten Originalartikel

Die Temperaturvorhersagemodelle, die versuchen, mit den schwierigen Bedingungen des Klimas fertig zu werden, sind nicht besser als „Spielzeug“ oder „Mickey-Mouse-Geschichten“ der realen Welt, sagt er. Dies ist eigentlich keine radikale Idee. Das IPCC räumte in seinem dritten Bericht (2001) selbst ein (Hervorhebung hinzugefügt),

In der Klimaforschung und -modellierung sollten wir erkennen, dass es sich um ein gekoppeltes nichtlineares chaotisches System handelt und daher die langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist. (Kapitel 14, Abschnitt 14.2.2.2.)]

Irgendwie wurde diese offizielle Warnung von den Alarmisten jedoch tief vergraben. Jetzt hat Nakamura es wiedergefunden und die orthodoxen Wissenschaftler der „Datenverfälschung“ beschuldigt, indem sie frühere Temperaturdaten angepasst haben, um die scheinbare Erwärmung zu erhöhen. „Die globalen Daten zur mittleren Änderung der Oberflächentemperatur haben keinen wissenschaftlichen Wert mehr und sind nichts anderes als ein Propaganda-Werkzeug für die Öffentlichkeit“, schreibt er.

Danke, Pat.

Gefunden auf WUWT vom 29.09.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/09/29/how-many-times-do-useless-climate-models-have-to-be-killed-before-they-die/




Unser Planet verbrennt – wirklich? Oder nur wegen (bewusst) falsch ausge­werteter Proxi­daten?

Ein fingierter Hockeystick

Der besagte “NoTricksZone Artikel”:
NoTricksZone 13. December 2018:
[1] A Fabricated ‘Uptick’? Marcott’s 2013 Hockey Stick Graph Debunked By Marcott’s Own 2011 Ph.D Thesis referiert, wie Studienautoren aus Proxidaten zu Ergebnissen – hier eine Bestätigung der Hockeystick-Temperaturkurve – gelangten, obwohl die angegebenen Daten dieser Aussage (und weiteren in der Studie) eklatant widersprechen.
Trotzdem wurde diese Studie bisher nicht zurückgezogen. Im Gegenteil, sie wird von Klimaforschern und dem IPCC – zum Beispiel im aktuellen SR1.5 Sonderbericht – weiterhin zitiert.

Anmerkung: Der Autor hat in der folgenden Darstellung im Wesentlichen (orientierend übersetzte) Ausschnitte des Originalartikels von NoTricksZone verwendet und nur ab und zu erklärende Ergänzungen zugefügt. Die (fast durchgängigen) Zitate sind nicht extra kursiv ausgewiesen. Man möge dies aus Gründen der besseren Lesbarkeit entschuldigen.

NoTricksZone, Artikel: [1] Unmasking Marcott’s “Uptick”
Die besagte Studie listet in ihrer Zusammenfassung (Summary):
Marcott et al., 2013 [2] (in grober Übersetzung): Eine Rekonstruktion der regionalen und globalen Temperatur der letzten 11.300 Jahre
… Temperaturrekonstruktionen der letzten 1500 Jahre deuten darauf hin, dass die jüngste Erwärmung in dieser Zeit beispiellos ist. Hier bieten wir eine breitere Perspektive, indem wir regionale und globale Temperaturanomalien der letzten 11.300 Jahre aus 73 global verteilten Datensätzen rekonstruieren. Auf die frühe Holozän (vor 10.000 bis 5000 Jahren) Wärme folgt eine Abkühlung von ~0,7°C durch das mittlere bis späte Holozän (vor <5000 Jahren), die in den kühlsten Temperaturen des Holozäns während der Kleinen Eiszeit vor etwa 200 Jahren gipfelt. Diese Abkühlung ist weitgehend mit einer Veränderung von ~2°C im Nordatlantik verbunden. Die aktuellen, globalen Temperaturen des letzten Jahrzehnts haben die interglazialen Spitzenwerte noch nicht überschritten, sind aber wärmer als während ~75% der holozänen Temperaturgeschichte. Die Modellprognosen des Zwischenstaatlichen Ausschusses für Klimaänderungen für 2100 übersteigen die volle Verteilung der Holozäntemperatur unter allen plausiblen Szenarien für Treibhausgasemissionen.

Bild 1 Hockeysticks aus [2] Marcott et al., 2013. Auszug aus Fig. 1. Comparison of different methods and reconstructions of global and hemispheric temperature anomalies. (E and F) Published temperature anomaly reconstructions that have been smoothed with a 100-yearcenteredrunning mean, Mann08Global (2), Mann08NH (2), Moberg05 (3), WA07 (8), Huange04 (36), and plotted with our global temperature stacks [blue band as in (A)].
[1]: In einem von RealClimate.org veröffentlichten Interview mit Marcott wurde anerkannt, dass der „Aufwärtstrend“ keine Rekonstruktion auf globaler Ebene darstellt, da er auf wenigen Proxy-Datensätzen beruht und keine statistische Signifikanz aufweist (Bild 2).

Anmerkung: Es wurde im Ansatz ein ähnliches Verfahren wie beim „Original“-Hockestick angewendet. Nachdem die Weiterführung der Proxidaten das (gewünschte?) Ergebnis nicht lieferte, wurde das „notwendige“ Ende – ein steiler Temperaturanstieg“ – durch Selektion der Daten und statistische Kunstgriffe „erzeugt“.

Bild 2 [1]
[1]: Trotz dieses eingeräumten Mangels an Belegen für den „Aufwärtstrend“ des 20. Jahrhunderts wude die Marcott et al (2013) „Hockeyschläger“ -förmige Kurve von anderen Autoren fast 700-mal zitiert.
Die gleichen 73 global verteilten Proxy-Temperaturaufzeichnungen, welche zur Herstellung von Marcott et al. (2013) verwendet wurden, wurden zwei Jahre zuvor in Shaun Marcotts Doktorarbeit an der Oregon State University vorgestellt.
Anmerkung: Der Haupt-Studienautor, Shaun Marcott, führte die grundlegenden Arbeiten der Studie von 2013 bereits zuvor in seiner Dissertation durch (Marcott 2011). Darin ist die Ausarbeitung natürlich wesentlich detaillierter dargestellt und auch die Daten hinterlegt. Allerdings ist das Ergebnis in der Dissertation trotz der gleichen Daten vollkommen anders, als zwei Jahre später in der Studie (2013) dargestellt.

Marcott, 2011: “ Spätpleistozän und Holozängletscher und Klimawandel”

Anmerkung: Nun bezieht sich die Beschreibung auf die Dissertation.
[1]: Interessanterweise weisen die meisten Diagramme keine Temperaturen auf, die sich bis zur rechten Y-Achse erstrecken, was darauf hindeutet, dass die meisten der 73 Proxy-Datensätze nicht das moderne Zeitalter umfassen und eine Analyse der relativen Temperaturunterschiede zwischen Vergangenheit und Gegenwart ausschließen.
Tatsächlich haben nur 32 der 73 Diagramme allgemeine Trendlinien, die sich im Marcott-Dissertationspapier auf „0 Jahre BP“ (Anmerkung: Before Present, also vor der aktuellen Zeit) erstrecken. Der Rest endet irgendwo im späten Holozän (oder früher). Die 32 Rekonstruktionen, die sich bis zur rechten Y-Achse erstrecken, sind unten dargestellt.

Bild 3 [1] Die Temperaturproxis, welche in Marcott, 2011 [3] bis zur aktuellen Zeit reichen

Gleiche Daten, widersprüchliche Ergebnisse

[1]: Wie schon ein flüchtiger Blick auf die 32 Rekonstruktionen verdeutlicht, zeigte Marcott’s Dissertation aus dem Jahr 2011 nach einem bescheidenen Holozän-Abkühlungstrend keinen Temperaturanstieg im 20. Jahrhundert.

Eine Zusammenstellung aller 73 Holozän-Temperaturtrends der letzten 11.300 Jahre ist in einem komprimierten Diagramm auf Seite 204 (Anmerkung: hier Bild 4) dargestellt. Beachten Sie, dass die große Amplitude von Änderungen, die Temperaturänderungen von mehreren Grad Celsius in den Proxy-Rekonstruktionen enthalten, durch viel kleinere, variable Bereiche ersetzt wurden (Zehntel Grad).

Bild 4 [1] Temperaturrekonstruktion in Marcott, 2011 (Dissertation) [3]
[1]: Im Gegensatz dazu zeigt die Studie von 2013 – unter Verwendung der gleichen Temperaturrekonstruktionen – den explosionsartigen Temperaturanstieg in der modernen Zeit, der von Klimaaktivisten populär gemacht wird (Bild 5).

Bild 5 Hockeystick aus [2] Marcott et al., 2013 (andere Darstellung in der Studie von Bild 1)

Bild 6 Die Verläufe von Bild 4 und von Bild 5 vom Autor übereinander kopiert. Anm.: Der Verlauf Bild 5 (Rot) wurde vom Autor aus der violetten Linie von Bild 5 nachgezeichnet

[1]: Auf diesen krassen Widerspruch zwischen Marcotts Veröffentlichungen von 2011 und 2013 wies Professor Paul Matthews in einem von der Zeitschrift Science veröffentlichten Kommentar hin:

Bild 7 Einspruch von Professor Paul Matthews zu den Thesen von [2]. Quelle: Image Source: Science [1] Link: Science

Grobe Übersetzung (Text, Bild 7)
Kurzkommentar zu „Rekonstruktion der regionalen und globalen Temperatur in den letzten 11.300 Jahren“
Paul Matthews, School of Mathematical Sciences, Universität Nottingham, Großbritannien, 16. März 2013
… Dieses Papier enthält mehrere Grafiken, die langsame Temperaturschwankungen in den letzten 10000 Jahren zeigen, gefolgt von einem rapiden Anstieg im 20. Jahrhundert. Dieser Aspekt des Papiers wurde überraschenderweise von Klimaaktivisten und Journalisten begeistert aufgenommen. Es ist jedoch klar, dass dieses Ergebnis falsch ist. Beachten Sie die folgenden Punkte:
1. Die Proxy-Daten in der beiliegenden Excel-Datei zeigen im 20. Jahrhundert keinen dramatischen Anstieg. Dies kann einfach durch Zeichnen der gelieferten Daten überprüft werden.
2. Die Abbildungen S5 und S6 zeigen überhaupt keinen Aufschwung.
3. Die Doktorarbeit des Erstautors verwendet die gleichen Datensätze und stellt ähnliche Diagramme dar, ohne jedoch einen starken Anstieg zu erkennen. Diese frühere, widersprüchliche Arbeit wird im Papier nicht zitiert.
4. In dem ergänzenden Material wird nicht erläutert, wie die Grafiken erstellt wurden. Die Mittelwertbildung der Proxy-Daten führt zu einem Diagramm, das dem in der Dissertation ähnelt, und unterscheidet sich stark von dem in der Arbeit. Warum wurde keine detaillierte Erklärung des Verfahrens gemeldet? Liefern die Autoren den verwendeten Code?

Jede dieser Aussagen würde ernsthafte Fragen über den Wahrheitsgehalt dieser Arbeit aufwerfen. Zusammengenommen lassen sie keinen Zweifel daran, dass die vorgelegten Ergebnisse falsch und irreführend sind. Das Papier sollte sofort zurückgezogen werden. Die Tatsache, dass ein so offensichtlich fehlerhaftes Papier veröffentlicht wurde, wirft ernsthafte Fragen über die Autoren, die Qualität des Reviewprozesses und die Handhabung des Papiers durch die Redakteure von “science” auf.

[1]: Marcott’s ausgewählte Rekonstruktionen zeigen wärmeren Temperaturen um 2 ° C während des frühen bis mittleren Holozäns
Interessanterweise zeigen die Rekonstruktionen bei der Temperatur, die Marcott 2011 sowohl für seine Doktorarbeit als auch für seine wissenschaftliche Arbeit von 2013 verwendet hat, dass:
(a) die Temperaturen im frühen bis mittleren Holozän im Durchschnitt um mehr als 2 ° C wärmer waren als heute und
(b ) Sie variierten im gesamten Holozän um mehrere
Grad Celsius statt nur um den Zehntelgrad, der sowohl in den Papieren von 2011 als auch von 2013 gezeigt wurde.

Von den 32 Rekonstruktionen, die sich in Marcotts Papieren auf die Y-Achse erstrecken, definieren 25 eindeutig die moderne oder gegenwärtige Temperatur relativ zur Vergangenheit. Die anderen 7 hatten keine modernen oder aktuellen Temperaturwerte, die im paper eindeutig definiert waren. Bei den 25 Rekonstruktionen, die einen Vergleich ermöglichten, wurden die ermittelten Spitzentemperaturen des Holozäns mit durchschnittlich 2,3 ° C wärmer als heute ermittelt. Dieses Ergebnis widerspricht völlig den Behauptungen von Marcotts Papier von 2013.

Beispiele der wärmeren, als heutigen Aufzeichnungen

[1]: Vielleicht hat Marcott den Inhalt der von ihm referierten Papiere nicht genau genug untersucht. Hätte er dies getan, hätte er vielleicht bemerkt, dass bei Rodrigues et al., 2009 die derzeitige Temperatur in der iberischen Region bei 15 ° C liegt, was etwa 1 ° C kälter ist als während der Kleinen Eiszeit (16 ° C) C) und 4 ° C kälter als die Spitzentemperatur des Holozäns .

Bild 8 [1]
Isono et al. (2009) berichten, dass die „gegenwärtige“ Temperatur 16,7 ° C beträgt, aber die Spitzentemperatur des Holozäns 21,4 ° C betrug, was bedeutet, dass die Temperaturen im Nordpazifik vor etwa 7000 oder 8000 Jahren etwa 5 ° C wärmer waren.

Bild 9 [1]
Sogar eine Grafik, die anfänglich einen deutlichen Temperaturanstieg in der Neuzeit zu unterstützen scheint (ein „Aufwärtstrend“) wie Nielsen et al. (2010) sagt tatsächlich, dass der Holozän-Peak 4 ° C wärmer war als der heutige Mittelwert in der Studie.

Bild 10 [1]
Wie Bendle und Rosell-Mele, 2007 (Bild 11), hervorheben , könnte die Amplitude früherer Temperaturänderungen innerhalb von Jahrhunderten bis zu 10 ° C betragen. Dies scheint der Behauptung zu widersprechen, dass die Holozän-Temperaturvariabilität viel weniger ausgeprägt war (einige Zehntel Grad über Jahrtausende).

Bild 11 [1]

Bemerkenswert ist, dass keine der untersuchten Rekonstruktionen die Behauptung stützt, dass moderne Temperaturen ungewöhnlich hoch oder beispiellos sind.

Wenn die Beweise aus dem Paläoklima keinen kürzlich ausgesprochenen „Aufwärtstrend“ unterstützen, woher kommt er?

[1]: Marcott selbst hat eingeräumt, dass der „Aufwärtstrend“ des 20. Jahrhunderts nur auf „wenigen“ Rekonstruktionen beruht, die weder global repräsentativ, noch statistisch robust sind. Das wirft die Fragen auf:
1. Welcher Datensatz wird verwendet, um die Darstellung eines ausgeprägten Temperaturanstiegs zu rechtfertigen?
2. Wurde das „Uptick“ hergestellt?
3. Auf welcher Grundlage veröffentlichte die Zeitschrift
Science die Ausgabe 2013 eines Papiers, dem ein früheres Werk desselben Autors widerspricht?
Anmerkung: Im Originalartikel kommt nun eine Listung der Studien mit den (interessanten) Proxigrafiken, welche alle zeigen, dass der (re-)konstruierte Hockeystick daraus nicht abgeleitet werden kann.

Wie geht es mit den Daten weiter?

[1]: Allein in den letzten Jahren wurden hunderte (neue Studien) von Menschen veröffentlicht, die zeigen, dass der Großteil des Holozäns um 2-5 ° C wärmer war als heute.
Beginnen Sie mit diesen Links unten. Wir aktualisieren regelmäßig. Die Links sind auch dauerhaft auf unserer rechten Seitenleiste zu finden („450 Diagramme ohne Erwärmung“ 1 und 2).
~ 300 Grafiken von 2017 und 2018
~ 300 Grafiken aus den 2000er Jahren bis 2016

Damit ist die Zitierung aus dem „NoTricksZone”-Artikel zu Ende.

Ergänzende Zitate aus einer vergleichbaren Rezension zur Marcott-Studie (2013) von „kaltesonne“

kaltesonne 17. April 2013: [5] Nach drei Wochen erneutem Hockeyschläger-Alarm war der Spuk wieder vorbei und der Skandal perfekt: Wie Jungforscher Shaun Marcott die Medienwelt hinters Licht führte

Bild 12 Bild 4 in anderer Darstellung in der Dissertation (2011). “kaltesonne”: [5] Abbildung 5: Globale Temperaturentwicklung der letzten 2000 Jahre laut Marcotts Doktorarbeit 2011. Es fehlt die ominöse moderne Wärmespitze, das Herzstück des späteren Science Artikels.
kaltesonne”: [5] … Offensichtlich hat die Marcott-Truppe aber auch an den Originaldaten herumgedoktort, um die Wärmespitze herbeizuzaubern. Spürnasen wie Steve McIntyre fanden schließlich, was passiert war. Marcott nahm sich die „künstlerische Freiheit“ die Altersdatierungen unliebsamer Datenpunkte zu modifizieren, um die gewünschte Hockey Stick-Geometrie zu erhalten. Schauen Sie sich das mal an:

Bild 13 [5] Abbildung 7: Originaltemperaturdaten (rot) und was daraus nach phantasievoller Modifikation durch Marcott et al. wurde. Quelle: Climate Audit.

Niemand von den etablierten Fachpersonen und Medien bemerkte die Manipulationen

kaltesonne: [5] Ein Skandal und keine Folgen?
Der Skandal ist aufgeflogen und trotzdem scheint es keinen der ehemaligen Berichterstatter der Studie zu interessieren. Tagesspiegel, Stuttgarter Zeitung und Klimaretter haben noch immer ihren Originalartikel im Netz (Anmerkung: Auch heute, nach 15 Jahren noch), ohne Hinweis oder Addendum auf den sinnentstellenden Fehler. Die klimaalarmistische Gemeinde verstummte plötzlich und ging auf Tauchstation. Klimarealisten wie Ross McKittrick mussten die Lücke füllen und die Öffentlichkeit über die veränderte Sachlage in der Presse informieren.

Und heute nach ca. 15 Jahren, tut der IPCC im SR1.5 so, als gäbe es diese Kritik an der Studie nicht

In dem noch rechtzeitig vor dem gerade erst vergangenen Klimagipfel herausgekommenem – alarmistischen – Klima-Zwischenbericht SR1.5 des IPCC haben die vielen Autoren und beteiligten Wissenschaftler scheinbar immer noch nichts von den beschriebenen Ungereimtheiten (eher gravierenden Fehlern) festgestellt, beziehungsweise ignorieren sie einfach, weil deren Ergebnis zum Beleg der Alarmierung „erforderlich“ ist.
Gleich im Kapitel 1 am Anfang wird sie als Beleg angezogen:
SR1.5, Chapter 1: Framing and Context
Box 1.1: The Anthropocene: Strengthening the global response to 1.5°C global warming
Introduction
… Since 1970 the global average temperaturehas been rising at a rate of 1.7°C per century, compared to a long-term decline over the past 7,000 years at a baseline rate of 0.01°C per century (NOAA 2016,
Marcott et al. 2013). These global-level rates of human-driven change far exceed the rates of change driven by geophysical or biosphere forces that have altered the Earth System trajectory in the past …

Ein schöner Beleg, dass es dem IPCC in seinen Berichten nicht um die Darstellung von Wahrheiten geht.

Wie sehen es Klima(Folgen)Forscher vom PIK

Herr Rahmstorf konnte sich damals gar nicht genug über die in seinen Augen hohe Qualität dieser Studie auslassen. Das Ergebnis entsprach schließlich genau seiner “Vorstellung”. Zudem bestätigt es ja (in seinen Augen) auch die damals gerade abgeschlossene, große Proxyanalysesammlung Pages2k (die für den Autor nur bestätig, dass die Proxiqualitäten so schlecht sind, dass sie für historische Aussagen nicht angewendet werden können – siehe Anlage). Auch kann man auf seinem Blog nachlesen, wie Herr Rahmstorf die Ergenisse von Studien ignoriert, welche zeigen, dass in der Klimavergangenheit wesentlich höhere Temperaturschwankungen vorkamen (Bild 11).

Anbei Auszüge aus der damaligen Bewertung von Professor Rahmstorf in seinem Klimablog:
Stefan Rahmstorf, 17. Juni 2013:
[4] BLOG KlimaLounge Nah dran am Wandel

Paläoklima: Das ganze Holozän
Über die letzten Jahrzehnte haben zahlreiche Forscher in mühsamer Kleinarbeit viele Datenreihen z.B. aus Sedimentbohrungen in der Tiefsee gewonnen, analysiert, datiert, kalibriert usw. Nun haben Shaun Marcott und Kollegen erstmals 73 solcher Datenreihen aus aller Welt zu einer globalen Temperaturrekonstruktion für das Holozän zusammengefügt. Oder genau genommen zu vielen: sie haben rund zwanzig verschiedene Mittelungsmethoden ausprobiert und außerdem 1000 Monte-Carlo-Simulationen mit zufälligen Datierungsfehlern der einzelnen Datenreihen durchgeführt, um die Robustheit ihrer Ergebnisse zu belegen.
Um das Hauptergebnis gleich vorweg zu nehmen, es sieht so aus:

Bild 14 [4] Abb. 1. Blaue Kurve: Globale Temperaturrekonstruktion aus Proxydaten von Marcott et al., Science 2013. Gezeigt ist die RegEM-Version – nennenswerte Unterschiede zwischen den Varianten mit verschiedenen Mittelungsmethoden gibt es allerdings ohnehin nur gegen Ende, wo die Zahl der Proxyreihen abnimmt, wo der Verlauf aber aus instrumentellen Messungen gut bekannt ist. Rote Kurve: Globale Temperatur aus Messdaten (HadCRU). Grafik: Klaus Bittermann.

Vergleich mit PAGES 2k
Die verwendeten Daten unterscheiden sich von denen des PAGES 2k Projekts (nur Land-Daten) hauptsächlich darin, dass sie zu 80% aus Tiefseesedimenten stammen …

… Insgesamt ist die neue Marcott-Rekonstruktion weitestgehend unabhängig von und schön komplementär zu der PAGES 2k Rekonstruktion: Ozean statt Land, ganz andere Methodik. Daher ist ein Vergleich zwischen beiden interessant:

Bild 15 [4] Abb. 3. Die letzten zweitausend Jahre von Abb. 1 im Vergleich mit der PAGES-Rekonstruktion (grün), die in Teil 1 von uns näher erläutert wird. Grafik: Klaus Bittermann.
Wie wir sehen, ergeben beide Rekonstruktions-Verfahren konsistente Ergebnisse. Dass der Verlauf in den letzten eintausend Jahren praktisch identisch ist, ist übrigens auch eine weitere Bestätigung des „Hockeyschlägers“ von Mann et al. 1999 – siehe Teil 2 dieser Serie, Die Hockeyschläger-Debatte.
Entscheidend ist vielmehr, dass der rasche Anstieg im 20. Jahrhundert im ganzen Holozän einmalig ist. Ob das wirklich so ist, darüber wurde nach Erscheinen des Papers in den Blogs intensiv diskutiert. Denn die Proxydaten haben nur eine grobe zeitliche Auflösung – hätten sie es überhaupt erfasst, wenn es im Holozän schon einmal eine ähnlich rasche Erwärmung gegeben hat?
Ich halte es aus drei Gründen für praktisch sicher, dass es eine so rasche Erwärmung noch nicht gab:
Es gibt auch eine Reihe von hochaufgelösten Proxydaten über das Holozän, z.B. die Eiskerne aus Grönland und der Antarktis. Sie zeigen einen glatten Verlauf ohne eine frühere starke Erwärmung wie im 20. Jahrhundert. Hätte es eine solche
globale Erwärmung schon einmal gegeben, müsste man sie zumindest in einigen Datenreihen deutlich sehen, selbst wenn sie in der gemittelten Marcott-Kurve untergeht.
… Es gibt keinerlei Hinweise in den Forcing-Daten, dass ein solcher Klimaantrieb plötzlich aufgetaucht und wieder verschwunden sein könnte, und ich kann mir auch nicht vorstellen, was der Mechanismus gewesen sein sollte …

Schlimmer geht`s nimmer

Ein NGO, Climate Analytics, führt im WEB einen sogannten „ClimateActioTracker“, welcher Temperaturprojektionen anzeigt. Man ahnt, welche Institution die Daten „speist“, es ist das PIC, welches auf deren Homepage als „Collaborateur“ gelistet ist.

Bild 16 Temperaturszenarien des ClimateActionTracker

Fügt man die Temperatur-Verlaufsdaten von Marcott at al. (2013) und die des ClimateActionTrackers zusammen, dann „verbrennt“ die Welt demnächst wohl tatsächlich.

Bild 17 Verlauf Marcott at al (2013) und ClimateActionTracker Projektion Baseline. Vom Autor zusammengestellt

Nun stellt sich die Frage: Wer glaubt solchen Darstellungen, gegenüber denen die Vorhersagen von Zukunfts-Grausamkeiten im Alten Testament fast als „Kinderkram“ erscheinen?
Zum Beispiel die Redaktion der Tageszeitung des Autors: Auf eine Anfrage zu den Datenquellen ihrer während des Klimagipfels (ausschließlich) höchst alarmistischen Kommentare kam die Antwort der Redaktion, dass Angaben von diesem ClimateActionTracker übernommen wurden.
Wenn es das PIK simuliert und der IPCC nicht widersprochen hat, kann es ja niemals falsch sein? Gott verweigerte den Menschen damals den Apfel vom „Baum der Erkenntnis“, damit sie nicht gescheiter würden. Der Ökogot muss nichts verweigern, seine Anhänger machen es freiwillig.

Klimapropaganda in den „Öffentlich-Rechtlichen“

Etwas abweichend, aber zum Thema Propagand passend, ein Trailer des BR. Ein Wissenschaftserzähler wechselt sich dort bei der Klimapropaganda inzwischen mit Harald Lesch ab.
Im Trailer geht es um den wieder einmal „immer schneller“ steigenden Meeresspiegel.
BR, Sendung: Gut zu wissen
Land unter – Meeresspiegel steigen immer schneller. Dass die Meeresspiegel weltweit ansteigen, ist nichts Neues. Eine aktuelle Studie zeigt nun, dass das offenbar viel schneller passiert als bislang angenommen. „Gut zu wissen“ erklärt warum.

Bild 18 Screenshot von der BR Mediathek. Link zum Trailer: BR Mediathek

Erklär-Stichworte in der Sendung:
BR, Sendung: … Die Malediven gehen unter … weil es so warm ist, taut das Grönlandeis seit ein paar Jahren fast auf der gesamten Fläche an … und es wird noch schlimmer werden, wenn irgendwann das Festlandeis am Südpol, also in der Antarktis schmilzt … das Festlandeis könnte dann schneller nachrutschen und im Meer schmelzen … CO2 muss reduziert werden … denn irgendwann ist es soweit und dann schmilzt das Grönlandeis komplett und dann steigt der Meeresspiegel um 7 m …

Damit endet die „Information“. Außer alarmistischen Statements und Schlagwörtern ist keinerlei wirkliche Detaillierung zum Thema, schon gar nicht eine kritische, oder zur eigenen Meinungsbildung anregende, enthalten.

Diese deshalb kurz nachgeholt:
„Immer schnellerer Pegelanstieg“: Bezug genommen wird wohl auf die in den folgenden Rezensionen analysierte Pegelalarm-Studie:
EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)
EIKE 06.03.2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 1)
EIKE 01.06.2017: Der Meerespegel steigt drei Mal so stark an – ohne dass sich an dessen Verlauf etwas verändert hat
Judit Curry: Sea level rise acceleration (or not): Part IV – Satellite era record
„Malediven gehen unter“: Sie denken in Wirklichkeit gar nicht daran „unterzugehen“. So ist es inzwischen von vielen Wissenschaftlern – und vor allem auch mit dem aktuellen Seepegelverlauf – belegt. „Unter“ gehen sie ausschließlich in entsprechend parametrierten Computersimulationen:
EIKE 03.11.2017: Das Wochenende, an dem die Welt (wieder) begann unterzugehen

EIKE 18.10.2016: Wie steht es um den Untergang der Marshall-Inseln?
EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven
Dass das Grönlandeis – und das der Antarktis- komplett schmilzt, kann natürlich passieren. Falls es dazu käme, dauert es allerdings mehrere Tausend Jahre. Aktuell nimmt das Eis in der Antarktis jedoch eher zu:
kaltesonne:
Neuer Kälterekord in der Antarktis: fast minus 100 Grad (4.7.2018)
EIKE 14.03.2017: Auch das Antarktiseis schrumpft – aber nur partiell – und nur im Sommer!
kaltesonne: Alfred-Wegener-Institut: Ostantarktischer Eisschild ist stabil und wächst sogar leicht an (5.5.2015)

Um den „erforderlichen“ Untergang trotzdem zu erreichen, propagiert das PIK die „Gletscher Rutsch-Hypothese“. Nur mittels dieser Hypothese lässt sich eine Verringerung des Anatarktischen Festlandeises überhaupt simulieren:
ntv, 22. Mai 2017: Kettenreaktion teilweise im Gang Düstere Prognosen fürs Antarktis-Schelfeis
Selbst wenn Schelfeis zum Teil auf dem Wasser schwimmt, hat es fatale Folgen, wenn es schmilzt: Inlandseis fließt dann schneller ab. In der Antarktis hat dieser Vorgang bereits begonnen – und könnte sich dramatisch beschleunigen …
Forscher des Potsdamer Institutes für Klimafolgenforschung haben berechnet, wie es bei einem unverminderten Klimawandel um das Filchner-Ronne-Schelfeis und die dahinterliegenden Eisströme steht. Das Ergebnis: Innerhalb von 200 Jahren könnte der weltweite Meeresspiegel um bis zu 40 Zentimeter steigen.
Was man sogar anhand des ntv-Alarmartikels herauslesen kann: Selbst das über-alarmistische PIK simuliert hier einen Pegelanstieg, der weit unter allen alarmistischen Szenarien liegt (20 cm in 200 Jahren ist fast in der Größenordnung des natürlichen Anstiegs [7]).

Ob dann allerdings die (simulierte) Erwärung wirklich kommt, steht in den Sternen. Viel wahrscheinlicher beginnt bald die nächste – bereits überfällige – Eiszeit. In den Klimasimulationen ist diese nur nicht einprogrammiert, im Erdklima jedoch seit einer Million Jahren:
EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

Was zeigt das Video allerdings wieder? Es ist leider nicht so, dass eine Ausbildung in MINT-Fächern wirklich gegen Alarmismus hilft, wie es viele EIKE-Blogeinträge meinen.
Der Redakteur des Videos ist studierter Physiker. Er weiß also bestimmt zwischen Simulation und Messergebnissen zu unterscheiden. Er weiß aber auch, mit welcher Darstellung man in Deutschland im öffentlichen Bereich am sichersten aufsteigt und viel Geld (und Ehre) verdient. Wie Herr Lesch und Herr Schellnhuber hat auch er sich deshalb ausschließlich dafür entschieden. Alle zeigen, dass man dann (und nur dann) fast schon „automatisch“ mit Arbeiten, Ehrungen, Posten und Geld regelrecht „beworfen“ wird.
Wie perfekt das funktioniert, wurde gerade erst an einer anderen Stelle präsentiert:
Achgut:
Claas Relotius oder: Der Spiegel lässt die Hosen runter

Die Diskussion der möglichen Wirklichkeit

Auf eines weisen alle Medien und „offiziellen“, bedeutet, von öffentlichen Geldern abhängigen, Klima(Folgen)Forscher mit Bedacht nicht hin: Dass an dem, das ganze Schreckensszenario alleine bestimmendem Forcingwert aktuell massiv „gerüttelt“ wird.

Sowieso gibt es in Deutschland seit vielen Jahren eine konsequente Unterdrückung kritischer Meinungen (nicht nur) zum AGW-Klimawandel. Eine GRÜNE „Vorzeigedame“ sagte es ganz deutlich, was sie davon hält, wenn jemand es wagt, Klimadogmen in Frage zu stellen:
EIKE 11. Dezember 2017: Bärbel Höhn beschwert sich, dass Herr Kachelmann Fakten über den Klimawandel erzählt
Eine Regierungsberaterin vermittelte es über ihre Homepage:
EIKE 09.04.2017: Klima-Lügendetektor:
Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge
Und eine Umweltministerin (Frau Hedricks) wusste sogar, dass es in Deutschland gar keine (von ihrer) abweichendeMeinung geben kann:
EIKE 27.03.2017:
Nee, bei uns gibt´s keine Klimaleugner

Dabei fällt mit der aktuellen Diskussion zum wirklichen Forcing das ganze Alarmgebäude in sich zusammen:
kaltesonne, 24.12.2018:
Die Sonne im November 2018 und die Sache mit der „Pause“
EIKE 17. Dezember 2018: Klimasensitivität –  Wer rechnet hier falsch ? 
[x] EIKE 21.02.2018: Und plötzlich wird die Zukunft glücklicher
Bei einem wahrscheinlichen Forcingwert in der Gegend von 1,5 … 1 Grad besteht keinerlei alarmistischer Anlass mehr. Sollten die dazu noch Recht behalten, welche eine Größenordnung von ca. 0,6 Grad vermuten, dann bleibt es nicht mehr als ein Rauschen im Mülleimer der Erdgeschichte.

Proxibilder Kontinente/Großregionen

Wer immer noch (wie beispielsweise Professor Rahmstorf vom PIK) glaubt, mit Proxis ließen sich (ausreichend genaue) Aussagen zur Klimahistorie ableiten, der sollte sich solche einfach ansehen, wie es der Autor gemacht hat:
Zum Beispiel in einer exemplarischen Sichtung von Temperaturproxis des größten, von Herrn Rahmstor gelobten, internationalen Proxi-Rekonstruktions- und Sammlungsprojektes, Pages2k:
EIKE
11.05.2016: [6] Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k
Das gilt nicht nur für Temperatur-, sondern auch für Pegelproxis. Dort allerdings weniger wegen fehlender Genauigkeit, sondern der Erkenntnis, dass das aktuell gemessene – und als AGW-alarmistisch publizierte – “Pegelwackeln” im historischen Pegelrauschen verschwindet:
EIKE 07.0
4.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Beispielhaft nun die TemperaturProxi-Globaldiagramme für die letzten 2.000 Jahre aus dem Pages2k-Projekt für einzelne Kontinente. Die “Farbspaghettis” sind die übereinander gelegten Temperatur-Proxikurven der gleichen Region. Dabei soll es sich um die besten Proxis handeln (Kritik dazu siehe [6]).
Daraus bitte ableiten, dasss:
ein so schneller und großer Temperaturanstieg wie aktuell noch nie in der Vergangenheit vorgekommen ist,
es noch nie (in den letzten 2000 Jahren) so warm war wie heute,
die Erde unaufhaltsam der “Selbstverbrennung” entgegengeht, da Temperatur-Kipppunkte bereits überschritten sind.

Bild 19 Antarctic. Quelle: Pages2k-Viewer

Bild 20 Arctic. Quelle: Pages2k-Viewer

Bild 21 Australien. Quelle: Pages2k-Viewer

Bild 22 Europe. Quelle: Pages2k-Viewer

Bild 23 Asia. Quelle: Pages2k-Viewer

Bild 24 NAmerica. Quelle: Pages2k-Viewer

Bild 25 SAmerica. Quelle: Pages2k-Viewer

Quellen

[1] NoTricksZone 13. December 2018: A Fabricated ‘Uptick’? Marcott’s 2013 Hockey Stick Graph Debunked By Marcott’s Own 2011 Ph.D Thesis

[2] Marcott et al., 2013: A Reconstruction of Regional and Global Temperature for the Past 11,300 Years

[3] Marcott, 2011: Late Pleistocene and Holocene Glacier and Climate Change

[4] Stefan Rahmstorf, 17. Juni 2013: BLOG KlimaLounge Nah dran am Wandel Paläoklima: Das ganze Holozän

[5] kaltesonne 17. April 2013: Nach drei Wochen erneutem Hockeyschläger-Alarm war der Spuk wieder vorbei und der Skandal perfekt: Wie Jungforscher Shaun Marcott die Medienwelt hinters Licht führte

[6] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

[7] EIKE 29.09.2016: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1




@NYT lügt hinsichtlich Klima – indem die Vergangenheit verschwiegen wird

[*In diesem Beitrag tauchen noch öfter Zahlenangaben durchweg in den in den USA gebräuchlichen Einheiten auf. Des besseren Verständnisses halber werden diese Angaben hier aber gleich in europäische Einheiten umgerechnet. Anm. d. Übers.]

[**Vermutlich war das in Mitteleuropa anders, aber es geht hier auch darum aufzuzeigen, dass Deutschland eben nicht der Nabel der Welt ist und dass das Wetter auf der ganzen Welt nicht so ist (oder zu sein hat) wie in Deutschland. Anm. d. Übers.]

In irgendeinem Zusammenhang dazu sandte mir ein Leser einen Link zu einer interaktiven Website der New York Times, welche von sich behauptet, die Anzahl der Tage mit einer Temperatur über 32°C [in US-Einheiten ist das eine Art ,magische Schwelle‘ von 90°F. Anm. d. Übers.] pro Jahr für Städte im ganzen Land zu listen. Die Ergebnisse werden für die Times zusammengestellt von einer Institution (man könnte es auch eine Umwelt-Propagandagruppe nennen) mit der Bezeichnung Climate Impacts Lab.

https://www.nytimes.com/interactive/2018/08/30/climate/how-much-hotter-is-your-hometown.html?action=click&module=Most%20Popular&pgtype=Homepage

Da ich viele Datensätze dieser Art zusammengestellt habe, schaute ich mal darauf. Die Website fragt nach der Stadt und dem Geburtsjahr und präsentiert dann eine Zeitreihe, die vermeintlich die Anzahl der Tage mit einer Temperatur über 32°C pro Jahr zeigt seit Geburt und wie die Anzahl dieser Tage zugenommen hat.

Obwohl ich in Kalifornien geboren wurde, habe ich mehr Jahre in Huntsville gelebt als an irgendeinem anderen Ort. Also gab ich mein Geburtsdatum ein und Huntsville als meine Geburtsstadt. Sofort wurde dann aber mein Argwohn geweckt, als der erscheinende Datensatz erst im Jahre 1960 begann, also einige Jahre nach meiner Geburt! Offensichtlich wollen die Times und das Climate Impact Lab nichts mit Menschen zu tun haben, die älter sind als 58 Jahre.

Für Huntsville und Montgomery sind hier die entsprechenden Ergebnisse – irgendwie Angst erzeugend. Es scheint, dass die Anzahl der Tage mit über 32°C auf das höchste Niveau jemals gestiegen ist. Man macht mir weis, dass es im Jahre 1960 45 derartige Tage in Huntsville gegeben hat, in 2017 dagegen 57 Tage, Tendenz steigend.

Um das alles noch ängstigender zu machen, beziehen sie Klimamodell-Projektionen bis zum Jahr 2090 mit ein, um mir zu sagen, dass wenn ich im Jahre 2040 80 Jahre alt werde es 73 derartige heiße Tage in Huntsville geben wird, siehe Graphik. Hilfe!

Bevor man nun sein Haus verkauft und nach Kanada zieht, betrachte man die wahre Geschichte. Nachdem ich viele Klima-Datensätze für Alabama erstellt hatte, einige davon ab dem Jahr 1850, wusste ich, dass die Story in der Times darauf ausgelegt war, Alarm zu schreien und die Behauptung voranzutreiben, dass Menschen, welche auf Kohlenstoffbasis Energie verbrauchen, die ihnen zu einem besseren Leben verhilft, unsere Sommer sogar noch schlimmer macht. Vorsicht,liebe Leser, dieses Webtool ist nicht darauf angelegt, genaue Informationen zu verbreiten.

Erstens, Klimadaten für Alabama begannen im 19. Jahrhundert, nicht erst im Jahre 1960. Im Jahre 2016 veröffentlichten Dr. Richard McNider (mein Vorgänger) und ich selbst eine sorgfältig konstruierte Zeitreihe der Sommertemperaturen für den Staat ab 1883 unter Einbeziehung zahlreicher Stationsaufzeichnungen. Einige davon hatten noch nicht einmal Eingang in die Datensätze der [US-]Bundesregierung gefunden, also die Hauptquelle für Institutionen wie das Climate Impact Lab. Ich habe diese Arbeiten aktualisiert bis einschließlich Sommer 2018 – das Ergebnis zeigt die Graphik unten. Diese zeigt nicht nur, dass die Tagestemperaturen im Sommer im Verlauf der letzten 136 Jahre nicht nur nicht gestiegen, sondern sogar gesunken sind. Hmmm … wenn man sich diese Graphik so betrachtet – warum wohl hat Climate Impact Lab das Jahr 1960 als Startjahr seiner Graphik gewählt?

Wir gingen in jener Studie noch einen Schritt weiter und wiesen nach, dass Klimamodelle komplett falsch lagen bei der Replikation des Abwärtstrends der Temperatur in Alabama während der letzten 120 Jahre – 76 unterschiedliche Modelle mit einer Fehlerquote von 100%. Sollte man diesen gleichen Modellen trauen, dass sie uns so Auskunft über die Zukunft geben wie die Times es behauptet? Warum nur hat man die Modelle nicht auf deren Validität untersucht?

Was ist nun also mit den „heißen“ (oder, wie wir in Alabama sagen „typischen“) Tagen mit einer Temperatur über 32°C? Für Alabama und die gesamte Nation habe ich seit 1895 die mittlere Anzahl pro Station für jedes Jahr berechnet. Die Ergebnisse unten sprechen für sich (es gibt keine Zunahme der Anzahl von Tagen mit über 32°C) – und sie stellen die Falschinformation bloß, welche die Times hinaus posaunt.

Genaue Informationen hinsichtlich des Klimas in Alabama zu verbreiten ist genau das, was wir in unserem Büro machen. Tatsächlich kann ich bei Heranziehen der realen Daten nicht einmal ansatzweise die Bilder reproduzieren, mit denen das Climate Impact Lab aufwartet und welchen zufolge die Zehnerjahre dieses Jahrhunderts die meisten Tage mit 32°C verzeichnete – ich vermute mal, sie verwenden mehr theoretische Ergebnisse als sich an Beobachtungen zu orientieren. Man beachte, wie glatt ihre Graphik ist im Vergleich zu den realen Daten – das sieht mir sehr unecht aus.

Dies ist ein wunderbarer Staat, in dem wir leben, in dem Menschen das Leben genießen und Industrien sich entfalten können – und unsere Klimabedingungen sind einer der Gründe, warum wir so erfolgreich sind bzgl. des Zuzugs weiterer Menschen. Gelegentlich jedoch kommen Zeiten, in welchen ich Behauptungen von jenen entgegen treten muss, deren Absicht nicht die Information ist, sondern das Schüren falschen Alarms – dies ist normalerweise dann der Fall, wenn Umwelt-Interessengruppen eine Presseerklärung fabrizieren, deren dramatische Inhalte von willigen Medien verbreitet werden (ohne jede Fakten-Recherche). Jetzt ist eine solche Zeit, und ich bin sicher, dass es nicht das letzte Mal ist.

Striche

Citation:

Christy, J.R. and R.T. McNider, 2016: Time series construction of summer surface temperatures for Alabama, 1883-2014, and comparisons with tropospheric temperature and climate model simulations.  J. Applied Meteor. Climatology, DOI: 10.1175/JAMC-D-15-0287.1.

Data from the New York Times website accessed on 5 and 6 September 2018.

– John Christy
The Alabama State Climatologist

Link: https://wattsupwiththat.com/2018/09/12/nyt-lies-about-climate-by-omitting-the-past/




Temperatur-Manipulationen mildern Wutanfälle

Normalerweise habe ich den RSS-Datensatz als meine Hauptquelle herangezogen, weil es der erste war, der seine monatlichen Daten veröffentlichte. Im November 2015 jedoch, nachdem der Datensatz seit 18 Jahren und 9 Monaten keine Erwärmung gezeigt hatte, zeigte Senator Ted Cruz unsere Graphik der RSS-Daten bei einer Anhörung im US-Senat, um eben diesen Stillstand zu erklären. Die Demokraten waren darob sichtlich ungehalten und suchten nichts Geringeres als einen Admiral aus, der – erfolglos – versuchen sollte, die Graphik zu widerlegen. Ich habe bereits damals vorausgesagt, dass Carl Mears, der Betreiber jenes Datensatzes, zur rechten Zeit alle drei längsten terrestrischen Datensätze kopieren – GISS, NOAA und HadCRUT4 – und diese so überarbeiten würde, dass der lange Stillstand daraus verschwinden würde. Damit sollte eine erheblich größere globale Erwärmung suggeriert werden als die ursprünglich veröffentlichten Daten gezeigt hatten.

Der lineare Regressionstrend kleinster Quadrate im Satelliten-Datensatz RSS der globalen mittleren Temperatur-Anomalie zeigt vor der Revision seit 18 Jahren und 9 Monaten keine Erwärmung (von Februar 1997 bis Oktober 2015), obwohl ein Drittel aller anthropogenen Antriebe während genau dieses Zeitraumes angefallen war. Ted Cruz forderte im November 2015 mit dieser Graphik die „Demokraten“ im Senat heraus.

Wie könnte es anders sein – gleich im nächsten Monat unterwarf Dr. Mears (der die RSS-Website dazu missbraucht, Skeptiker der globalen Erwärmung als „Leugner“ zu verunglimpfen) seinen Datensatz dem Adjustozän, indem er den RSS-Datensatz gebührend bearbeitete, um den Stillstand zu eliminieren. Zweifellos ist er von seinen Klima-extremistischen Gesinnungsgenossen bedrängt worden, etwas zu tun, um die Skeptiker zum Schweigen zu bringen, damit diese nicht mehr auf das auffallende Fehlen jedweder globaler Erwärmung hinweisen während eines Zeitraumes, als ein Drittel des menschlichen Einflusses auf das Klima angefallen war. Und siehe da, auf einmal war der Stillstand weg:

Willkommen im Adjustozän: RSS fügt 1 K pro Jahrhundert dem hinzu, was einst der Stillstand war.

Wie sich herausstellte, hätte sich Dr. sMear* nicht die Mühe machen brauchen, den Stillstand zu beseitigen. Ein großes El Niño-Ereignis machte das sowieso. Allerdings zeigt eine interessante Analyse von Prof. Fritz Vahrenholt und Dr Sebastian Lüning hier, dass dieser Datensatz nicht länger als zuverlässig gelten kann, nachdem man ihn derartig manipuliert hatte. Die Analyse bringt ans Tageslicht, wie der RSS Datensatz bearbeitet worden war. Die zwei Wissenschaftler kommen zu dem Ergebnis, dass die Nachbearbeitung [ex-post-facto post-processing] der Satellitendaten seitens RSS unzureichend gerechtfertigt worden ist:

[*Wieder ein solches Wortspiel. Der Lord verschiebt das ,s‘ im Namen nach vorne, so dass sich ,smear‘ ergibt = Dr. Schmiere. Anm. d. Übers.]

Monatliche globale mittlere Temperaturanomalien von RSS vom Januar 1979 bis Juni 2018. Die nicht manipulierte Version ist in rot, die bearbeitete Version in blau dargestellt. Die dicken Kurven sind über 37 Monate geglättete Mittelwerte. Graphik von Prof. Ole Humlum von seiner guten Website www.climate4you.com.

RSS hob die zuvor gemessenen Temperaturen seit dem Jahr 2000 an, was die Erwärmungsrate insgesamt seit 1979 um 0,15 K, nämlich von 0,62 K auf jetzt 0,77 K hat zunehmen lassen:

Man hätte es nicht machen dürfen, aber Lüning und Vahrenholt haben entdeckt, dass RSS das getan hat.

Im Jahr bevor die RSS-Daten Mannipuliert [in Anspielung auf Prof. Mann, Anm. d. Übers.] worden waren, hatte RSS begonnen, sich ernsthaft für die Länge des Stillstands zu interessieren. Dr. Mears schrieb darüber auf seinem Blog hier. Seine damaligen Ergebnisse sind hier zusammengefasst:

Ergebnis von 33 IPCC-Modellen (türkis) im Vergleich zur gemessenen globalen Temperaturänderung seitens RSS (schwarz), 1979 bis 2014.

Darauf bekam Dr. Mears einen Temperatur-Wutanfall und schrieb:

„Die Leugner lieben es zu vermuten, dass die Ursache der Diskrepanz zwischen Modellen und Beobachtungen in irgendeinem Problem mit der zugrunde liegenden Modellphysik zu finden ist, und sie verwerfen jede andere Art der Erklärung. Dies verleitet sie zu der – sehr wahrscheinlich falschen – Schlussfolgerung, dass die langfristige Klima-Sensitivität viel geringer ist als gegenwärtig gedacht“.

Dr. Mears räumte die wachsende Diskrepanz zwischen RSS-Daten und Modellen ein, aber er unterstellte uns, dass wir den Startzeitpunkt der globalen Temperatur-Graphik cherry-picked hätten:

„Jüngst ging aus einer Anzahl von Artikeln in der Mainstream-Presse hervor, dass es während der letzten zwei Jahrzehnte kaum eine oder gar keine Änderung der globalen mittleren Temperatur gegeben hat. Deswegen hat man uns viele Fragen gestellt nach dem Motto ,Ich sah diese Graphik auf einer Leugner-Website. Sind das wirklich Ihre Daten?‘ Während die Endpunkte in einigen dieser Berichte cherry-picked worden sind, um den Beweis noch besser aussehen zu lassen, gibt es kaum Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als die meisten IPCC AR5-Simulationen des historischen Klimas prophezeit hatten. Damit liegt das starke ENSO-Ereignis am Beginn ihrer Zeitreihe, was zu einer geringen linearen Anpassung mit der geringstmöglichen Steigung führte“.

Tatsächlich wurde die durch den El Nino ausgelöste Wärmespitze 1998 fast vollständig ausgeglichen durch zwei Faktoren: die nicht unähnliche Spitze des El Nino 2010 und der schieren Länge des Stillstands selbst.

Graphiken von Werner Brozek und Prof. Brown der RSS- und GISS-Temperaturen. Beide beginnen 1997 und 2000. In jedem Datensatz sind die Trendlinien nahezu identisch. Folglich ist die Aussage, dass der Stillstand dem El Nino 1998 geschuldet ist, falsch.

Obige Graphik demonstriert, dass die Trends der globalen Temperatur im RSS-Datensatz vor der Manipulation und im GISS-Datensatz genau gleich waren, und zwar vor und nach dem El Nino 1998. Dies zeigt, dass die Länge des Stillstands ausreichend war, um den imaginären Einfluss zu nullifizieren.

Es ist nützlich, die Erwärmung seit 1990, genommen als Mittel der vier Adjustozän-Datensätze (RSS, GISS, NCEI und HadCRUT4: erste Graphik unten) zu vergleichen mit dem UAH-Datensatz, den Lüning und Vahrenholt als zuverlässig einstufen (zweite Graphik unten):

Mittel der monatlichen mittleren Temperaturanomalien nach RSS, GISS, NCEI und HadCRUT4 von Januar 1990 bis Juni 2018 (dunkelblaue Zackenkurve) und des linearen Regressionstrends kleinster Quadrate (hellblaue Linie) im Vergleich mit dem geringeren der beiden IPCC-Mittelfrist-Prophezeiungen (Bereich in orange).

Anomalien der unteren Troposphäre nebst Trend von Januar 1990 bis Juni 2018 nach UAH.

Man sieht, dass der Erwärmungstrend in den Adjustozän-Datensätzen über den Zeitraum fast 50% größer ist als im UAH-Datensatz, welchen Lüning und Vahrenholt zuverlässiger finden.

Nach den Adjustierungen zeigt der RSS-Datensatz seit 1990 jetzt eine stärkere Erwärmung als jeder andere Datensatz, die sogar noch über den vielfach manipulierten GISS-Datensatz hinausgeht:

Auf ein Jahrhundert umgerechnete globale Erwärmungstrends von Januar 1990 bis Juni 2018. Die beiden mittelfristigen IPCC-Prophezeiungen für das Szenario ,Business as Usual‘ und unsere überarbeiteten Prognosen nach Korrektur des Fehlers in der Definition von Temperatur-Rückkopplung seitens der offiziellen Klimatologie (weiße Beschriftung) im Vergleich zu beobachteten Raten (blaue Beschriftung) aus den fünf am weitesten zurückreichenden Datensätzen.

Man beachte, dass die RSS-Erwärmungsrate seit 1990 nahezu doppelt so hoch ist wie bei UAH, wo man dessen globale Erwärmungsrate vor zwei oder drei Jahren nach unten korrigiert hatte. Und doch beruhen beide Datensätze auf genau den gleichen Satellitendaten. Die Differenz von fast 1 K pro Jahrhundert zeigt, wie stark Temperatur-Datensätze auf subjektive Adjustierungen reagieren anstatt objektive Messungen zu repräsentieren.

Sollen wir einmal zynisch annehmen, dass alle diese Adjustierungen – RSS, GISS, NCEI und HadCRUT4 zum Wärmeren, UAH leicht zum Kälteren – die politische Ausrichtung der jeweiligen Datensatz-Besitzer reflektieren? Lüning und Vahrenholt können keine rationale Rechtfertigung finden für die große und plötzliche Änderung des RSS-Datensatzes so bald, nachdem Ted Cruz unsere den Stillstand zeigende RSS-Graphik für eine Anhörung vor dem Senat herangezogen hatte. Allerdings konnten sie auch nicht feststellen, dass die UAH-Daten fälschlich adjustiert worden waren. Sie empfehlen UAH als in Ordnung.

Die MofB [= Monckton of Brenchley]-Nachhersage basiert auf zwei Fakten: Wir berechnen die Charney-Sensitivität auf lediglich 1,17 K pro CO2-Verdoppelung, und außerdem ist in vielen Modellen die prognostizierte Gleichgewichts-Erwärmung bei einer Verdoppelung der CO2-Konzentration die Charney-Sensitivität in etwa gleich der flüchtigen Erwärmung aus allen anthropogenen Quellen im 21. Jahrhundert. Dies ist daher eine provisorische Prognose, aber sie ist konsistenter mit dem UAH-Datensatz als mit den fragwürdigen Datensätzen des Adjustozäns.

Das Ausmaß der Manipulation in manchen Datensätzen ist enorm. Eine andere erhellende Graphik vom nimmermüden Professor Humlum folgt hier. Er publiziert eine große Vielfalt von Graphiken zur globalen Erwärmung in seinem öffentlich zugänglichen monatlichen Report bei climate4you.com:

Mann-gemachte globale Erwärmung: wie GISS die offensichtliche Erwärmung um über die Hälfte verstärkte

Das GISS, dessen Datensatz inzwischen derartig politisiert ist, dass er vollkommen wertlos ist, sMeared die Daten über einen Zeitraum von weniger als sieben Jahren, nämlich von März 2010 bis Dezember 2017, und zwar so erheblich, dass die zutage tretende Erwärmungsrate über das 20. Jahrhundert über ein halb mal so groß ist. Die größte Änderung erfolgte im März 2013, zu einem Zeitpunkt also, an dem der lang dauernde Stillstand bereits zu einer permanenten Peinlichkeit der offiziellen Klimatologie geworden war. Nur einen Monat zuvor hat war jetzt in Ungnade gefallene Chef des IPCC, der Eisenbahn-Ingenieur Pachauri, einer der ersten Sprecher der offiziellen Klimatologie, welcher die Existenz des Stillstandes einräumte. Das tat er auf einem Vortrag in Melbourne, worüber in der Folge nur in einer einzigen Zeitung berichtet worden war, nämlich The Australian. Diese Zeitung steht schon lange unter Verdacht, weil sie immer wieder beide Seiten der Klimadebatte hat zu Wort kommen lässt.

Faszinierend ist, dass selbst nach den erheblichen Datenmanipulationen zum Ende des Stillstandes in vier der fünf langzeitlichen Datensätze, und obwohl der Trend in allen Datensätzen aufgrund des starken El Nino vor ein paar Jahren ebenfalls gestiegen ist, die Original-Prophezeiungen des IPCC aus dem Jahr 1990, welche die Angst erzeugen sollten, ungeheuer exzessiv bleiben.

Inzwischen hat jedoch das IPCC selbst erkannt, wie absurd seine Original-Prophezeiungen waren. Im 5. Zustandsbericht 2013 wurde die Abhängigkeit von Modellen erstmals aufgegeben und ersetzt durch etwas, das als „Experten-Beurteilung“ ihrer überhitzten Resultate bezeichnet wird. Außerdem wurde die mittelfristige Prognose halbiert. Damit inkonsistent hat man jedoch sorgfältig dessen Gleichgewichts-Prophezeiung – 1,5 bis 4,5 K pro CO2-Verdoppelung – beschämend unverändert gelassen.

Die unzähligen Apologeten des IPCC in den Marxstream-Medien haben eine Parteilinie entwickelt, um das erbärmliche prognostische Scheitern der IPCC-Prophezeiungen aus dem Jahr 1990 hinweg zu erklären. Ja sie verstiegen sich absolut fälschlich sogar dazu zu versuchen, dass alles „noch viel, viel schlimmer sei als wir jemals gedacht haben“.

Eine seiner allgemeinsten Entschuldigungen, vorgebracht im Büßer-Tonfall, nämlich die monotone Darbietung und das Zombie-artige Auftreten der unglaublich Gehirngewaschenen ist, dass dank des UN Framework Convention on Global Government Climate Change die CO2-Reduktion so eindrucksvoll war, dass die Emissionen jetzt deutlich unter dem Business-as-Usual-Szenario im IPCC-Bericht 1990 liegen und viel näher dem weniger extremistischen Szenario B.

Mit Verlaub – nein! Obwohl die Aufzeichnung der CO2-Emissionen in das Adjustozän hineingezogen worden ist dergestalt, dass jetzt so getan wird, als ob – per impossibile – die globalen CO2-Emissionen während der letzten fünf Jahre unverändert geblieben waren, zeigt der jüngste Bericht zu diesen Emissionen diese als fast konsistent mit dem usiness-as-Usual-Szenario des IPCC (1990).

Globale CO2-Emissionen folgen dem Business-as-Usual-Szenario A des IPCC.

Als man mit dieser lügnerischen Ausrede gescheitert war, entwickelte die Partei eine interessante Rückzugslinie mit der Auswirkung, dass obwohl die Emissionen nicht dem IPCC-Szenario B folgten, die resultierenden Strahlungsantriebe viel geringer sind als vom IPCC 1990 prophezeit. Und das sind sie auch. Was jedoch die Parteilinie sorgfältig versteckt, ist der Grund für diesen Umstand.

Die Partei erkannte, dass deren Schätzungen des kumulativen anthropogenen Gesamt-Strahlungsantriebs aus allen Quellen hoch genug waren in Relation zur beobachteten Erwärmung, dass sich eine weit geringere Gleichgewichts-Sensitivität auf Strahlungsantriebe zeigte als ursprünglich verfügt. Dem zufolge reflektierte der 3. Zustandsbericht ordnungsgemäß die adjustierte Parteilinie, indem magische Windungen sowie künstliche und erhebliche Reduktion des gesamt-anthropogenen Antriebs damit verwoben wurden. Man führte nämlich etwas ein, was Prof. Lindzen unverblümt „den Aerosol-Frisier-Faktor“ nannte. Der Einfluss dieses schädlichen Frisier-Faktors wird im 5. Zustandsbericht deutlich:

Fudge, mudge, kludge [etwa: frisieren, schummeln, flickschustern]: Der Aerosol-Frisier-Faktor reduziert den menschengemachten Strahlungseinfluss erheblich und erhöht fälschlich die Klima-Sensitivität (IPCC 2013, Abb. SPM.5)

Die IPCC-Liste der Strahlungsantriebe im Vergleich mit der vorindustriellen Ära zeigt einen gesamt-anthropogenen Strahlungsantrieb von 2,29 W/m² relativ zum Jahr 1750. Allerdings wäre diese Gesamtzahl noch deutlich höher ohne die beiden Aerosol-Frisier-Faktoren, nämlich insgesamt 0,82 W/m². Falls zwei Drittel dieser Gesamtzahl zurück hinzugefügt werden, wie es sein sollte, weil anthropogene Aerosole sich in nichts von natürlichen Aerosolen in den Sahara-Winden unterscheiden, welche bis nach Schottland verfrachtet werden können, wird der gesamt-anthropogene Faktor zu 2,85 W/m². Der Unterschied zur offiziellen Klima-Sensitivität sieht so aus:

Wie der Aerosol-Frisier-Faktor künstlich den Systemerhaltungs-Faktor A erhöht.

Im linken Bild ist die Referenz-Sensitivität (also die anthropogene Temperaturänderung zwischen 1850 und 2010 vor Berücksichtigung von Rückkopplungen) das Produkt des Planck-Parameters 0,3 K pro W/m² und der mittelfristigen IPCC-Schätzung von 2,29 W/m² des gesamt-anthropogenen Strahlungsantriebs in der industriellen Ära 2011: d. h. 0,68 K.

Die Gleichgewichts-Sensitivität ist etwas komplexer, weil es die offizielle Klimatologie liebt sich vorzustellen (vermutlich ohne jede Rechtfertigung), dass bislang noch nicht die ganze anthropogene Erwärmung wirksam geworden ist. Daher haben wir für die Mittelfrist-Schätzung bei Smith (2015) des Gesamt-Strahlungs-Ungleichgewichtes von 0,6 W/m² zugelassen. Dies konvertiert die gemessene Erwärmung von 0,75 K von 1850 bis 2011 zu einer Gleichgewichts-Erwärmung von 1,02 K.

Der Systemerhaltungs-Faktor verwendet den Delta-Wert der Systemerhaltungs-Gleichung, welche derzeit universal bei der offiziellen Klimatologie ist. Der Faktor ist das Verhältnis der Gleichgewichts- zur Referenz-Sensitivität, d. h. 1,5. Da die Referenz-Sensitivität bei CO2-Verdoppelung, abgeleitet aus den CMIP5-Modellen bei Andrews (2012) 1,04 K beträgt, beläuft sich die Charney-Sensitivität auf 1,5 X 1,04 oder 1,55 K.

Im rechten Bild wurden etwas über zwei Drittel des Aerosol-Frisier-Faktors von 0,82 K dem gesamt-anthropogenen Antrieb zurück hinzugefügt, worauf sich 2,85 K ergaben. Warum zurück addiert? Nun, ohne zu viele Geheimnisse zu verraten, die offizielle Klimatologie hat angefangen zu begreifen, dass der Aerosol-Frisier-Faktor viel, viel zu hoch ist. Er ist so unrealistisch, dass er Zweifel weckt hinsichtlich der Glaubwürdigkeit der übrigen Tabelle mit den Antrieben in IPCC 1990 (Abb. SPM.5). Man erwarte signifikante Änderungen im nächsten IPCC-Zustandsbericht, welcher etwa 2020 geplant ist.

Verwendet man den korrigierten Wert des gesamt-anthropogenen Antriebs, fällt der Systemerhaltungs-Faktor auf 1,13. Das führt zu einer Charney-Sensitivität von 1,13 X 1,04 oder 1,17 K.

Wir wollen noch einen anderen Weg einschlagen, das zu testen, und zwar unter Verwendung der Absolutwert-Gleichung, welche durch die fälschlich restriktive Definition einer „Temperatur-Rückkopplung“ der offiziellen Klimatologie ausgeschlossen wird:

Der System-Erhaltungs-Faktor 2011: (Links) ohne und (rechts) mit Frisier-Faktor-Korrektur

Hier zeigt sich ein bedeutender Vorteil, wenn man die Systemerhaltungs-Gleichung mit Absolutwerten anwendet, welche von der offiziellen Klimatologie verworfen wird. Änderungen der Delta-Werte führen zu großen Änderungen des Systemerhaltungs-Faktors, aber nur sehr geringe Änderungen, wenn er mittels der Absolutwert-Gleichung abgeleitet wird. Tatsächlich sind die Systemerhaltungs-Faktoren der Jahre 1850 und 2011, wenn mit der Absolutwert-Gleichung abgeleitet, nahezu identisch mit 1,13. Dies zeigt, dass unter den heutigen Bedingungen Nicht-Linearitäten in Rückkopplungen nur sehr geringen Einfluss auf den Systemerhaltungs-Faktor haben.

Unter dem Strich: Kein noch so großer Wutanfall ob des Temperaturverlaufs kann die Tatsache verändern, dass der Systemerhaltungs-Faktor und damit auch die Gleichgewichts-Temperaturen gering sind – egal ob man die Delta-Wert-Gleichung heranzieht (Charney-Sensitivität 1,55 K) oder die Absolutwert-Gleichung (Charney-Sensitivität 1,17 K).

Link: https://wattsupwiththat.com/2018/08/21/temperature-tampering-temper-tantrums/

Übersetzt von Chris Frey EIKE




NOAA erneut ertappt: Datenmani­pulation, diesmal mit der Elimi­nierung einer Rekord-Kältewelle

Dieses Mal waren die Daten betroffen, welche die jüngste Rekord-Kältewelle im Nordosten der USA belegen. Die NOAA möchte diese Kältewelle aus der Historie entfernen.

Falls man die NOAA-Graphiken zum Maß aller Dinge macht, gibt es nichts besonders Ungewöhnliches hinsichtlich der Kälte dieses Winters, welche dazu geführt hat, dass Haie im Ozean erfroren sind und Leguane von den Bäumen fielen (hier).

Die NOAA-Graphik vom Januar 2018 für den Nordosten der USA sieht folgendermaßen aus (das Gebiet umfasst die Neuengland-Staaten sowie die angrenzenden Staaten NY, PA, NJ, DE und MD):

Man würde beim Betrachten dieser Graphik nie darauf kommen, dass es in diesem Gebiet jüngst zu einer Rekorde brechenden Kältewelle gekommen war, oder?

Das liegt daran, wie Paul Homewood entdeckt hat, dass die NOAA die Daten manipuliert hat. Wieder einmal hat die NOAA Temperaturen in der Vergangenheit nach unten korrigiert, um sie kälter aussehen zu lassen, als sie waren, während sie Temperaturen aus jüngster Zeit nach oben korrigiert hat, damit sie wärmer aussehen als sie waren. Gründe? Vermutlich haben die Gründe mehr mit Ideologie als mit Meteorologie zu tun.

Wir sprechen hier nicht über Grad-Bruchteile. Die Korrekturen addieren sich zu atemberaubenden ca. 1,7°C! Das liegt weit jenseits aller Fehlerbandbreiten oder einfacher Fehler und reicht tief in den Bereich Fiktion und politische Propaganda.

Aufmerksam wurde Homewood auf diese Manipulationen, als er die Datensätze von New York unter die Lupe nahm.

Vor allem irritierte ihn, wie die NOAA mit dem besonders kalten Winter umgegangen war, der New York 2013/14 heimgesucht hatte, was er hier beschreibt.

————————–

Die ganze Story von James Delingpole steht hier. Ich empfehle die Lektüre dringend. Er kommentiert ganz am Schluss:

Das ist ein Skandal! Die Klima-Wächter der NOAA sind politische Aktivisten, aber keinesfalls ehrliche Wissenschaftler. Der US-Steuerzahler darf deren Propaganda nicht länger finanzieren!

Legt den Sumpf endlich trocken!

Politik und Medien bei uns machen ja auch begeistert mit. Kann man da wirklich nichts machen außer immer wieder auf derartige Praktiken hinzuweisen? – Chris Frey, Übersetzer

Link: https://wattsupwiththat.com/2018/02/20/noaa-caught-cooking-the-books-again-this-time-by-erasing-a-record-cold-snap/

Übersetzt von Chris Frey EIKE




Schummel, Schummel! Wie sie daran scheiterten, die Kluft zwischen prophe­zeiter und gemessener Erwär­mung zu verschleiern

Abbildung 1: Die Regression kleinster Quadrate über die monatlichen globalen Anomalien während des gesamten Satelliten-Zeitraumes zeigt von Dezember 1978 bis Dezember 2017 eine Erwärmung mit einer Rate äquivalent zu lediglich 1,28°C pro Jahrhundert.

Nimmt die Rate der globalen Erwärmung unaufhaltsam zu? Die Antwort lautet Nein, wie aus Abbildung 2 hervorgeht:

Abbildung 2: Der Trend kleinster Quadrate im UAH-Datensatz zeigt von Februar 1997 bis Dezember 2017 Erwärmung mit einer Rate äquivalent zu 0,85°C pro Jahrhundert.

Die Erwärmungsrate der 251 Monate mit Daten über die Hälfte des gesamten UAH-Datensatzes ist nicht höher als die Rate über den gesamten Zeitraum von 469 Monaten. Sie liegt ein Drittel niedriger, von 1,28 auf 0,85°C pro Jahrhundert. Ich habe den Startzeitpunkt für Abbildung 2 gewählt, weil er den Beginn der längsten Periode des Großen Stillstands markiert, welche dem RSS-Satelliten-Datensatz zufolge spektakuläre 18 Jahre und 9 Monate dauert, von Februar 1997 bis Oktober 2015, wie Abbildung 3 zeigt:

Abbildung 3: Der Trend kleinster Quadrate im RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung von Februar 1997 bis Oktober 2015, also 18 Jahre und 9 Monate lang. Das ist die längste Periode des Stillstands, obwohl ein Drittel aller anthropogenen Antriebe in diesen Zeitraum fällt.

Ein wenig Historie. Im Zuge seiner Vorbereitung auf eine Debatte im Senat Ende 2015 ist Senator Ted Cruz an das Heartland Institute herangetreten und hat um eine einzelne Graphik gebeten, welche am Besten den klimaskeptischen Standpunkt belegt. Man wählte Abbildung 3, und Senator Cruz zeigte sie im Senat, zum sichtlichen Unbehagen der Demokraten. Bob Carter schrieb mir kurz vor seinem viel zu frühen Tod, wie erfreut er war von unserer Linie zu hören, dass ein Drittel des gesamten Einflusses des Menschen auf das Klima seit 1750 während des Stillstands aufgetreten war, jedoch ohne auch nur die geringste Erwärmung auszulösen.

In meinem Bericht über den Stillstand im November 2017 bei WUWT prophezeite ich, dass der RSS-Datensatz rasch manipuliert werden würde, um den Stillstand daraus zu entfernen. Nur wenige Wochen später verkündete der Betreiber jenes Datensatzes, Dr. Carl Mears, welcher dazu neigt, Skeptiker als „Leugner“ zu diffamieren, dass es tatsächlich eine Revision geben würde. Als diese dann erschien, war der Stillstand daraus verschwunden.

Interessant dabei ist, dass dieser Vorgang, d. h. die Veränderung von Daten ex post facto, um sie an die Parteilinie anzupassen, immer noch weitergeht. Aus dem Datensatz, so wie er vor ein paar Monaten gezeigt worden ist, war der empörende Null-Trend während des 18 Jahre und 9 Monate langen Stillstands daraus verschwunden und ersetzt worden durch einen Trend äquivalent zu 0,77°C pro Jahrhundert (Abbildung 4).

Allerdings reichte diese Temperatur-Manipulation* nicht aus. Der RSS-Datensatz, so wie er heute gezeigt wird, zeigt eine Erwärmungsrate äquivalent zu 0,83°C pro Jahrhundert über genau den gleichen Zeitraum (Abbildung 5).

[*Monckton verwendet hier eines seiner unübersetzbaren und auch unnachahmlichen Wortspiele. Er schreibt tamparature change, zusammengesetzt aus tamper und temperature. Anm. d. Übers.]

Abbildung 4: Der Trend kleinster Quadrate im RSS-Datensatz über die 18 Jahre und 9 Monate des Stillstands auf der Grundlage der Mitte 2017 gezeigten Daten.

Abbildung 5: Der Trend kleinster Quadrate im RSS-Datensatz über die 18 Jahre und 9 Monate des Stillstands, diesmal mit den Daten, wie sie heute gezeigt werden.

Man vergleiche die Abbildungen 4 und 5 mit Abbildung 6, den derzeitigen UAH-Daten über die 18 Jahre und 9 Monate des Stillstands. Sie zeigen eine statistisch nicht signifikante Erwärmung äquivalent zu 0,05°C pro Jahrhundert über den Stillstands-Zeitraum.

Zu der Zeit des Stillstands zeigten die UAH-Daten eine höhere Erwärmungsrate als RSS. Seitdem sind die UAH-Daten überarbeitet worden mit dem Effekt der Reduktion der zuvor erkennbaren geringen Erwärmungsrate während der Stillstands-Periode, während die RSS-Daten weiterhin und immer noch dergestalt überarbeitet werden, dass die offensichtliche Erwärmungsrate über den gleichen Zeitraum immer stärker in Erscheinung tritt.

Aus all diesen Daten geht klar hervor, dass die Rate der globalen Erwärmung sehr erheblich unter dem liegt, was ursprünglich prophezeit worden war. In einem weiteren Beitrag werde ich für jedermann verständlich zeigen, wie groß die Diskrepanz ist zwischen nervös machender Prophezeiung und belangloser Beobachtung, und wie falsch die vielfachen künstlichen Behauptungen in gewissen begutachteten Studien waren, die belegen sollten, wie recht das IPCC mit seinen ursprünglichen Prophezeiungen hatte, und wie falsch jene Prophezeiungen wirklich waren.

Und schließlich werde ich zu gegebener Zeit genau zeigen, welcher Fehler in dem Modellen zu diesen außerordentlichen Über-Prophezeiungen geführt haben, und wie gering die angemessen prophezeite Erwärmungsrate ist, nachdem dieser verhängnisvolle Fehler korrigiert ist.

Abbildung 6: Der Trend kleinster Quadrate des gegenwärtigen UAH-Datensatzes stimmt überein mit dem Original-RSS-Datensatz und zeigt während der 18 Jahre und 9 Monate von Februar 1997 bis Oktober 2015 eine globale Erwärmung mit einer Rate, die nicht unterscheidbar ist von Null.

Link: https://wattsupwiththat.com/2018/01/03/tamper-tamper-how-they-failed-to-hide-the-gulf-between-predicted-and-observed-warming/

Übersetzt von Chris Frey EIKE




Eine Merkwürdig­keit bei den Adjustie­rungen von Bojen-Daten von Karl et al. 2015

Das Argument lautet also, dass es der Übergang zu Bojendaten ist, der Warm-Änderungen in den ERSSTv4-Daten erforderlich macht.

Aber falls das so ist, was ist mit dem Zeitraum 1986 bis 2003? Während dieses Zeitraumes gab es eine Zunahme von Bojendaten von etwa 8% auf 50%.

Warum aber ist es nicht notwendig, den Zeitraum 1986 bis 2003 zu warm-adjustieren, wie man es im Zeitraum 2003 bis 2016 gemacht hatte?

Zwar kann dieser Umstand schon öfter zuvor angesprochen worden sein, aber davon habe ich nichts gesehen.

Daten des Bojen-Anteils in % sind Schätzungen aus diesem Artikel:

https://judithcurry.com/2015/11/22/a-buoy-only-sea-surface-temperature-record/

Bis 2006 sind die Prozentwerte aus der Graphik in diesem Artikel abgelesen. Und außerdem schreiben sie, dass der Bojen-Anteil nach 2007 über 70% gelegen habe. Folglich reflektieren die Zahlen der Jahre 2007 bis 2015, dass der Anteil 2015 über 70% gelegen hat.

Aber im Raum bleibt stehen, dass der Bojen-Anteil im Jahre 2003 auf 50% gestiegen ist, aber trotzdem nur einher ging mit immer noch kälteren Temperatur-Adjustierungen.

Es „sollte“ also einen sehr wichtigen Grund geben für die Kalt-Adjustierung von 1986 bis 2000 – welcher dominanter ist als der für die „notwendige“ Warm-Adjustierung infolge der Bojen.

Link: https://wattsupwiththat.com/2017/02/14/an-oddity-in-the-karl-et-al-2015-buoy-data-adjustments/

Übersetzt von Chris Frey EIKE




Mehr zum ein­schlägigen Artikel von David Rose: Insta­bilität im Global Historical Climate Network GHCN

Nachdem ich diese beiden Individuen kennen gelernt und ihren Zelotismus gesehen habe, überrascht mich kein einziger der Taschenspielertricks, die David Rose in seinem Artikel ans Tageslicht gebracht hat.

Die Gläubigen behaupteten, dass es keinen Unterschied gebe zwischen den Temperatur-Datensätzen der NOAA und von der HadCRUT, die im Rose-Artikel angesprochen worden waren, und sagen, dass die Differenz ein Grundlagen-Fehler ist. Sei’s drum, und vielleicht war es auch einfach ein Fehler der Graphik-Abteilung bei der Mail on Sunday – ich weiß es nicht.

Wenn man die Grundlinien der Anomalien übereinander legt, verschwindet die Differenz:

Abbildungen: Vergleich der monatlichen globalen Temperatur-Anomalien von HadCRUT4 und NOAA Ozean und Festland bezogen auf die allgemeine Basisperiode 1961 bis 1990. h/t The CarbonBrief

Aber … es gibt weitere ernste Probleme mit den globalen Klimadaten.

Was auch immer man denken mag, NOAA und HadCRUT sind nicht vollständig „unabhängig“. Beide verwenden Daten des GHCN, und das GHCN wurde betrieben von … Trommelwirbel! … Thomas Peterson von der NOAA, also von einem der Mitautoren der „Pausebuster“-Studie von Karl et al. 2015.

Der Fuchs bewacht den Hühnerstall, und wie man unten erkennt, sind die Daten ernstlich dubios.

Paul Matthews schreibt auf der Website CliScep:

Ziel dieses Beitrags ist es, eine der Beschwerden von Bates zu bestätigen. Im Mail-Artikel heißt es, dass „der für die Studie herangezogene Festlands-Temperaturdatensatz mit verheerenden Fehlern in dessen Software behaftet war, welche dessen Ergebnisse ,instabil‘ machten“. Weiter unten liest man: „Außerdem war auch die GHCN-Software von ernsten Fehlern befallen. Diese machten das Ganze so ,instabil‘, dass jedes Mal, wenn die Rohdaten der Temperatur im Computer berechnet wurden, unterschiedliche Ergebnisse herauskamen“.

Da hat Bates so ziemlich recht. Ich selbst habe die Instabilität des Algorithmus‘ der GHCN-Adjustierungen zum ersten Mal im Jahre 2012 entdeckt. Paul Homewood hat die Adjustierungen auf seinem Blog viele Jahre lang hinterfragt, besonders in Island, siehe Beispiele hier, hier, hier und hier. Oftmals wird die Vergangenheit durch diese Adjustierungen kälter, um die Erwärmung stärker aussehen zu lassen als es in den Rohdaten zum Ausdruck kommt. Als ich die Adjustierungen der Werte von Alice Springs in Australien betrachtete, bemerkte ich (siehe meinen Beitrag aus dem Jahr 2012), dass sich die Adjustierungen der Temperaturen in der Vergangenheit oftmals innerhalb nur weniger Wochen ziemlich dramatisch veränderten. Ich denke, dass auch Paul Homewood dies irgendwo auf seinem Blog kommentiert hat. Als wir diese Änderungen zum ersten Mal bemerkten, dachten wir, dass vielleicht der Algorithmus selbst verändert worden wäre. Aber es wurde bald klar, dass sich die Adjustierungen so oft änderten, dass dies nicht der Fall sein konnte, und es war der Algorithmus selbst, der instabil war. Mit anderen Worten, immer wenn dem System jede Woche neue Daten hinzugefügt wurden, wurde der Algorithmus erneut durchlaufen, und die sich daraus ergebenden Temperaturen der Vergangenheit waren jedes Mal ziemlich unterschiedlich.

Hier folgt eine von mir zu jener Zeit erstellte Graphik mit Daten, die von der GHCN ftp site heruntergeladen werden können. (die nicht adjustierten bzw. adjustierten Files sind ghcnm.tavg.latest.qcu.tar.gz bzw. ghcnm.tavg.latest.qca.tar.gz). Sie illustrieren die Instabilität des Adjustierungs-Algorithmus‘:

Die dunkelblaue Linie zeigt die Rohdaten-Temperaturaufzeichnung für Alice Springs. Die grüne Linie zeigt die adjustierten Daten, wie sie im Januar 2012 vom GHCN genannt worden sind. Man sieht, dass die Adjustierungen ziemlich gering sind. Die rote Linie zeigt die adjustierte Temperatur nach Durchlaufen des GHCN-Algorithmus‘, wie sie vom GHCN im März 2012 angegeben wurden. In diesem Falle sind die Temperaturen der Vergangenheit um 2 Grad abgekühlt worden. Im Mai erwärmte der Adjustierungs-Algorithmus die Temperaturen der Vergangenheit, so dass diese etwa 3 Grad höher lagen als die Temperaturen, die sie im März gezeigt hatten! Man beachte, dass alle Graphen am rechten Rand zusammenlaufen, da der Adjustierungs-Algorithmus in der Gegenwart beginnt und rückwärts läuft. Die Divergenz der Linien mit zunehmender Vergangenheit illustriert die Instabilität.

Es gibt einen Blogbeitrag von Peter O’Neill Wanderings of a Marseille January 1978 temperature, according to GHCN-M, in welchem die gleiche Instabilität des Algorithmus‘ gezeigt wird. Er betrachtet adjustierte Temperaturen von Marseille, welche die gleichen offensichtlich zufällig verteilten Sprünge zeigen, wenngleich die Amplitude der Instabilität etwas geringer ist als im Falle Alice Springs. Sein Beitrag zeigt auch, dass jüngere Versionen des GHCN-Codes das Problem nicht gelöst haben, gehen doch seine Graphiken bis zum Jahr 2016. Man findet auf seinem Blog viele ähnliche Beiträge.

Es gibt noch viel mehr zu sagen über die Temperatur-Adjustierungen, aber ich möchte mich in diesem Beitrag auf diesen einen Punkt beschränken. Der GHCN-Algorithmus ist instabil, wie von Bates festgestellt, und erzeugt praktisch bedeutungslose adjustierte Temperaturdaten der Vergangenheit. Die hier gezeigten Graphiken ebenso wie diejenigen von Peter O’Neill belegen dies. Kein ernsthafter Wissenschaftler sollte sich eines derartig instabilen Algorithmus‘ bedienen. Man beachte, dass diese unechten adjustierten Daten danach als Input verwendet werden für weithin gebräuchliche Datensätze wie etwa GISTEMP. Was sogar noch absurder ist: das GISS führt selbst noch weitere Adjustierungen der schon adjustierten GHCN-Daten durch. Es ist unfasslich, dass sich die Klimawissenschaftler bei GHCN und GISS dieses sehr ernsten Probleme bei ihren Verfahren nicht bewusst sind.

Zum Schluss habe ich noch die jüngsten Roh- und adjustierten Temperaturdaten vom GHCN heruntergeladen, bis zum 5. Februar 2017. Hier folgen die Plots für Alice Springs. Es gibt keinen Preis, wenn man richtig rät, welches die Rohdaten und welches die adjustierten Daten sind. Beim GISS gibt es eine sehr ähnliche Graphik.

Der ganze Beitrag dazu steht hier: https://cliscep.com/2017/02/06/instability-of-ghcn-adjustment-algorithm/

Link: https://wattsupwiththat.com/2017/02/07/more-on-the-bombshell-david-rose-article-instability-in-the-global-historical-climate-network/

Übersetzt von Chris Frey EIKE




100% der Erwärmung in den USA gehen auf Daten­manipulationen der NOAA zurück

Zunächst noch Anmerkung zur Übersetzung: Es tauchen naturgemäß immer wieder die Begriffe „mild – warm – hot“ auf. Anders als bei anderen Übersetzungen bleibe ich hier bei der direkten Übersetzung zu „mild – warm – heiß“. Außerdem werden viele Temperaturangaben in Grad Fahreinheit genannt. Den Celsius-Wert setze ich in eckigen Klammern daneben. Differenzwerte in Grad Fahrenheit werden zur Basis 32°F = 0°C berechnet. – Chris Frey

Auf der Website von ClimateCentral.org erschien jüngst folgende Meldung, welche die Washington Post sofort aufgriff. Es wird behauptet, dass das Jahr 2016 in den USA ein „überwältigend heißes Jahr“ gewesen ist und dass die Temperaturen seit dem 19. Jahrhundert um 1,5°F [ca. 0,8°C] gestiegen seien:

In den USA war es dieses Jahr überwältigend heiß. Quelle: Climate Central

Das erste Problem ihrer Analyse besteht darin, dass es in den USA im Jahre 2016 kaum heißes Wetter gegeben hatte. Der Prozentsatz heißer Tage lag unter dem Mittelwert und liegt für das Jahr an 80. Stelle seit 1895. Nur 4,4% aller Tage wiesen eine Temperatur über 95°F [ca. 35°C] auf im Vergleich zum vieljährigen Mittel von 4,9%. Bei Climate Central bläht man milde Temperaturen mit heißen Temperaturen auf.

Man behauptet dort auch, dass die US-Temperaturen um 1,5°F [ca. 0,8°C] gestiegen seien

Klima auf einen Blick. Quelle: National Centers for Environmental Information (NCEI)

Das Problem bei der NOAA-Graphik ist, dass es geschummelte Daten sind [fake data]. Die NOAA erzeugt den Erwärmungstrend mittels Veränderung der Daten. Die Rohdaten der NOAA zeigen im vorigen Jahrhundert keine Erwärmung.

Die „Korrekturen“ ergeben fast genau 1,5°F, also genau die in dem Artikel behauptete Erwärmung.

Die Adjustierungen korrelieren fast perfekt mit atmosphärischem CO2. Die NOAA [die Abkürzung steht für National Oceanic and Atmospheric Administration. Anm. d. Übers.] adjustiert die Daten dergestalt, dass sie zur Theorie der globalen Erwärmung passen. Dies ist bekannt unter der Bezeichnung PBEM (Policy Based Evidence Making.) [etwa: Auf Politik beruhende Herstellung von Beweisen].

Der Hockeyschläger von Adjustierungen seit dem Jahr 1970 geht fast ausschließlich auf die Phantasiewerte der NOAA zurück, mit denen sie fehlende Stationsdaten ersetzte. Im Jahre 2016 fehlten über 42% der monatlichen Daten ihrer Stationen, also hat man die Werte dort einfach erfunden. Das lässt sich auch leicht feststellen, hat man doch fabrizierte Temperaturen in der Datenbasis mit einem „E“ gekennzeichnet.

Als ich meine Behauptungen über den Betrug der NOAA präsentierte, reagierte die NOAA wie üblich und wischte die Behauptungen mit diesen beiden Aussagen vom Tisch:

1. NOAA hat Gitterpunkts-Daten verwendet Gitterpunkts-Daten und ich reale Daten [un-gridded data].

2. Man „musste“ die Daten adjustieren, um einem Bias wegen des Beobachtungszeitpunktes und Stationsverlagerungen Rechnung zu tragen.

Beide Behauptungen lassen sich leicht widerlegen. Der einzige Effekt, den Gitterpunkte haben ist, dass Temperaturen geringfügig erniedrigt werden.Der Trend der Gitterpunkts-Daten ist fast identisch mit dem Trend der realen Daten.

Der Beobachtungszeit-Bias [Time of Observation Bias (TOBS)] ist ein reales Problem, allerdings nur ein sehr kleines. TOBS fußt auf dem Gedanken, dass falls man ein Min/Max-Thermometer zu nahe dem nachmittäglichen Maximum neu einstellt, warme Temperaturen doppelt zählen (und umgekehrt bei Neueinstellung am Morgen). Ihre Behauptung lautet, dass während der heißen dreißiger Jahre an den meisten Stationen die Thermometer zu früh, also am Nachmittag eingestellt wurden.

Das lässt sich leicht überprüfen mittels Verwendung nur der Stationsdaten, die ihre Thermometer während der dreißiger Jahr nicht neu eingestellt hatten. Das Bild ist nahezu identisch mit dem aller Stationen. Keine Erwärmung im vorigen Jahrhundert. Man beachte, dass der Graph unten dazu neigt, zu viel Erwärmung zu zeigen wegen TOBS am Morgen.

Die eigenen Dokumente der NOAA zeigen, dass die TOBS-Adjustierung gering ist (0,3°F) und nach 1990 flach verläuft.

https://www.ncdc.noaa.gov/img/climate/research/ushcn/ts.ushcn_anom25_diffs_pg.gif

Gavin Schmidt von der NASA erklärt sehr eindeutig, warum die US-Temperaturaufzeichnungen nicht adjustiert werden müssen:

Man kann 50% der Stationsdaten oder mehr aussortieren, und man bekommt im Grunde die gleichen Antworten.

Eine der neuesten Innovationen ist das Erstellen eines Klima-Referenz-Netzwerkes parallel zu den gegenwärtigen Stationen, so dass man nach potentiell ernsten Dingen in großem Maßstab suchen kann – und sie haben bisher keine solchen Dinge gefunden.

Ausführlicher:

NASA – NASA Climatologist Gavin Schmidt Discusses the Surface Temperature Record

Die NOAA hat immer gewusst, dass es in den USA nicht wärmer wird:

US-Daten zeigen seit 1895 keinen Erwärmungstrend – NYTimes.com

Sämtliche Behauptungen im Climate Central-Artikel sind betrügerisch. In den USA wird es nicht wärmer, und 2016 war kein heißes Jahr. Es war ein sehr mildes Jahr.

Link: http://realclimatescience.com/2016/12/100-of-us-warming-is-due-to-noaa-data-tampering/

Übersetzt von Chris Frey EIKE

Bemerkung zu den letzten beiden Graphiken: Es ist mir nicht gelungen, sie lesbarer darzustellen. Wer nachlesen möchte, klicke bitte auf den Link zum Original.