1

Manipulation der Daten zum Meeresspiegel

Erstens: Warum zeigen die satellitengestützten Meeresspiegeldaten, dass der Meeresspiegel so viel schneller steigt als der Anstieg, der an Gezeitenstationen an den Küsten der Welt gemessen wird? Die Aufzeichnungen der Gezeitenstationen zeigen einen Anstieg in der Größenordnung von ein paar Millimetern pro Jahr, eine Rate, die sich über die etwa hundert Jahre, für die wir ausreichende Aufzeichnungen haben, kaum verändert hat. Die Satellitenaufzeichnungen (Abbildung 1) zeigen jedoch einen Anstieg von 3,3 mm/Jahr. Warum der große Unterschied?

Zweitens: Warum zeigt der satellitengestützte Meeresspiegel eine so deutliche Beschleunigung? Wie oben erwähnt, zeigen die Aufzeichnungen des Meeresspiegels von Gezeitenstationen, die viel länger sind, wenig oder keine Beschleunigung. Aber die Satellitenaufzeichnungen behaupten, dass die Rate des Meeresspiegelanstiegs um etwa einen Zehntel Millimeter pro Jahr zunimmt. Eine solche Beschleunigung würde den Anstieg des Meeresspiegels in etwa dreißig Jahren verdoppeln. Noch einmal: Warum der große Unterschied?

Zunächst einmal: Hier ist, was die Satellitendaten laut der University of Colorado Sea Level Research Group zeigen:

Abbildung 1. Meeresspiegeldaten der University of Colorado, die den Trend und die Beschleunigung zeigen. Beachten Sie, dass die Grafik keine Überschneidungen zwischen den einzelnen Satellitenaufzeichnungen zeigt. QUELLE: UCSLR-Gruppe

Ich habe diese Woche wieder über diese Fragen nachgedacht, also ging ich zu NOAA und holte mir deren Excel-Tabelle, die den kompletten Datensatz für jeden der vier Satelliten zeigt.

Ich habe die NOAA-Daten aufgezeichnet. Aber im Gegensatz zu den Colorado-Daten oben, habe ich die volle Überlappung zwischen den einzelnen Satelliten mit einbezogen. Dann habe ich die Rate des Meeresspiegelanstiegs, die von jedem der vier Satelliten angezeigt wird, separat betrachtet. Abbildung 2 zeigt das Ergebnis.

Abbildung 2. NOAA-Meeresspiegeldaten, die den Trend der einzelnen, vollständigen Satellitenaufzeichnungen und den Gesamttrend zeigen. QUELLE: NOAA-Excel-Tabelle

Es scheint, als hätte ich nach all den vielen Jahren der Verwunderung endlich eine Antwort auf meine beiden Fragen. Der Trend ist so groß und die Beschleunigung ist aus einem einfachen Grund so groß. Die beiden jüngsten Satelliten zeigen Trends, die deutlich größer sind als die der beiden früheren Satelliten. Die ersten beiden Satelliten stimmen recht gut überein, aber sie zeigen beide einen viel kleineren Trend als die beiden letzten Satelliten. Und keine der beiden Hälften der Satellitenaufzeichnungen zeigt eine Beschleunigung.

Was man oben sieht sind die Fakten, wie sie von der NOAA angegeben werden, und ich habe oben die Quelle dieser Fakten verlinkt. Und es scheint mir, dass diese Fakten mehr als ausreichend sind, um die Satellitenaufzeichnung des Meeresspiegels vollständig zu diskreditieren.

Und um zum eigentlichen Thema zurückzukehren, warum zeigen die NOAA-Daten einen Gesamttrend, der um 0,3 mm pro Jahr geringer ist als die Colorado-Daten? Das liegt daran, dass die Colorado-Daten das enthalten, was „GIA“ genannt wird, und die NOAA-Daten nicht.

„GIA“ steht für die „glaziale isostatische Anpassung“. Es gibt eine Beschreibung davon auf der Colorado-Seite hier. Sie bezieht sich auf die Veränderungen der Gesamtform der Erde aufgrund des Abschmelzens der riesigen und immens schweren Eisschilde der letzten Eiszeit.

Laut dieser Seite wird die GIA „unabhängig aus Modellen auf -0,3 mm/Jahr geschätzt (Peltier, 2001, 2002, 2009; Peltier & Luthcke, 2009)“.

Nun ist ein Computermodell nichts anderes ist als eine physikalische Umsetzung der Überzeugungen, Erkenntnisse und insbesondere der Missverständnisse der Person, die den Computer programmiert. Da Mr- Peltier an der Programmierung aller vier auf der Colorado-Seite aufgeführten Modellrealisierungen beteiligt war, ist ihre Behauptung, die vier Modelle seien „unabhängig“, lächerlich. Was wir haben, ist die Behauptung eines Mannes, dass er den GIA berechnen kann.

Welchen Effekt hat die GIA? Die Colorado-Seite sagt (Hervorhebung von mir):

Vor der Veröffentlichung 2011_rel1 haben wir die GIA bei den Schätzungen des globalen mittleren Meeresspiegels nicht berücksichtigt, aber diese Korrektur ist jetzt wissenschaftlich gut verstanden und wird von fast allen Forschungsgruppen auf der ganzen Welt auf die GMSL-Schätzungen angewendet. Die Einbeziehung der GIA-Korrektur hat den Effekt, dass frühere Schätzungen der globalen mittleren Meeresspiegelrate um 0,3 mm/Jahr erhöht werden.

Da sind also die fehlenden 0,3 mm/Jahr, angewandt von „fast allen Forschungsgruppen“ … Ich schätze, die NOAA hat das nicht mitbekommen.

Für mich ist die Behauptung, dass ein Computermodell die Veränderung des Gesamtvolumens aller verschiedenen Ozeanbecken der Welt auf die nächsten 0,3 mm pro Jahr des Meeresspiegels berechnen kann, unglaubwürdig, und zwar aus folgendem Grund.

Für den Landteil der Berechnung müssen diese „unabhängigen“ Computermodelle GPS-Höhen verwenden. Durch die Verwendung von Split-Phase-GPS und wiederholten Messungen können diese bis zu ± 10 mm oder besser genau sein, eine erstaunliche wissenschaftliche Leistung … aber das ist weit entfernt von einem Zehntel Millimeter, und das nur an Land. Nicht nur das, wir haben auch keine GPS-Messungen im ganzen Land. Sie konzentrieren sich auf die USA und Europa, während sie anderswo nur sporadisch genutzt werden.

Auf dem Meer müssen die „unabhängigen“ Modelle Satellitenmessungen verwenden, so dass sich die Frage nach der Genauigkeit und Präzision der Satellitenmessungen des Meeresspiegels selbst stellt. Diese Messungen werden durchgeführt, indem Radarwellen von der Meeresoberfläche zurückgeworfen werden und gemessen wird, wie lange es dauert, bis sie zum Satelliten zurückkehren. Hier sind wiederholte Messungen nicht möglich, da sich der Meeresspiegel an jedem Punkt ständig ändert und der Satellit selten zweimal an der gleichen Position ist. In einer aktuellen NASA-Pressemitteilung zum Sentinel-6-Satelliten, dem Nachfolger des Jason-3-Satelliten, wird der Ozeanograph Josh Willis zitiert:

Sentinel-6 wird in einer Umlaufbahn in etwa 1300 km Höhe kreisen und mit Hilfe von Radar die Oberfläche des Ozeans messen. Ein Instrument auf dem Satelliten sendet eine Radarwelle hinunter zur Erde. Die Radarwelle wird von der Meeresoberfläche reflektiert und kehrt zum Satelliten zurück. Durch die Messung der Zeit, die das Radar für den Hin- und Rückweg benötigt – und unter Berücksichtigung der Feuchtigkeit in der Atmosphäre, die das Radar verlangsamt – können die Wissenschaftler messen, wie weit die Meeresoberfläche vom Satelliten entfernt ist.

Mit anderen Worten: Der Satellit kann den Wissenschaftlern auf der Erde mitteilen, wie hoch die Ozeane sind und wie sich diese Höhe im Laufe der Zeit verändert.

Es ist wirklich eine unglaubliche technische Leistung“, sagt Josh Willis. „Wir können den Wasserstand mit einer Genauigkeit von 25 mm aus 1300 km Höhe messen.“

Eine Genauigkeit von 25 mm … und sie behaupten, sie kennen die jährliche Veränderung des Volumens der Ozeane aus dem GIA auf das nächste Zehntel eines mm der Meeresspiegelhöhe? Ich weiß, dass Genauigkeit etwas anderes ist als Präzision, und dass die Messung von Längenänderungen im Laufe der Zeit (Präzision) um eine Größenordnung besser sein kann als die Messung der Länge selbst (Genauigkeit), aber trotzdem … sorry, aber ich kaufe dem GIA die Behauptung nicht ab.

Schauen wir mal, ob ich Ihnen ein Gefühl für die Schwierigkeit der Satellitenmessungen des Meeresspiegels geben kann. Die Satelliten kreisen in einer Höhe von etwa 830 Meilen, das sind etwa 1,34 Milliarden Millimeter. Um also die Veränderung des Meeresspiegels auf ein Zehntel Millimeter genau zu messen, müssten wir in der Lage sein, den Abstand zwischen dem Satelliten und der Meeresoberfläche mit einer Genauigkeit von mehr als einem Teil in dreizehn Milliarden zu messen … und das ist selbst in einer kontrollierten Laborumgebung eine große Herausforderung.

Hier sind einige der Schwierigkeiten bei dieser Messung. Die erste ist die Messung der Höhe des Satelliten selbst. Wenn wir das nicht auf den Millimeter genau für jede Sekunde eines jeden Tages wissen, werden wir ungenaue Antworten erhalten. Der nächste Punkt ist die unterschiedliche Zusammensetzung, Temperatur, Bewölkung und Feuchtigkeit der Atmosphäre. All diese Faktoren verändern die Zeit, die das Radarsignal braucht, um zum Satelliten zurückzukehren. Dann gibt es die Meereswellen, die offensichtlich die Höhe des Ozeans um Tausende von mm verändern. Schließlich gibt es noch die „Instrumentendrift“, die unvermeidlichen Veränderungen, die bei elektronischen Messinstrumenten mit der Zeit auftreten.

Nettoergebnis? Nun, das Nettoergebnis ist in Abbildung 2 oben zu sehen, wo laut der Universität von Colorado ein Satellit sagt, dass der Meeresspiegel mit 2,5 mm/Jahr ansteigt, und nur 8 Tage nach dem Ende der Daten dieses Satelliten (das Intervall zwischen einem Satelliten und dem nächsten in der Colorado-Meeresspiegelaufzeichnung) sagt der Nachfolgesatellit, dass er mit 4,1 mm/Jahr ansteigt … no bueno. Sie behaupten, dass in 8 Tagen die Anstiegsrate um 1,6 mm pro Jahr gestiegen ist. Beachten Sie auch, dass es in beiden Hälften der Satellitenaufzeichnung absolut keine Beschleunigung gibt, sondern nur eine schrittweise Veränderung zwischen den Satelliten. Offensichtlich sind sie nicht in der Lage, jährliche Änderungen des Meeresspiegels auf den nächsten Millimeter genau zu messen, geschweige denn auf den nächsten Zehntelmillimeter.

Die Leute, die an dem Projekt arbeiten, sind jedoch alle wahre Gläubige. Im selben Artikel wird Josh Willis mit den Worten zitiert: „Wir wissen, dass die Ozeane wegen der vom Menschen verursachten Eingriffe in das Klima steigen.“

Verdammte Menschen, die sich immer in das Klima einmischen … zum Beispiel hat unser neuer „Klima-Zar“ John Kerry 5 Häuser, eine Reihe von Autos, eine Yacht und einen Privatjet, und er sagt uns, dass wir den Bus nehmen sollen, um die gefürchtete, „vom Menschen verursachte Störung des Klimas“ zu vermeiden … aber ich schweife ab.

Das Problem ist, dass der Start mit einer festen „wissenschaftlichen“ Überzeugung wie dieser dazu führt, dass die Leute, die an den Satelliten-Meeresspiegel-Datensätzen arbeiten, „befangen“ sind. Sie kleben die offensichtlich inkompatiblen Satellitenergebnisse zusammen, streichen Erdnussbutter über die Risse, damit sie nicht gesehen werden können, und verkünden der Welt, dass die Satelliten eine gefährliche Beschleunigung des Meeresspiegelanstiegs zeigen, so dass wir alle sehr besorgt sein sollten …

Ich habe schon seit einiger Zeit gesagt, dass wir den Satellitenergebnissen kein Gewicht beimessen sollten. Ich habe dies jedoch ausschließlich auf die sehr großen Unterschiede sowohl im Trend als auch in der Beschleunigung zwischen den Satelliten- und den Gezeitenstationsaufzeichnungen gestützt, sowie auf die bekannten Schwierigkeiten bei Satellitenmessungen, die oben diskutiert wurden. Ich habe diese Frage in mehreren Beiträgen untersucht, darunter „Inside The Acceleration Factory“ und „Accelerating The Acceleration“.

Aber jetzt, endlich, habe ich die Fakten, die meine Behauptung untermauern. Es gibt keine Beweise für eine Beschleunigung des Meeresspiegelanstiegs, weder in den Tidenmessungen noch in den schäbig zusammengeschusterten Satellitenaufzeichnungen. Er steigt seit geraumer Zeit in der Größenordnung von 200 mm pro Jahrhundert, und es gibt keine Anzeichen für eine Veränderung dieser Anstiegsrate.

Es steht einem also frei, das zu tun, was Obama und Bill Gates getan haben – Grundstücke am Meer kaufen. Sie verkünden lautstark, dass der Meeresspiegel gefährlich ansteigt, aber wie die Mehrheit der Klimaalarmisten überführen ihre Taten deren Worte als Scheinheiligkeit.

Link: https://wattsupwiththat.com/2021/02/21/munging-the-sea-level-data/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Einige ausschweifende Passagen Eschenbachs wurden bei der Übersetzung nicht berücksichtigt.

 




Der nationale Temperatur-Index der USA – beruht er auf Daten oder auf Korrekturen?

GHCN-Daily enthält die qualitäts-geprüften Rohdaten, die anschließend korrigiert und dann zum Auffüllen von GHCN-Monthly, einer Datenbank mit Monatsdurchschnittswerten, sowohl roh als auch endgültig, verwendet werden. Am 10. Oktober 2020 habe ich Version 4.0.1 der GHCN-Monats-Datenbank heruntergeladen. Zu diesem Zeitpunkt zählte sie weltweit 27.519 Stationen, und 12.514 (45%) davon befanden sich in den Vereinigten Staaten, einschließlich Alaska und Hawaii. Von den 12.514 US-Stationen befanden sich 11.969 in „CONUS“ [= CONtinental USA], den zusammen hängenden 48 Bundesstaaten. Die aktuelle Stationsabdeckung ist in Abbildung 1 dargestellt.

Abbildung 1. Die Abdeckung durch die GHCN-Wetterstation in den Vereinigten Staaten ist sehr gut, mit Ausnahme von Nordalaska. Es gibt zwei Stationen im westlichen Pazifik, die nicht abgebildet sind.

Wir haben mehrere Fragen zur landgestützten Temperaturaufzeichnung, die die langfristige (~170 Jahre) globale Temperaturaufzeichnung dominiert. Die landgestützten Messungen dominieren, weil die Angaben zur Temperatur über den Ozeanen sehr spärlich sind, bis etwa 2004 bis 2007, als das ARGO-Netzwerk von Bojen vollständig genug war, um gute Daten zu liefern. Aber sogar noch 2007 war der Gitterfehler an der Meeresoberfläche größer als die festgestellte Erwärmung des Ozeans.

Erwärmung der Ozeane

Wir haben geschätzt, dass sich die 71% der Erdoberfläche bedeckenden Ozeane mit einer Rate von 0,4°C pro Jahrhundert erwärmen, basierend auf dem in Abbildung 2 gezeigten linearen Trend der kleinsten Quadrate. Dies ist eine sehr grobe Schätzung und beruht nur auf Daten aus den Jahren 2004 bis 2019 und auf Temperaturen aus den oberen 2.000 Metern der Ozeane. Die Daten vor 2004 sind so spärlich, dass wir sie nicht verwenden wollten. Der Fehler in dieser Schätzung beträgt etwa ±0,26°C von der Oberfläche bis 2.000 Meter, und darunter ist er unbekannt.

Die Argo-Messungen der Meerestemperatur der oberen 2.000 Meter ergeben eine ziemlich konstante Temperatur von 2,4°C. Wir nahmen also eine Temperatur von 0,8°C bei einer durchschnittlichen Meerestiefe von 3.688 Metern und darunter an. Im Zusammenhang damit liegt der Gefrierpunkt des Meerwassers bei 2900 PSI (etwa 2.000 Meter oder 2.000 Dezibar) bei -17°C. Der Wert von 0,8°C stammt aus tiefen Argo-Daten, wie sie von Gregory Johnson und Kollegen beschrieben wurden (Johnson, Purkey, Zilberman, & Roemmich, 2019). Es gibt nur sehr wenige Messungen von Tiefsee-Temperaturen, und jede Schätzung weist erhebliche mögliche Fehler auf (Gasparin, Hamon, Remy, & Traon, 2020). Die Anomalien in Abbildung 2 basieren auf diesen Annahmen. Die berechneten Temperaturen wurden aus dem Mittelwert der Ozeantemperaturen von 2004 bis 2019 in Anomalien umgerechnet. Die zur Erstellung von Abbildung 2 verwendeten Daten stammen aus Jamstec. Ein R-Programm zum Lesen und Plotten der Jamstec-Daten kann hier heruntergeladen werden, die Zip-Datei enthält auch eine Tabellenkalkulation mit weiteren Details. Unsere Berechnungen gehen von einer durchschnittlichen Gesamttemperatur des Ozeans im Zeitraum 2004-2019 von 4,6°C aus.

Abbildung 2. Eine Darstellung des globalen Rasters der Ozeantemperaturen von JAMSTEC. Es ist hauptsächlich aus ARGO-Floats und Triton-Bojendaten aufgebaut. Jamstec ist die Quelle des Gitters, das zur Berechnung dieser Anomalien verwendet wird.

Die beobachtete Erwärmung der Ozeane ist keineswegs alarmierend und ziemlich linear und zeigt keine Anzeichen einer Beschleunigung. Die Ozeane enthalten 99,9% der thermischen Energie („Wärme“) auf der Erdoberfläche, die Atmosphäre enthält den größten Teil des Rests. Dies erschwert es der Erdoberfläche, sich sehr stark zu erwärmen, da die Ozeane als Wärmeregulator wirken. Verschiedene Berechnungen und Konstanten bezüglich der in den Ozeanen und der Atmosphäre gespeicherten Wärme finden Sie in einer Tabelle, die ich hier vorbereitet habe. Referenzen sind in der Tabelle enthalten. Die Ozeane steuern die Erwärmung mit ihrer hohen Wärmekapazität, d.h. mit der Menge an thermischer Energie, die erforderlich ist, um die durchschnittliche Temperatur der Ozeane um ein Grad zu erhöhen. Die Wärmeenergie, die benötigt wird, um die Temperatur der Atmosphäre um 1000 Grad C zu erhöhen, würde die durchschnittliche Meerestemperatur nur um ein Grad erhöhen.

Ich erwähne dies nur, weil die landgestützten Wetterstationen uns zwar wertvolle Informationen über das Wetter liefern, aber nur sehr wenig über den Klimawandel. Längerfristige Veränderungen des Klimas erfordern viel mehr Informationen über die Erwärmung der Ozeane, als uns derzeit zur Verfügung stehen. Dennoch wollen wir die in den Vereinigten Staaten gesammelten GHCN-Daten einmal unter die Lupe nehmen.

Die GHCN-Stationsdaten

In den USA und im Rest der Welt machen die landgestützten Wetterstationen den größten Teil der durchschnittlichen Temperaturaufzeichnungen des 19. und 20. Jahrhunderts aus. Es ist wichtig zu wissen, wie genau sie sind und welchen Einfluss die Korrekturen haben, die in Bezug auf die beobachtete Erwärmung angewendet werden. Es ist viel Arbeit geleistet worden, um Probleme mit den landgestützten Daten zu dokumentieren. Anthony Watts und Kollegen dokumentierten 2011 mit ihrem Projekt für Landstationen zahlreiche Probleme mit der Stationsauswahl und -ausrüstung. Wichtige Informationen zu dieser Studie von John Neison-Gammon können hier und hier eingesehen werden. Die Veröffentlichung im Journal of Geophysical Research finden Sie hier. Viele der radikalen Veränderungen im US-Temperaturindex der NOAA und in der zugrunde liegenden Datenbank im Zeitraum zwischen 2009 und 2014 sind auf die Arbeit von Watts und seinen Kollegen zurückzuführen, die von Matthew Menne von der NOAA in seinem Einführungspapier zur Version 2 des U.S. Historical Climatology Network (USHCN) beschrieben wurde:

Darüber hinaus gibt es Hinweise darauf, dass ein großer Teil der HCN-Standorte in Bezug auf die vom U.S. Climate Reference Network verwendeten Standortklassifizierungskriterien schlechte Bewertungen haben (persönliche Mitteilung von A. Watts 2008; siehe auch www.surfacestations.org)“. (Menne, Williams, & Vose, 2009)

Menne, et al. bestätigten Watts und Kollegen in ihrem Einführungspapier zum überarbeiteten USHCN-Stationsnetz, was darauf hindeutet, dass das Projekt der Oberflächenstationen ein wichtiger Grund für die Revision war. USHCN war eine qualitativ hochwertige Teilmenge des gesamten Wetterstationsnetzes des Cooperative Observer Program (COOP) der NOAA). Die USHCN-Stationen wurden laut Matthew Menne auf der Grundlage ihrer räumlichen Abdeckung, Aufzeichnungslänge, Datenvollständigkeit und historischen Stabilität ausgewählt. Zur Bereinigung der ausgewählten Aufzeichnungen wurde eine Reihe von Qualitätskontrollprüfungen und Korrekturen entwickelt, die in den Veröffentlichungen von Matthew Menne und Kollegen beschrieben sind. Aus der Hauptstudie stammt das Zitat oben, aber er schrieb auch einen Beitrag zur Beschreibung ihres paarweisen Homogenisierungs-Algorithmus, abgekürzt „PHA“ (Menne & Williams, 2009a). Stationen mit Problemen, wie sie von Watts u.a. gefunden und dokumentiert worden waren, wurden aus USHCN entfernt. Infolgedessen schrumpften die ursprünglichen 1218 USHCN-Stationen bis 2020 auf ~832. Die abgebauten Stationen wurden nicht ersetzt, die Werte wurden statistisch anhand von Daten benachbarter Stationen „aufgefüllt“.

Anfang 2014 wurde die Teilmenge USHCN als Quelldaten für den Nationalen Temperaturindex aufgegeben und durch eine gerasterte Version von GHCN ersetzt, aber die für USHCN entwickelten Korrekturen wurden beibehalten. Sie wurden nur auf alle 12.514 U.S.-GHCN-Stationen angewandt und nicht auf die kleinere USHCN-Untermenge von 1.218 Stationen (oder weniger).

NOAA scheint dem in einer anderen Webseite über GHCN-Daily-Verfahren zu widersprechen. Auf dieser Seite heißt es, dass GHCN-Daily keine Anpassungen für historische Stationsänderungen oder tageszeitliche Verzerrungen enthält. Aber sie merken an, dass GHCN-Monthly dies tut. Es scheint also, dass die Korrekturen nach der Extraktion der täglichen Daten und während der Erstellung des monatlichen Datensatzes vorgenommen werden. Die NOAA manipuliert die GHCN-Tagesrohdaten nicht, aber wenn sie sie extrahieren, um den GHCN-Monatsdatensatz zu erstellen, wenden sie einige dramatische Korrekturen an, wie wir sehen werden. Einige NOAA-Webseiten weisen darauf hin, dass die Korrekturen der Tageszeitverzerrung für spätere Versionen von GHCN-Monatlich entfallen sind, aber die meisten sagen ausdrücklich, dass sie immer noch verwendet werden, so dass wir annehmen, dass genau das immer noch der Fall ist. Eine der beunruhigendsten Erkenntnisse war, wie oft und wie radikal die NOAA ihre „Korrektur“-Verfahren zu ändern scheint.

Die Entwicklung des US-Temperaturindex‘

Der aktuelle US-amerikanische „National Temperature Index“ bezieht Daten aus den Fünf-Kilometer-Rastern des GHCN-Monatsdatensatzes. Der monatliche gerasterte Datensatz wird nClimGrid genannt und besteht aus einem Satz von Kartengittern und enthält keine tatsächlichen Stationsdaten. Die Gitternetze werden mittels „klimatologisch unterstützter Interpolation“ (Willmott & Robeson, 1995) erstellt. Die Gitter werden verwendet, um einen monatlichen Durchschnittstemperatur-Datensatz, nClimDiv genannt, zu füllen. Dieser wird dann zur Erstellung des Index‘ verwendet.

Gegenwärtig ist die NOAA-Basisperiode für nClimDiv-, USHCN- und USCRN-Anomalien 1981-2010. Wir haben unsere Stationsanomalien, die unten dargestellt sind, unter Verwendung derselben Basisperiode konstruiert. Wir akzeptierten alle Stationen, die während der Basisperiode mindestens 12 Monatswerte hatten, und lehnten Stationen mit weniger Werten ab. Dadurch verringerte sich die Anzahl der CONUS-Stationen von 11.969 auf 9.307. In dieser Studie wurden keine Stationen interpoliert oder „aufgefüllt“.

Einige Quellen haben vorgeschlagen, dass Daten außerhalb des GHCN-Daily-Datensatzes verwendet werden könnten, um die nClimDiv-Monatsraster und den Temperaturindex zu erstellen, insbesondere einige nahegelegene kanadische und mexikanische Monatsdurchschnitte. NOAA/NCEI erwähnen dies jedoch kaum auf ihrer Website. nClimDiv enthält Klimadaten, einschließlich Niederschlag und einen Dürreindex, sowie die monatliche Durchschnittstemperatur. Wie bereits erwähnt, werden an den Daten der GHCN-Station dieselben Korrekturen vorgenommen, die auch im älteren USHCN-Datensatz verwendet wurden. Auf der NOAA-Website liest man:

Die erste (und einfachste) Verbesserung des nClimDiv-Datensatzes besteht in der Aktualisierung des zugrunde liegenden Stationsnetzes, das jetzt zusätzliche Stationsdatensätze und zeitnahe Bias-Korrekturen enthält (d.h. diejenigen, die im U.S. Historical Climatology Network Version 2 verwendet werden)“ Quelle

Neben dem neuen vollständig korrigierten GHCN-Monatsdatensatz und dem kleineren USHCN-Satz korrigierter Stationsdaten gab es früher noch einen dritten Datensatz, den ursprünglichen NOAA-climate divisional-Datensatz. Wie GHCN-Daily und nClimDiv verwendete diese ältere Datenbank das gesamte COOP-Stationsnetz. Die im älteren Klimaabteilungsdatensatz (in Fenimore u.a. „TCDD“ genannt) verwendeten COOP-Daten waren jedoch unkorrigiert. Dies wird in einem Whitepaper von Chris Fenimore und Kollegen erläutert (Fenimore, Arndt, Gleason, & Heim, 2011). Darüber hinaus wurden die Daten in dem älteren Datensatz einfach nach Klimaeinteilung und Bundesstaat gemittelt, sie waren nicht gerastert, wie nClimDiv und USHCN. Es gibt einige neue Stationen in nClimDiv, aber die meisten sind die gleichen wie in TCDD. Der Hauptunterschied zwischen den beiden Datensätzen sind die Korrekturen und die Rasterung. Daten aus dieser früheren Datenbank sind in den Abbildungen 6 und 7 unten als blaue Linie eingezeichnet.

Die einfachen Mittelwerte, die zur Zusammenfassung des TCDD verwendet wurden, ignorierten Veränderungen in der Höhe, Stationsverschiebungen und andere Faktoren, die in vielen Bereichen falsche interne Trends (Diskontinuitäten) einführten. Das neuere nClimDiv-Team für die monatliche Datenbank behauptet, die Stationsdichte und -höhe mit ihrer „klimatologisch gestützten Interpolations“-Rastermethode explizit zu berücksichtigen (Fenimore, Arndt, Gleason, & Heim, 2011). Die Methode liefert den vollständig korrigierten und gerasterten nClimGrid Fünf-Kilometer-Rasterdatensatz.

nClimDiv ist nützlicher, da die Gradienten innerhalb der Vereinigten Staaten in Bezug auf Temperatur, Niederschlag und Dürre genauer sind und weniger Diskontinuitäten enthalten. Aber, wie wir bereits in früheren Beiträgen erklärten, ist nClimDiv, wenn nClimDiv auf einen jährlichen gleichzeitigen Temperaturrekord der Vereinigten Staaten (CONUS) reduziert wird, dem Rekord des älteren, offiziellen Temperaturrekords namens USHCN sehr ähnlich, wenn beide auf die gleiche Weise gerastert werden. Dies mag daran liegen, dass nClimDiv zwar viel mehr Wetterstationen hat, auf diese jedoch dieselben Korrekturen angewandt werden wie auf die USHCN-Stationen. USHCN hat zwar weniger Stationen, aber sie sind von höherer Qualität und haben längere Aufzeichnungen. Die zusätzlichen nClimDiv-Stationen ändern, wenn sie auf die gleiche Weise wie die USHCN-Stationen verarbeitet werden, nichts, zumindest nicht auf nationaler und jährlicher Ebene. Wie in einem früheren Beitrag [in deutscher Übersetzung hier] erwähnt, spielt das schnellere Umrühren des Dungs mit leistungsfähigeren Computern und Milliarden von Dollar für weit verbreitete Durchschnittswerte keine Rolle.

Es gibt gute Gründe für all die Korrekturen, die die NOAA auf die Daten anwendet. Der Gridding-Prozess verbessert zweifellos den Nutzen der Daten intern. Künstliche Kartierungsdiskontinuitäten werden geglättet und Trends werden klarer erkennbar. Aber die Korrekturen und der Gridding-Prozess sind statistischer Natur, sie tragen nicht zur Verbesserung der Genauigkeit des Nationalen Temperaturindex bei. Wenn ein spezifisches Problem mit einem bestimmten Thermometer festgestellt und behoben wird, wird die Genauigkeit verbessert. Wenn die Ursache nicht bekannt ist und die Messwerte mit Hilfe benachbarter Thermometer oder eines statistischen Algorithmus „angepasst“ oder „aufgefüllt“ werden, sehen die resultierenden Tabellen besser aus, sind aber nicht genauer.

Der Übergang von USHCN zu nClimDiv für den National Temperature Index

Wie viel des nationalen Temperaturindex-Trends ist auf die tatsächliche Erwärmung zurückzuführen und wie viel auf die Korrekturen und die Rastermethode? Wie groß ist der Fehler in den endgültigen Schätzungen der Temperaturanomalien? Jahrzehntelange Kritik und die Revisionen der NOAA an der Berechnung haben diese Frage nicht beantwortet oder das Ergebnis verändert. Abbildung 3 zeigt den Nationalen Temperaturindex, extrahiert von der NOAA-Website am 18. November 2020. Sowohl die USHCN- als auch die nClimDiv-Berechnungen sind eingezeichnet. Erinnern Sie sich an die Steigung der Linie der kleinsten Quadrate, 1,5°C pro Jahrhundert, sie wird später im Beitrag wichtig sein.

Abbildung 3. Die nClimDiv- und USHCN-Klimaanomalien gegenüber dem Durchschnitt der Jahre 1981-2010. Die Daten wurden von ihrer Website heruntergeladen. Beide aufgezeichneten Datensätze stammen aus Gitternetzen, nicht aus Stationsdaten.

Es ist seit langem bekannt, dass der Nationale Temperaturindex nicht den zugrunde liegenden veröffentlichten Daten folgt. Anthony Watts hat dies berichtet, ebenso wie Jeff Masters, Christopher Burt und Ken Towe. Die Probleme bestehen sowohl in den GHCN-Daten als auch in den USHCN-Daten, wie von Joseph D’Aleo berichtet. Brendan Godwin argwöhnt, dass die heute verwendeten „Homogenisierungs“-Algorithmen (siehe die Diskussion über PHA oben) daran schuld sind. Wenn die „korrigierten“ Daten einen ganz anderen Trend aufweisen als die Rohdaten, sollte man skeptisch sein.

Anthony Watts glaubt nicht, dass die zugrunde liegenden Probleme mit dem vollständigen COOP-Netzwerk von Wetterstationen behoben sind, wie er hier im vergangenen Jahr erklärte. Er glaubt, dass die NOAA das Problem „unter den Teppich kehrt“. Die in Abbildung 3 dargestellten Daten sind vollständig korrigiert und gerastert, es handelt sich nicht um eine Darstellung von Stationsdaten. In Abbildung 4 sind die vollständig korrigierten Stationsdaten in Blau und die Rohdaten in Orange aus dem CONUS-Teil des GHCM-Monatsheftes eingezeichnet. Dies sind die gleichen Daten, die zur Erstellung der in Abbildung 3 gezeichneten nClimDiv-Kurve verwendet wurden, aber bei Abbildung 4 handelt es sich um die tatsächlichen Stationsdaten.

Abbildung 4. Die orangefarbene Linie ist die unkorrigierte monatliche Durchschnittstemperatur, die in der NOAA-Terminologie als „qcu“ bezeichnet wird. Die blaue Linie ist korrigiert oder die „qcf“ der NOAA.

Abbildung 4 zeigt die tatsächlichen Messungen von den Stationen, es sind keine Anomalien und die Daten sind nicht gerastert. Die Rohdaten zeigen, dass sich CONUS um 0,3°C pro Jahrhundert abkühlt, während die korrigierten Daten zeigen, dass sich CONUS um 0,3°C Grad pro Jahrhundert erwärmt. Diese Linien sind, wie alle eingepassten Linien in diesem Beitrag, Excel-Trendlinien der kleinsten Quadrate. Die Linien dienen lediglich dazu, den wahrscheinlichsten linearen Trend in den Daten zu identifizieren, daher ist das R2 irrelevant, wir versuchen nicht, Linearität zu demonstrieren.

Der Unterschied zwischen den beiden Kurven in Abbildung 4 ist in Abbildung 5 dargestellt. Die Steigung der Differenz ist ein Erwärmungstrend von 0,57°C pro Jahrhundert. Dies ist der Anteil der Erwärmung in Abbildung 3, der direkt auf die Korrekturen der Messungen zurückzuführen ist.

Abbildung 5. Damit wird die Differenz (Final-Raw) zwischen den beiden tatsächlichen Stationstemperaturkurven in Abbildung 4 dargestellt. Man erkennt, dass die Differenz zwischen den Trends der End- und Rohkurve seit 1890 etwa 0,8°C beträgt, was in etwa der behaupteten Erwärmung der Welt in diesem Zeitraum entspricht.

Vielen Lesern wird Abbildung 4 bekannt vorkommen. Steven Goddards Real Science-Blog veröffentlichte im Jahr 2012 eine NASA-GISS-Version der CONUS-Rohdatenanomalien aus dem Jahr 1999. Der von ihm verwendete Datensatz ist inzwischen von der NASA-Website gelöscht worden, aber eine Kopie kann hier heruntergeladen werden und ist in Abbildung 6 zusammen mit den aktuellen (Oktober 2020) GHCN-M-Rohdaten eingezeichnet. Wir wechseln von den tatsächlichen Temperaturmessungen in Abbildung 4 zu den Anomalien der Wetterstation vom Mittelwert 1981-2010 in Abbildung 6.

Abbildung 6. Die NASA GISS-CONUS-Temperaturanomalien von 1999 im Vergleich zu den GHCN-M-Roh-CONUS-Temperaturanomalien von 2020. Die NASA-Anomalien von 1999 sind um 0,32°C nach unten verschoben, so dass die Mittelwerte von 1890 bis 1999 übereinstimmen. Dies dient dazu, die Grundlinienunterschiede auszugleichen. Man beachte, dass die Trends der kleinsten Quadrate sehr genau übereinstimmen. Hansens Daten zeigen einen Erwärmungstrend von 0,25°C pro Jahrhundert und die modernen Daten zeigen eine Erwärmung von 0,26°C pro Jahrhundert. Die Gleichungen für die Linien befinden sich in der Legende. Siehe den Text für die Datenquellen.

Sowohl die aktuellen Daten als auch die Daten von 1999 zeigen eine Erwärmung von etwa 0,25°C pro Jahrhundert. Abbildung 7 zeigt die gleichen GISS 1999 Rohdatenanomalien im Vergleich zu den 2020 GHCN-M Endtemperaturanomalien. Alle drei Darstellungen deuten darauf hin, dass es in den Jahren 1931 und 1933 in den angrenzenden US-Bundesstaaten genauso warm wie oder wärmer war als heute. Die verschiedenen Korrekturen, die auf die Rohdaten angewendet wurden und die tatsächlichen Temperaturen in Anomalien verwandeln, haben den Effekt, den Unterschied zwischen den 1930er Jahren und heute zu verringern, aber sie beseitigen ihn nicht, zumindest nicht in den Stationsdaten selbst. Wenn die Daten gerastert werden, wie es in Abbildung 3 der Fall war, kehrt sich der Trend vollständig um, und die modernen Temperaturen sind plötzlich viel wärmer als in den 1930er Jahren. Die Daten von 1999 zeigen erneut eine Erwärmung von 0,25°C pro Jahrhundert, aber die korrigierten Daten zeigen eine Erwärmung von 0,6°C pro Jahrhundert. Dies ist der in Abbildung 5 dargestellten Erwärmung sehr ähnlich, d.h. der Erwärmung, die allein auf die Korrekturen zurückzuführen ist.

Abbildung 7. Die endgültigen und vollständig korrigierten Stationsdaten von GHCN-M für 2020 werden mit den NASA/GISS CONUS-Anomalien von 1999 verglichen. Die Gleichungen für die Linien befinden sich in der Legende.

Die blauen Linien der GISS-Anomalie von 1999 in den Abbildungen 6 und 7 sind identisch, die orangefarbene Linie in Abbildung 6 sind Rohdaten und die orangefarbene Linie in Abbildung 7 sind endgültige, korrigierte Daten. Die größten Korrekturen liegen in den früheren Zeiten und die kleineren Korrekturen liegen in den jüngeren Temperaturen.

Der in WUWT schreibende Witzbold und rundum gute Kerl Dave Middleton kommentierte dies 2016:

Ich sage nicht, dass ich weiß, dass die Anpassungen falsch sind; aber immer, wenn eine Anomalie ausschließlich auf Datenanpassungen zurückzuführen ist, wird bei mir die rote Flagge gehisst.“ Middleton, 2016

Ich stimme zu, Logik und gesunder Menschenverstand legen nahe, dass Dave zu Recht skeptisch ist.

James Hansen schrieb 1999 über dieses Thema:

Was geschieht mit unserem Klima? War die Hitzewelle und Dürre im Osten der Vereinigten Staaten 1999 ein Zeichen der globalen Erwärmung?

Empirische Beweise unterstützen die Vorstellung kaum, wonach das Klima auf eine extremere Hitze und Dürre zusteuert. Die Dürre von 1999 betraf ein kleineres Gebiet als die Dürre von 1988, als der Mississippi fast ausgetrocknet war. Und 1988 war eine vorübergehende Unannehmlichkeit im Vergleich zu den wiederholten Dürreperioden während der „Dust Bowl“ in den 1930er Jahren, die einen Exodus aus den Prärien verursachte, wie in Steinbecks „Trauben des Zorns“ beschrieben wird. Quelle.

Nun, hier stimme ich mit Hansen vollkommen überein.

Zeke von rankexploits.com, der „Tafel“, versuchte, die Korrekturen im Jahr 2014 zu verteidigen. Er erklärt uns, dass USHCN und GHCN zunächst um den Time-of-Measurement Bias („TOB“) [etwa: Messzeitpunkt] korrigiert werden, dann werden die Stationen mit ihren Nachbarn verglichen, und ein paarweiser Homogenisierungsalgorithmus (PHA) wird verwendet, um vermutete Anomalien zu glätten. Diese sind vermutlich auf Stationsverschiebungen, Änderungen in der Stationsumgebung oder Geräteänderungen zurückzuführen. Schließlich werden fehlende Stationsdaten ergänzt, wobei benachbarte Stationen als Anhaltspunkt dienen. Der letzte Schritt zur Erstellung von nClimDiv ist die Rasterung der Daten.

Zeke stellt fest, dass die Korrekturen der TOB und der PHA nicht wirklich notwendig sind, da der Rasterungsprozess allein wahrscheinlich Gleiches bewirken wird. Da ich nicht alle Details all dieser Glättungsoperationen für statistische Daten verstehe, werde ich keine Stellungnahme zu Zekes Kommentar abgeben. Aber aus einer allgemeinen Mapping-Perspektive hat er einen Punkt. Sie wollen einen Datensatz kartieren, der den Messungen so nahe wie möglich kommt. Wenn man drei Glättungsalgorithmen auf die Messungen anwenden, bevor man sie konturiert und rastert, was haben wir dann? Was bedeutet dieser Algorithmus?

Wir werden hier nicht auf die Einzelheiten der NOAA-Korrekturen eingehen, sie sind statistischer Natur und keine Korrekturen an spezifischen Instrumenten zur Korrektur bekannter Probleme. Es handelt sich also um verschiedene Arten von Glättungsoperationen, die nacheinander auf die Messungen angewendet werden. Die TOB-Korrektur wird von Thomas Karl und Kollegen beschrieben (Karl, Williams, Young, & Wendland, 1986). NOAA mittelt die minimalen und maximalen Tagestemperaturen, um die durchschnittliche Tagestemperatur abzuleiten, daher ist es wichtig, ob die beiden Temperaturmessungen vom Min-Max-Thermometer um Mitternacht oder zu einer anderen Tageszeit aufgezeichnet werden. Wenn Berechnungen mit Monatsdurchschnitten durchgeführt werden, ist dieser Unterschied sehr gering. Einige NOAA-Webseiten legen nahe, dass die TOB-Korrektur für neuere Versionen von GHCN-Monatsblatt entfallen ist, andere sagen, dass sie immer noch verwendet wird. So oder so macht sie wahrscheinlich keinen großen Unterschied in GHCN-Monatlich oder nClimDiv.

Die zweite Korrektur ist der paarweise Homogenisierungsalgorithmus oder PHA. Dieser Algorithmus vergleicht jede Station mit ihren Nachbarn, um festzustellen, ob es ungewöhnliche Anomalien gibt, und versucht dann, diese zu beheben. Dieser Prozess ist ein rein statistischer Glättungsalgorithmus. Er wird von Matthew Menne und Claude Williams beschrieben (Menne & Williams, 2009a). Dieses Verfahren wird definitiv in der neuesten Version von GHCN-Monthly verwendet.

Der letzte Schritt im Glättungsprozess ist das Auffüllen fehlender Werte mit Daten von Nachbarstationen. Dies geschieht vor der Rasterung, so dass mehr Rasterzellen gefüllt werden. Das Auffüllen wird wahrscheinlich noch in der neuesten Version durchgeführt.

Zeke weist darauf hin, dass die grafische Darstellung der tatsächlichen Temperaturen, wie wir es in Abbildung 4 getan haben, irreführend sein kann. Im Laufe der letzten 130 Jahre sind Stationen verschoben, hinzugefügt, entfernt worden, und die räumliche Verteilung der Stationen hat sich verändert. Die mittlere Höhe der Stationen hat sich im Laufe der Zeit verändert. Diese Veränderungen wirken sich auf die Stationsanomalien weniger stark aus als die absoluten Temperaturen. Das ist richtig, und dies erklärt einen Teil der Differenz zwischen Abbildung 4 und den Abbildungen 6 und 7. Ab einem bestimmten Punkt spielt die Anzahl der Stationen keine Rolle mehr, wie in Abbildung 3 zu sehen ist. Wir beginnen unsere Beobachtungen im Jahr 1890 oder 1895, weil wir dann davon ausgehen, dass genügend Stationen in CONUS vorhanden sind, um einen aussagekräftigen Mittelwert zu erhalten. Der USHCN-Datensatz umfasst 143 Stationen im Jahr 1890 und 608 Stationen im Jahr 1895, und dies sind die Stationen mit den längsten Aufzeichnungen und der besten Platzierung.

Schlussfolgerungen und Diskussion

Zekes nächster Punkt ist, dass Goddard seine Daten nicht gerastert hat. Er hat sich also nicht mit der ungleichmäßigen Verteilung der Stationen und der sich im Laufe der Zeit verändernden Verteilung der Stationen befasst. Dies sind echte Probleme, die sich zwar auf interne Trends innerhalb von CONUS auswirken, aber die Rasterung und die anderen Korrekturen glätten die Daten nur. Keine dieser Operationen verbessert die Genauigkeit. Tatsächlich ist es wahrscheinlicher, dass sie die Genauigkeit verringern. Wenn wir Karten von CONUS-Daten zur Ermittlung von Trends innerhalb des Landes verwenden würden, würde ich Zeke zustimmen und die Daten glätten. Aber hier geht es uns nur um den nationalen Temperaturindex, der außerhalb von CONUS liegt. Der Index ist eine Durchschnittstemperatur für das ganze Land, keine statistische Glättung oder Rasterung wird ihn verbessern. Die Verwendung von Anomalien gegenüber den tatsächlichen Temperaturen ist wichtig, ansonsten nicht.

Ein Mittelwert der Anomalien der Stationsdaten ist geeigneter als die Verwendung eines Gitters zur Erstellung eines nationalen durchschnittlichen Temperaturtrends. Der Mittelwert kommt den tatsächlichen Beobachtungen so nahe wie möglich. Die Korrekturen und die Rasterung entfernen uns mit mehreren verwirrenden Schritten von den Messungen.

Wenn die Korrekturen bekannte Probleme in den Instrumenten beheben würden, würde das der Genauigkeit helfen. Aber sie sind statistischer Natur. Sie machen die Stationsmessungen glatter, wenn sie kartiert werden, und sie glätten Diskontinuitäten. Meiner Meinung nach hat die NOAA es übertrieben. TOB, PHA, Ausfüllung und Rasterung sind ein Overkill. Dies ist in Abbildung 7 und beim Vergleich von Abbildung 3 mit Abbildung 6 oder Abbildung 5 leicht zu erkennen. Entspricht der endgültige Trend in Abbildung 3 eher den Messungen (Abbildung 6) oder den Netzkorrekturen in Abbildung 5? Der Jahrhundert-Trend der Daten beträgt 0,25°, die Korrekturen addieren dazu 0,35° und der „klimatologische Rasteralgorithmus“ fügt nochmals 0,9° hinzu! Es lohnt sich, noch einmal zu sagen, dass die Art der statistischen Operationen, die wir diskutieren, nichts zur Verbesserung der Genauigkeit des Nationalen Temperaturindexes beitragen, und sie reduzieren dieselbe wahrscheinlich.

CONUS ist ein gutes Gebiet, um zu überprüfen, ob die „Korrekturen“ an den Stationsdaten und die Wirksamkeit des Temperatur-Gridding-Prozesses gerechtfertigt sind. Die aktuelle Stationsabdeckung ist sehr dicht, wie in Abbildung 1 zu sehen ist, und man würde erwarten, dass die gerasterten Daten recht gut mit den Stationsdaten übereinstimmen. Abbildung 3 sieht wie die orangefarbene „Endkurve“ in Abbildung 7 aus, aber sie ist irgendwie steiler, und das sagt alles, was ma wissen muss.

Dave Middleton und ich sind (in meinem Fall „war“) schon seit langer Zeit im Öl- und Gasgeschäft tätig. Zusammen haben wir mehr kartografierte BS gesehen, als man auf den Lagerplätzen von Kansas City finden konnte. Mein interner BS-Meter zeigt rote Linien, wenn ich eine Wäscheliste mit Glättungsalgorithmen, Korrekturalgorithmen, Bias-Anpassungen usw. höre. Ich möchte schreien: „Halten Sie Ihre &#$@ing Karten und Berechnungen so nah wie möglich an den echten Daten!“

Im ersten Teil dieses Postens habe ich darauf hingewiesen, dass wir zur Untersuchung des Klimawandels mehr über die Erwärmung der Ozeane und die Verteilung und den Transport von Wärmeenergie in den Ozeanen wissen müssen. Landgestützte Wetterstationen helfen bei der Vorhersage des Wetters, aber nicht des Klimas. Wir streiten viel über relativ kleine Unterschiede in den Landoberflächentemperaturen. Diese Argumente sind interessant, aber aus der Sicht des Klimawandels spielen sie keine große Rolle. Die Ozeane kontrollieren das, die Atmosphäre über Land hat wenig damit zu tun. Die Rohdaten von GHCN-Daily zu nehmen und sie durch vier verschiedene Glättungsalgorithmen (TOB, PHA, Infilling und Gridding) laufen zu lassen, ist, bei allem Respekt, lächerlich. Meine Empfehlung? Glauben Sie nichts davon, auch nicht, dass es bzgl. des Klimas eine große Rolle spielt.

Ein besserer Indikator für den Klimawandel oder die globale Erwärmung ist der in Abbildung 2 dargestellte Trend der Erwärmung der Ozeane. Beachten Sie, dass der Trend der letzten 16 Jahre nur 0,4°C pro Jahrhundert beträgt. Vergleicht man dies mit den landgestützten CONUS-Messungen der letzten 130 Jahre, so sagen sie 0,25°C voraus, wie in Abbildung 6 dargestellt, aber der vollständig „korrigierte“ NOAA-Wert beträgt 1,5°C, wie in Abbildung 3 dargestellt. Wem glauben Sie wirklich?

Ich benutzte R für die Berechnungen, die in den Abbildungen dargestellt sind, aber Excel, um die Diagramme zu erstellen. Wenn Sie die Details meiner Berechnungen überprüfen möchten, können Sie meinen GHCN R-Quellcode hier herunterladen.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here

Link: https://wattsupwiththat.com/2020/11/24/the-u-s-national-temperature-index-is-it-based-on-data-or-corrections/

Übersetzt von Chris Frey EIKE




Die Fälscher-Fabrik der NASA: Das GISS fälscht die Daten schon wieder!

Aber jetzt ist diese Periode aus klimatischer Sicht zu einer Peinlichkeit für die Wissenschaftler geworden, welche die AGW-Theorie beschwören. Damals waren die CO2-Konzentrationen in der Atmosphäre viel niedriger, so dass es nach ihrer Theorie hätte kühler sein müssen als heute. War es aber nicht!

Aber anstatt die Rolle von CO2 bei der globalen Temperaturerhöhung in Frage zu stellen, hat die NASA GISS beschlossen, die historischen Daten einfach umzuschreiben, so dass sie zu ihrer Theorie passen. Das ist natürlich wissenschaftlicher Betrug.

Heute untersuchen wir die NASA-GISS-Daten für die Station Wellsboro in Pennsylvania. Zuerst schauen wir uns die „unbereinigten“ Jahresmitteltemperaturdaten der Version 4 an und vergleichen sie mit den neuen „homogenisierten“ Daten der Version 4:

Daten: NASA GISS

Oben sehen wir, wie sich NASA-Wissenschaftler einfach die alten Datensätze vorgenommen und sie einfach neu geschrieben haben, so dass die heißen Jahre des frühen 20. Jahrhunderts erheblich kälter daherkommen – um über zwei Grad in vielen Jahren.

Früher sah Wellsboro einen Abkühlungstrend. Aber jetzt, seit NASA-Wissenschaftler an den Daten herum manipuliert haben, ist der Trend so geschmiedet worden, dass er zur AGW-Theorie passt.

Als nächstes folgt ein Diagramm, in dem Version 3, die 1883 beginnt und 2019 endet, mit Version 4, die 1882 beginnt, verglichen wird:

Version 4 Daten: NASA GISS, Version 3 hier.

Die frühere Version 3 zeigte ebenfalls eine Abkühlung, bevor die NASA die Daten neu schrieb und sie vernichtete. Die aktuelle Version 4 zeigte eine Abkühlung, aber auch diese wurde manipuliert und zeigt nun eine starke Erwärmung.

Viele würden argumentieren, dass dies keine Wissenschaft ist, sondern glatter wissenschaftlicher Betrug in klassischer Orwell-Manier.

Link: https://notrickszone.com/2020/07/17/nasas-fudge-factory-goddard-institute-for-space-studies-fudges-the-data-again/

Übersetzt von Chris Frey EIKE




Jüngste Klima-Warnung von NASA und NOAA beruhen auf absichtlich gefälschten Daten

Traurigerweise ist es so, dass im Bereich Klimaforschung und -politik gute Daten zunehmend zurecht gebogen werden – wenn sie nicht gleich ganz ignoriert werden – um dem Narrativ zu entsprechen, dass die Menschen eine Klima-Krise verursachen. Partisanen von Klimamaßnahmen, trachtend nach politischer Macht und ewig zunehmenden Ressourcen, fälschen Daten solange, bis diese dem Wahn genügen, dass die Menschen auf die moderne industrielle Zivilisation verzichten müssen, um die Menschheit und die Erde vom Klima-Tod zu erretten.

Dieses Problem wird grell beleuchtet im neuesten Report der National Aeronautics and Space Administration (NASA) und der National Oceanic and Atmospheric Administration (NOAA) zu globalen Temperaturtrends. Die beiden Agenturen betreiben das genaueste und umfassendste Temperatur-Messnetz der Welt. Aber anstatt auf die Daten ihrer besten Quellen zu verweisen, zogen NASA und NOAA es vor, in ihrem am 15. Januar veröffentlichten Report erheblich kompromittierte Daten von adjustierten Temperaturmessungen heranzuziehen – mittels eines Verfahrens, das sie „Homogenisierung“ nennen.

NASA und NOAA verkündeten, begleitet von großem Mediengetöse, dass 2019 das zweitwärmste Jahr seit Beginn aktueller Aufzeichnungen im Jahre 1880 gewesen sei, was auch dazu beitrage, dass die 2010er Jahre „zum wärmsten Jahrzehnt jemals“ wurden.

Diese Behauptungen basieren auf den absolut unzuverlässigen, adjustierten Temperaturmessungen, wie sie von über den gesamten Globus verteilten Temperatur-Messpunkten durchgeführt worden sind. Diese Messungen, zumindest die entsprechenden Rohdaten, sind normalerweise ausreichend genau, um lokale Anwohner über die Temperatur und Wetteranomalien in ihrem Wohngebiet an einem bestimmten Tag zu informieren, aber als Messung realer Trends, die uns etwas Wichtiges darüber sagen sollen, ob Menschen globale Erwärmung verursachen, sind die meisten dieser Messungen praktisch wertlos.

Wie der Meteorologe Anthony Watts schon seit vielen Jahren immer wieder hervorhebt, genügen viele der Messpunkte in den gesamten USA nicht den Standards, die von den Agenturen selbst festgelegt worden waren, um zuverlässige Datenmessungen zu erhalten. Watts erfasste hunderte von Stationen auf gepflasterten Flächen, an Flughäfen, wo sie den heißen Abgasen der Jets ausgesetzt waren, nahe bei künstlichen Quellen von Wärme und Kälte wie Air Condition-Systeme oder von kommerziellen Grillbuden. Viele dieser Messpunkte befanden sich einst in ländlichen Gebieten, sind inzwischen aber umgeben von Gebäuden. An anderen Messpunkten, die immer noch in ländlichen Gefilden stehen, werden die Daten nicht regelmäßig abgelesen und aufgezeichnet.

Nach den Enthüllungen von Watts im Jahre 2014 veröffentlichte das US-Büro des Generalinspekteurs einen von den Medien nahezu völlig ignorierten, vernichtenden Report, in welchem beschrieben wird, dass fehlende Übersicht, Regelverstöße und ein laxer Begutachtungsprozess im Netzwerk der Klimaaufzeichnungen nur die Schlussfolgerung zulassen, dass die Daten „nicht geeignet sind, zuverlässig als Grundlage für Entscheidungsträger“ zu dienen. In panischer, durch den Report des Generalinspekteurs ausgelöster Hast sonderte die NASA 600 ihrer problematischsten Wetterstationen aus.

Es liegen zahlreiche Berichte vor, aus denen hervorgeht, dass Datenmanipulationen nicht auf die USA beschränkt sind, sondern über den gesamten Globus vorgenommen werden. Daten von ursprünglich ländlichen Messpunkten in entlegenen Stellen wie Australien, Paraguay und der Schweiz wurden unerklärlicherweise homogenisiert dergestalt, dass Temperaturen der Vergangenheit nach unten, also zum kälteren, und jüngere Temperaturwerte nach oben, also zum wärmeren korrigiert worden waren. Logischerweise erscheint dadurch der Temperaturanstieg an diesen Stellen im Verlauf des vorigen Jahrhunderts steiler und größer als es aus den nicht adjustierten Daten hervorgeht.

Die NOAA verletzte ihre eigenen Vorschriften, als sie ein ähnliches Adjustierungs-Verfahren für Ozean-Temperaturen vornahm, mit Beginn im Jahre 2015. David Rose schrieb in der Daily Mail: „NOAA-Wissenschaftler zogen zuverlässige Messungen von Bojen im Ozean heran, ,adjustierten‘ diese dann aber nach oben – mittels Messungen von Seewasser zur Motorkühlung von Schiffen … obwohl schon lange bekannt ist, dass diese Werte viel zu hoch sind“. Wenn man schlechte Daten mit guten Daten vermengt, erhält man keine zuverlässigeren Ergebnisse, als wenn man schlammiges Flusswasser zu reinem Mineralwasser hinzufügt, um sicheres Trinkwasser zu bekommen.

Der neue Report von NASA und NOAA ist ein weiteres Beispiel für „garbage in, garbage out“, wobei deren Verwendung schlechter Daten falsche Ergebnisse erzeugt, die aller Erfahrung nach dann als Grundlage für schlechte Politik herangezogen werden.

NASA und NOAA betreiben gemeinsam das U.S. Climate Reference Network, also den goldenen Standard von Temperaturdaten der Erdoberfläche, globalen Satellitendaten und Wetterballonen. Die von diesen drei unabhängig operierenden Temperaturmess-Netzwerken aufgezeichneten Temperaturdaten zeigen während der letzten 40 Jahre eine minimale Erwärmung. Und doch ignorieren die Agenturen diese Daten in ihrem jüngsten Report – was deren dogmatischen Glauben an eine vom Menschen verursachte Klima-Katastrophe belegt.

Die Trump-Regierung sollte die Klima-Budgets von NASA und NOAA stark kürzen, bis die Führung und die Mitarbeiter verstanden haben, dass sie nicht dafür belohnt werden, wiederholt zu sagen „der Himmel fällt uns auf den Kopf“ und andere Klima-Angst-Stories zu verbreiten, wenn die Wahrheit schlicht und ergreifend lautet, dass Temperatur- und Klimatrends in Wirklichkeit weit davon entfernt sind, alarmierend zu sein.

[Originally Published at Breitbart]

Link: https://www.heartland.org/news-opinion/news/nasa-and-noaas-latest-climate-warning-is-a-result-of-purposefully-flawed-data

Übersetzt von Chris Frey EIKE




Erwärmung = Vergangen­heit kälter machen als sie war

Die re-modellierten Reihen werden dann der Universität und den CSIRO-Klimawissenschaftlern zugeleitet, welche den größten Teil ihrer Klimaforschung auf die Grundlage dieser Statistiken aus ,zweiter Hand‘ stellen.

Wenn also Michael Mann und Konsorten verkünden, dass es immer wärmer wird, dann ist das deren Interpretation der Statistiken von Blair Trewin und nicht eine Interpretation der tatsächlichen Daten. Und wenn ich sage, dass mehr Sorgfalt darauf verwendet werden muss zu betrachten, was Blair mit den tatsächlichen Messungen macht, dann stelle ich einfach eine entsprechende Forderung auf.

Andrew Bolt erklärt in einem Beitrag mit dem Titel „On the deceit of Paul Barry“ [etwa: Über den Betrug von Paul Barry]:

Marohasy sagt nicht, dass das Bureau „Teil einer riesigen Verschwörung“ ist. Vielmehr sagt sie etwas Unbestreitbares: Das Bureau hat wiederholt Daten adjustiert dergestalt, dass die Vergangenheit kälter ausschaut und folglich die nachfolgende Erwärmung stärker.

Der einzige Streitpunkt ist, ob das Bureau dies korrekt getan hat, um die Daten genauer zu machen. Es sagt jawohl, aber Marohasy sagt: keineswegs.

Welche Beweise präsentiert Barry, dass sie unrecht hat? Überhaupt keine. Kein Interesse. Alles, was er hat, ist Spott und ein Appell an seinen Mob.

Danke, Andrew, dass die Lage so kurz und prägnant erklärt wird. Tatsächlich wird keine einzige Adjustierung von Blair in dem Bureau geleugnet.

Um erklären zu helfen, was Blair tatsächlich getan hat, erstellte mein Kollege Jaco Vlok eine Tabelle mit einem Drop-Down-Menü für jede der 112 Wetterstationen, deren Daten re-modelliert worden waren.

Die Adjustierung wird hier offengelegt und erklärt:

Man probiere es einmal aus.

Beispiel: Falls man den Link anklickt und hinunter rollt (112 Stationen sind alphabetisch gelistet) bis nach Wagga und dann zur Spalte Tmax geht, findet man eine Graphik, welche die Rohdaten und daneben die Rekonstruktionen von Blair Trewin zeigt für die betreffende Wetterstation, welche herangezogen wird, um nationale Mittelwerte und die globale Erwärmung zu berechnen.

Eine der Graphiken aus der Drop-Down-Tabelle, erstellt von meinem Freund und Kollegen Jaco Vlok.

Zunächst erzeugte Blair ACORN V1, und zwar schon im Jahre 2011.

ACORN V2 sind die erneut überarbeiteten Daten, um die Rate der Erwärmung weiter zu steigern.

Und jetzt schaue jedermann selbst. Es ist keine Verschwörung und auch keine Trickserei. Aber es kann dauern, bis man es versteht, vor allem dann, wenn es nicht das ist, was man von Angestellten des Bureau erwartet hinsichtlich ihrer Arbeit bzgl. historischer Temperaturdaten.

Link: https://wattsupwiththat.com/2020/02/06/cooling-the-past-made-easy-for-paul-barry/

Übersetzt von Chris Frey EIKE




Während NOAA/NASA behaupten, 2019 sei das „zweitwärmste Jahr jemals“ gewesen, …

Deren Präsentation, die das angeblich belegen soll, steht hier (PDF).

Meiner Ansicht nach ist die Presseerklärung von NOAA/NASA (nebst deren Diashow) inkonsistent. So können sie sich nicht einmal auf einen allgemeinen Referenz-Zeitraum für Vergleiche einigen. Einige Graphiken beziehen sich auf die Periode 1951 bis 1980, andere auf den Zeitraum 1981 bis 2010, um Anomalie-Plots zu erstellen. NOAA und NASA sind es der Öffentlichkeit schuldig, Klimadaten mit einem konsistenten Basiszeitraum zu präsentieren, widrigenfalls es sich nur um schlampige Wissenschaft handelt. NASA GISS hat sich permanent geweigert, den Basiszeitraum 1951 bis 1980 zu aktualisieren, wie es die NOAA getan hat, nämlich auf den Zeitraum 1981 bis 2010. Stur wie ein Panzer lehnt GISS eine solche Aktualisierung ab, obwohl sie wiederholt darob verurteilt worden ist.

Jener Zeitraum von 1951 bis 1980 war rein zufällig der kühlste Zeitraum im 20. Jahrhundert. Zieht man diesen Zeitraum also als Referenzperiode heran, kommt in den NASA GISS-Plots eine deutlich vergrößerte Erwärmung heraus. Die meisten Laien werden dem niemals auf die Schliche kommen. Ein einfacher Vergleich der beiden Graphiken zeigt die Differenz in den Spitzenwerten:

Quelle: NASA GISS

Quelle: NOAA NCEI

Die Differenz zwischen den beiden Analysen beträgt bei NOAA 0,95°C und bei NASA GISS 0,98°C.

Dabei wird zwischen einigen Jahren überhaupt nicht separiert:

Man fragt sich, ob NOAA/NASA die Temperatur der Erde überhaupt auf ein Hundertstel Grad genau messen kann. Meiner Erfahrung nach ist das nicht der Fall.

Damit man mich nicht der Haarspalterei beschuldigt, behalte man im Gedächtnis, dass während des letzten Dekaden-Übergangs die NASA Folgendes zum Jahr 2009 und zur Dekade 2000 bis 2009 gesagt hatte:

NASA-Forschung: letzte Dekade war die wärmste jemals, 2009 eines der wärmsten Jahre

Das vergangene Jahr war um einen Bruchteil eines Grades kühler als 2005, dem wärmsten Jahr jemals, mit dem Jahr 2009 gleich einer Anzahl anderer Jahre – 1998, 2002, 2003, 2006 und 2007 – als dem zweitwärmsten Jahr.

Während der letzten drei Jahrzehnte zeigt die Temperaturaufzeichnung des GISS einen Aufwärtstrend von 0,2°C pro Dekade. Insgesamt sind die Temperaturen seit dem Jahr 1880 um etwa 0,8°C gestiegen.

Das ist eine wichtige Zahl, die man sich merken muss“, sagt der GISS-Klimatologe Gavin Schmidt. „Die Differenz zwischen dem zweit- und dem sechstwärmsten Jahr ist trivial, weil die bekannte Unsicherheit bei Temperaturmessungen größer ist als einige der Differenzen zwischen den wärmsten Jahren“.

Quelle: https://www.nasa.gov/home/hqnews/2010/jan/HQ_10-017_Warmest_temps.html

Aha! Geringe Bruchteile von einem Grad spielen keine Rolle, wenn es darum geht, Behauptungen bzgl. Klima aufzustellen.

Aber in diesem Jahr sagt Dr. Schmidt:

Im Jahre 2015 wurde die 1-Grad-Celsius-Marke überschritten, und es sieht nicht so aus, als würde es wieder zurückgehen. Das zeigt, dass das, was vor sich geht, persistent ist und nicht eine Schwankung aufgrund irgendwelcher Wetterphänomene: wir wissen dass die langzeitlichen Trends getrieben werden von den zunehmenden Treibhausgasen in der Atmosphäre“.

Quelle: https://www.nasa.gov/press-release/nasa-noaa-analyses-reveal-2019-second-warmest-year-on-record

So viel bzgl. der Bedenken hinsichtlich „Unsicherheit“ und „trivialer“ Differenzen der Temperatur. Interessanterweise wissen die meisten Menschen das zwar nicht, aber NASA GISS ist keine wahrhaft unabhängige Analyse. Man zieht GHCN-Daten hera, die von NOAA NCEI aufbereitet worden waren. NASA GISS verwendet die gleichen Daten, doch kommen die Daten dort auf magische Weise etwas wärmer heraus, was es ihnen gestattet, diese Art Behauptungen Jahr für Jahr aufzustellen hinsichtlich des „wärmsten Jahres jemals“.

Da wir nun schon mal beim Thema Datensätze und geringe Temperaturdifferenzen sind, folgen hier ein paar unbequeme Daten, von denen niemals die Rede ist.

Das US Climate Reference Network (USCRN) verfügt über die qualitativ besten Daten des Planeten, aber dennoch werden diese Daten niemals in den NOAA/NASA-Presseerklärungen angeführt. Entsprechend im Jahre 2005 beauftragt hält man dort die genauesten, unverzerrten und nicht adjustierten Daten jedweder Klima-Datensätze.

Das USCRN weist keinerlei Verzerrungen auf, und es besteht kein Bedarf an Adjustierungen, was diesen Datensatz meiner Ansicht nach zur Grundwahrheit bzgl. Klimawandel macht.

In der folgenden Graphik aus den zusammenhängenden 48 US-Staaten [US48], aktualisiert bis zum Jahr 2019, zeigt sich, dass das Jahr 2019 um etwa 0,42°C kühler war als das Anfangsjahr des Datensatzes 2005:

Quelle: NOAA’s live online data plotter

Obige Daten sind nicht von mir geplottet und auch in keiner Weise adjustiert worden. Es sind zu 100% NOAA-Daten, und die Tatsache, dass das Jahr 2019 in den US48 kühler war als das Jahr 2005 ist unbestreitbar. Die zwei großen Spitzen hängen mit El Nino-Ereignissen zusammen, welche nicht nur die USA, sondern die ganze Welt erwärmt haben.

Nun sind die USA nicht die ganze Welt, und der Datensatz ist kürzer als die geforderten 30 Jahre bzgl. Klimadaten. Das aus der Graphik hervorgehende Fehlen jeder Erwärmung in den US48 seit 2005 zeigt, dass die von der NOAA und der NASA verwendeten Daten des antiquierten Global Historical Climate Network (GHCN) Warm-Verzerrungen aufweisen infolge Verstädterung und Adjustierungen der Daten. Das habe ich schon in einer früheren Arbeit von mir hier beschrieben.

Man stelle sich vor, es gäbe auf der ganzen Welt ein so hoch qualitatives und modernes Temperatur-Aufzeichnungsnetzwerk wie in den USA. Streit bzgl. Datenqualität, Adjustierungen, UHI, Zeit der Messung sowie vieler anderer Kleinigkeiten, welche die Daten beeinflussen und verzerren, würde verschwinden.

Aber noch etwas anderes ist hier interessant. Sämtliche Temperaturgraphiken, um den Klimawandel zu belegen, sind sehr stark vergrößert. Damit sollen Variationen von einem Grad oder weniger deutlich hervortreten. Unglücklicherweise ängstigen diese Vergrößerungen die Bevölkerung oftmals, wird doch damit bei ihr der Eindruck erweckt, es handele sich um „massive“ Temperaturanstiege.

Glücklicherweise gestattet der NOAA-Online-Plotter die Adjustierung der vertikalen Achse, und wenn man diese bzgl. Klimadaten so adjustiert, dass sie zum menschlichen Temperaturempfinden passen, sieht alles schon viel weniger alarmierend aus.

Hier folgen einige Vorher-Nachher-Beispiele, wobei die „Nachher“-Plots der menschlichen Erfahrung bzgl. Temperatur angepasst sind, die typischerweise von -18°C bis 38°C reicht. Die Null-Linie in diesem Anomalie-Plots geht von einer mittleren globalen Temperatur von 14,7°C aus:

US Climate Reference Network:

Contiguous USA Climate Divisions (GHCN/COOP) Network (old style weather stations):

Quelle: NOAA online data plotter

NASA GISS for the world (Land and ocean temperature):

Quelle: NASA 2020 Press release

Auf einmal sieht der „Klimawandel“ viel weniger ängstigend aus, wenn man die Temperaturänderung in der Größenordnung der menschlichen Erfahrung darstellt.

Aktualisierung

Für all jene, die nach einer Replikation fragen, folgen hier die USCRN-Daten von 2005 bis 2019, unabhängig zusammengestellt in einer Präsentation über die kontinentalen 48 US-Staaten (CONUS), aber mit einer anderen Referenzperiode. Das hat Dr. Mark Albright von der University of Washington getan und mir per E-Mail zugesandt.

Quelle: https://atmos.uw.edu/marka/crn.2016/usa48/usa48.crn.2005-2019.png

Dr. Albright schreibt:

Ich bezog mich auf den Referenzzeitraum 2002* bis 2018, um „normale“ oder klimatologische Werte an jedem CRN-Messpunkt zu bestimmen. Ich habe nicht versucht, diese auf 1981 bis 2010 zu adjustieren. Ich glaube, dass NCEI diese Art der Adjustierung bei den CRN-Daten vornimmt. Ich habe Adjustierungen so gering wie möglich gehalten, was ziemlich identisch ist mit gar keinen Adjustierungen.

*Das Anfangsjahr variiert eigentlich von 2002 bis 2008, abhängig davon, wann der Messpunkt eingerichtet worden ist.

Übrigens, am 3. Januar 2020 plottete ich auch die Daten aus Kalifornien im Zeitraum 2009 bis 2019. Man kann den großen Temperaturrückgang seit 2014 erkennen (hier).

Und an der Pazifikküste [Pacific Northwest] zeigt sich ein starker Rückgang seit dem Temperatur-Spitzenwert des Jahres 2015 (hier).

Am interessantesten ist hier zu beachten, dass wegen der unterschiedlichen Referenz-Zeiträume und des anderen Verfahrens von Albright die Spitzenwerte niedriger sind als die Spitzen in der NOAA USCRN-Graphik.

Beispiel: Das Jahr 2012

Der Spitzenwert [der Abweichung] bei NOAA beträgt 1,4°C, bei Albright 0,9°C.

Die Wahl von Referenzzeiträumen und die Verfahren zur Erzeugung derselben spielt eine Rolle, vor allem wenn es um ein einzelnes Jahr geht, welches das „heißeste jemals“ gewesen sein soll. Wenn eine Anomaliedaten präsentierende Gruppe ihre eigene Referenzperiode nebst des Verfahrens zur Erstellung derselben wählt, können sie essentiell die Spitzen-Amplitude größer oder kleiner machen.

Link: https://wattsupwiththat.com/2020/01/15/while-noaa-nasa-claims-2019-as-the-second-warmest-year-ever-other-data-shows-2019-cooler-than-2005-for-usa/

Übersetzt von Chris Frey EIKE




„Gekonnte“ Statistik zeichnet sich dadurch aus, dass immer beweisbar ist, was bewiesen werden soll. Oder: Ein Beweis, dass es die mittelal­terliche Wärme­periode nicht gab

Beim Klimawandel gibt es nur eine Konstante: Es ist niemals etwas gewesen, was nicht sein darf

Der berühmte Hockeystick ließ alle „Ungereimtheiten“, das heißt Temperaturänderungen der letzten Jahrhunderte, hinter Algorithmen „verschwinden“. Das Mittelalter ist darin einfach ein fast horizontaler Strich, ein Effekt, der beim Mitteln von Daten, welche eher der Qualität eines Rauschens (neben anderen Mängeln) entsprechen, typisch ist.

Wie es damit konkret aussieht und dazu kommt, wurde bereits anhand eines berühmten“Proxi-Datensatzes referiert:
EIKE 11.05.2016: [5] Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

Doch nun hat eine Studie anhand von genau diesem (grauslig schlechten) Proxi-Datensatz durch gekonnte Anwendung der Statistik herausbekommen (wollen), dass die (klimakritisch) wichtige, Mittelalterliche Warmzeit nur ein lokales Ereignis war und damit keinen globalen Einfluss hatte:
Studie: [2] No evidence for globally coherent warm and cold periods over the preindustrial Common Era
Eine Meldung, welche von praktisch allen Medien aufgenommen wurde und je nach deren „Qualitätsanspruch“ nur gelistet oder mit teils umfangreichen, redaktionellen Ergänzungen Verbreitung fand. Diesmal das Beispiel nicht aus der SZ, sondern vom Pendant im Norden, dem Berliner Tagesspiegel:
[4] Der Tagesspiegel, SINAN RECBER (Journalist | Umwelt & Wirtschaft | Psychologie): Studie widerlegt Argument der Klimaskeptiker 98 Prozent der Erde werden wärmer
Manche Menschen leugnen, dass der Klimawandel durch den Menschen verursacht wird. Doch Forscher zeigen, dass der Temperaturanstieg nichts Natürliches ist.
... Aber nun ja, in der Geschichte der Erde gab es schon immer wärmere und kältere Perioden. Dass die Durchschnittstemperaturen steigen, ist also nichts Neues – kein Grund zur Panik. So lautet ein populäres Argument von Klimaskeptikern, die den menschlichen Einfluss auf die globale Erwärmung bezweifeln.
Dass der derzeitige Klimawandel beispiellos ist, und keine natürliche Erscheinung, haben Schweizer Forscher nun durch eine Studie gezeigt, die im Fachmagazin „Nature“ veröffentlicht wurde. Die Temperaturanstiege der vergangenen 150 Jahre sind laut der Untersuchung fast auf der gesamten Welt gleichzeitig zu beobachten. Die Warm- oder Kaltzeiten der vergangenen zwei Jahrtausende seien hingegen immer nur auf bestimmte Gebiete beschränkt gewesen …

Der zum Artikel verantwortlich gelistete Journalist des Tagesspiegel, SINAN RECBER, postet auf seinem Twitter-Account Klimaalarm wie ein Wilder, bleibt mit 92 Followern jedoch nicht allzu bekannt. Zudem schreibt er auch fleißig Klimaalarm für die TAZ.

Seine fachliche Reputation dazu:
SINAN RECBER, taz: … Jahrgang 1995, schreibt gerne über Klimapolitik, Nachhaltigkeit und ökologische Themen. Er hat während seines Psychologie-Studiums in Wuppertal beim ZEIT Wissen Magazin in Hamburg hospitiert.

Die Mittelalterliche Wärmeperiode hat es nicht gegeben …

haben die Studienautoren ermittelt. Eine wichtige Belegdarstellung daraus zeigt Bild 2. Es zeigt laut den Autoren, dass es im Hochmittelalter keine MWP-Periode gab und Folge dessen die aktuelle unnatürlich-einzigartig sein muss. Bei dieser Darstellung ist zu beachten, dass das Bild keinen Temperaturverlauf, sondern den Anteil der positiven und negativen Temperaturanomalien (angeblich) über die gesamte Erde darstellt.

Bild 2 [2] Verteilung des Anteils von warmen und kalten Temperaturen (Proxis) über die Erde seit dem Jahr 0
Auf EIKE hat ein fleissiger Autor bereits über die neue Studie und ihre eklatanten Schwächen – zum Beispiel, dass die 2k-Proxis den Globus bei Weitem nicht abdecken -, berichtet:
EIKE 26.07.2019: [1] Klimajournalismus: Papa, Charly hat gesagt, sein Papa hat gesagt…- oder wie man faule Berner Studien „nature“ und damit Medien unterjubelt

und auch über das aktuelle MWP-Projekt von „kaltesonne“, welches die – bisher teils strittige -, globale Auswirkung der Mittelalterlichen Wärmeperiode anhand neuer Proxidaten immer deutlicher aufzeigt:
[1] Das KalteSonne-Projekt „Die Mittelalterliche Wärmeperiode“ zeigt also eindeutig, dass die Indikatoren für diese Warmzeit global auf allen Kontinente zu finden sind und es sich demnach um ein globales Ereignis handeln muss.
[1]
(Anmerkung: betrifft Bild 3) … Rote Punkte zeigen warme Bedingungen zur Zeit der MWP an, gelbe Punkte Trockenheit, grüne Punkte Feuchtigkeit. Blaue Punkte sind für Abkühlung während der MWP reserviert. Klicken Sie auf die jeweiligen Punkte, und es öffnet sich die Analyse des jeweiligen Papers. Ebenfalls aufrufbar ist die wichtigste Klimakurve der Arbeit.

Bild 3 kaltesonne MWP-Viewer

Die eklatanten Schwächen des Pages2k-Datensatzes sind bekannt. Da dieser aber die „richtige“ Klimarichtung, also wieder einen Hockeystick, ergibt, „stört“ es die „Klimawandel-„Wissenschaftler nicht:

Pages2k, NZZ: [3] Die globale Mitteltemperatur der letzten 2000 Jahre wurde mit sieben statistischen Methoden (M1–M7) rekonstruiert … (Anmerkung: betrifft Bild 4) Messungen (seit 1865)

Bild 4 [3] Quelle: Pages 2k Consortium, Nature Geoscience 2019 (dargestellt ist die Abweichung gegenüber dem Mittelwert der Jahre 1961 bis 1990) – Grafik: svt.
Also wird der Datensatz allseits hoch gelobt, zum Beispiel von Herrn Rahmstorf (PIK):
Rahmstorf: Paläoklima: Die Hockeyschläger-Debatte

So ganz konnte man sich der massiven Kritik nicht verschließen und musste einige der eklatanten – die „AGW-Wissenschaftler“ nicht wirklich störenden – Fehler doch korrigieren:
EIKE: [6] Nächste Pleite: ,Globale‘ Rekonstruktion PAGES 2K kann den ,Hockeyschläger‘ nicht bestätigen

Bild 5 [6] Letzter Stand? der Pages2k Temperaturrekonstruktion der letzten 2000 Jahre
Man hätte sich also vorstellen können, dass eine so große Studiengruppe in einer neuen Studie wenigstens ergänzend die neuen, mindestens die zusätzlichen Daten des kaltesonne-MWP-Projektes oder der vielen anderen neuen Studien ansehen würde:
Vorindustrieller Klimawandel in Südamerika: Das Mittelalter war warm, Gletscher geschrumpft (1.11.2018)
Schottland-Klima der letzten 800 Jahre: Vorindustrielle Wärmephasen geben Rätsel auf (7.10.2018)
Mittelalterliche Klimaanomalie und Kleine Eiszeit in Brasilien (25.8.2018)
Cyanobakterien als Zeitzeugen: Ostsee im Mittelalter möglicherweise wärmer als heute (22.8.2018)
Um Antwort wird gebeten: Weshalb schneidet AWI-Pressemitteilung das Mittelalter weg? (14.8.2018)
Wissenslücke schließt sich: Die Mittelalterliche Wärmeperiode auf der Südhalbkugel (2.11.2017)
Wissenschaftler warnen: Baumringe in kaltgemäßigten Klimazonen nur bedingt für Temperaturrekonstruktionen geeignet (14.9.2016)
Internationale Baumringexperten: Mittelalterliche Wärmeperiode war heißer als gedacht. Klimamodelle scheitern bei Simulation (12.4.2016)
Eine Moräne macht noch keinen Winter: Mittelalterliche Wärmeperiode behauptet sich im Faktencheck gegen plumpes Aktivistenpaper zur kanadischen Baffininsel (11.1.2016)
Ganzen Kontinent mit einem Datenpunkt erklären? Antarktische Außenseiter-Studien zur Mittelalterliche Wärmeperiode offenbaren große Literaturlücken (15.12.2015)
Die Mittelalterliche Wärmeperiode in Afrika (23.11.2015)
Den Nerv getroffen: Führende deutsche Klimainstitute verweigern die Aussage zur Mittelalterlichen Wärmeperiode (17.11.2015)
Zweiter Klimazustandsbericht zum Ostseeraum: Mittelalterliche Wärmeperiode war um ein halbes Grad wärmer als heute (9.6.2015)
Überraschende Wendung: Alaskas Gletscher waren zur Zeit der Mittelalterlichen Wärmeperiode so kurz wie heute (2.11.2014)
Neue chinesische Temperaturkurve der letzten zwei Jahrtausende überrascht: Es war bereits mehrfach wärmer als heute (4.3.2013)
Neues zur Mittelalterlichen Wärmeperiode: Die wundersame Wiederholung der Temperaturgeschichte (26.11.2012)
Kein nordatlantisches Phänomen: Mittelalterliche Wärmeperiode und Kleine Eiszeit in den Anden gefunden (13.10.2012)
Neues Paper in Quaternary Science Reviews: Mittelalterliche Wärmeperiode und Kleine Eiszeit in den chilenischen Anden nachgewiesen (3.7.2012)
Abrupter Temperaturanstieg von mehr als einem Grad um 980 n. Chr. in Island: Mittelalterliche Wärmeperiode mit enormer Erwärmungsrate (17.6.2012)

Das taten sie aber nicht. Bei pro-Klimahysterie-Ergebnissen nicht schlimm: Gelobt wird ja nicht für den Inhalt und Sorgfalt, sondern für das „richtige“ Ergebnis.
Und deshalb zeigt der Autor einmal ganz kurz und mit gleicher „wissenschaftlicher“ Sorgfalt, zu welchem Ergebnis seine Studie zur MWP anhand der Daten des Pages2k-Projektes kommt.

Autorenstudie: Pages2k Proxidaten und die Mittelalterliche Warmzeit

Eigentlich bräuchte man gar nicht neu „belegen“. Bild 5 mit der revidierten, „globalen“ 2k Temperaturkurve zeigt ja schon überdeutlich eine Mittelalterliche Warmzeit. Beachtet man dazu, dass es sich bereits bei den Proxidaten oft um gering auflösende und bereits im Proxi glättende Werte handelt, die dann in der Zusammenfassung nochmals geglättet werden, weiß man, dass diese Kurve immer noch die globale, vergangene Temperaturwirklichkeit mit ihren vielen, kurzzeitigen Extremen großteils unterdrückt, diese „Unterdrückung in den Endwerten ab ca. 1850 allerdings immer stärker wegnimmt und damit (sicher nicht zufällig) die gleiche, überproportionale Hervorhebung wie der ursprüngliche Hockeystick erzeugt.

Anhand der analytischen Darstellungen aus dem Projekt lassen sich jedoch weitere Aussagen treffen. Bild 6 zeigt die Verteilung der pages2k Proxi-Temperaturwerte über den Globus und über den Auswerte-Zeitraum.
Einmal sieht man die eklatante Datenlücke (Grau) genau während den wichtigen Zeiträumen. Doch wo die Lücken nicht (so groß sind, dass der Zeitraum grau hinterlegt wurde) sieht man über die Frühzeit und das Mittelalter umfangreiche, über lange Zeiträume reichende Wärmeperiode(n).

Auf die Idee, solche Wärmeperioden wäre(n) nicht global gewesen, würde man anhand dieses Bildes nicht kommen. Wollte man die Aussage jedoch kritisieren, könnte man nur eines aussagen: Der Datensatz ist für diesen Zeitraum nicht aussagefähig (was die kritisierte Studie nicht getan hat).

Bild 6 [7] aus dem pages2k-Projekt (vom Autor ergänzt)
Als Lösungsversuch kann man nun einzelne Proxis ansehen und versuchen, sich daraus ein wahrscheinliches Bild über den langfristigen Verlauf zu machen. Deshalb nun Proxis der verschiedenen Regionen, um die Temperaturen während der MWP abzuschätzen

Antarktis

Die Sichtung durch den pages2k-Viewer kommt zu dem Ergebnis, dass eine Warmperiode während der besagten, mittelalterliche Zeit dort stattgefunden hat und durch Proxis belegt ist.

Bild 7 pages2k Proxiverläufe Antarktis. Quelle: pages2k Viewer (Grenzlinien vom Autor ergänzt)

Proxi-Einzelverläufe lassen dies präzisieren:

Bild 8 Antarctic WD2006A. Quelle: pages2k Viewer

Bild 9 Antarctic WD2005A. Quelle: pages2k Viewer

Bild 10 Antarctic Plateau Remote/PR-B. Quelle: pages2k Viewer

Arktis

Hinweis: Die Proxis der Arktis liegen meistens an der Grenze zur Arktis. Deshalb gibt es so viele.
Das Globaldiagramm (Bild 11) lässt keinen Schluss zu, außer den, dass über die Zeiträume praktisch alles vorkam. Man ahnt es: Eine „gute“ Mittelwertbildung würde aus dem „Proxispaghetti“ unweigerlich einen horizontalen Strich erzeugen, der erst am Ende, wo die Proxi- und Messbedingungen sich ändern, unweigerlich zu einem Hockeystick führt.

Trotzdem lassen Einzelproxis daraus (Bilder 12 – 14) aber augenscheinlich eine mittelalterliche Warmperiode identifizieren.
Ein Beispiel, dass das schematische Anwenden statistischer Methoden bei ungeeigneten Datensätzen – wie es in der Klima(Wandel)Wissenschaft hemmungslos gemacht wird -, oft nicht zu sinnvollen Aussagen führt.

Bild 11 Arctic. Quelle: pages2k Viewer

Bild 12 Arctic GRIP Grönland. Quelle: pages2k Viewer

Bild 13 Arctic Gulf of Alaska. Quelle: pages2k Viewer

Bild 14 Arctic Devon Ice Cap. Quelle: pages2k Viewer

Asien

Das Proxi-Globalbild (Bild 16) zeigt wieder nichts, außer, dass auch dieses ein chaotisches „Spaghetti“ an Proxiverläufen beinhaltet, welche den Summennutzen von Rauschen haben. Jeder Vernünftige würde daraus ableiten: Entweder sind die Proxis in vielen Fällen falsch und damit unbrauchbar (recht wahrscheinlich); sollen sie allerdings doch stimmen, dann gibt es ganz einfach keinen Sinn für einen Mittelwert, weil dieser nur den Witz von den Füßen, deren einer in Eis und der andere in kochendem Wasser steht und der Kopf sich über ein angenehmes Mittel freut, erfüllt.
Man würde – und müsste – dann also auf eine Mittelung, oder die Verwendung solcher Proxis verzichten. Aber durch „Statistik“ kommt immer der wichtige, horizontale Strich bis zum Beginn genauerer Messdaten zustande, der als alarmistischer Klimaverlauf benötigt wird.
In Zeiten, in denen eine fremd-gesteuerte, mental kranke 16-Jährige Politik und (AGW-)Klima-Wissenschaft vor sich „hertreiben“ darf:
Merkur: Greta Thunberg ruft zum Generalstreik auf – eine deutsche Bank will mitmachen

entscheiden sich eben auch Wissenschaftler in der Schweiz für das Leichtere und Fördermittel versprechende: Stures Anbiedern und Mitlaufen mit dem Trend, wie es auch ein CSU-Ministerpräsident, Herr Söder, nun ganz Bayern aufoktroyiert:
SZ, 29. Juli 2019: Bayerns Ministerpräsident Söder will Klimaschutz im Grundgesetz verankern

Bild 16 Asien global. Quelle: pages2k Viewer

Doch auch für den Raum Asien lassen sich aus den wenigen Langzeitproxis welch, eine Mittelalterliche Warmperiode unterstützende, finden. Man beachte im Proxi-Bild 17 auch die enormen Änderungsgeschwindigkeiten, welche es angeblich in der Vergangenheit noch nie gab.

Bild 17 Asien WULANJ (China). Quelle: pages2k Viewer

Australien

Das Proxi-Globalbild ist alleine deshalb interessant, weil es ausgerechnet für die heutige Zeit belegt, dass etwas an den Proxis wohl nicht stimmen kann. Jedenfalls finden sich vom „Verbrennen“ bis zur Ansage einer beginnenden Eiszeit alle Schlussverläufe.
Und eine Warmperiode im Mittelalter lässt sich ebenfalls finden, wie auch wieder enorme Änderungsgeschwindigkeiten, welche mit er der aktuellen –angeblich noch nie dagewesenen – problemlos mithalten können. Die grauen Linien sind teils Fehlerbereiche und/oder Extremwerte. Daraus lässt sich zumindest ahnen, was vor Ort an kurzfristigen Temperaturschwankungen wirklich passiert sein könnte. Hätte es damals schon unsere Medien gegeben, wäre denen wohl die rote Alarmfarbe ausgegangen.

Bild 18 Australien global. Quelle: pages2k Viewer

Bild 19 Australien Oroko. Quelle: pages2k Viewer

Bild 20 Australien Mt Read. Quelle: pages2k Viewer

Bild 21 Australien Buckleys Change. Quelle: pages2k Viewer

Südamerika

Irgendwie ist der AGW-Klimawandel noch nicht bis Südamerika gekommen. Kein längerfristiger Proxiverlauf hat „Ihn“ dort gesehen. Doch wieder interessant die teils enormen, kurzfristigen Änderungen in der Vergangenheit.

Bild 22 Südamerika global. Quelle: pages2k Viewer

Bild 23 Südamerika Quelccaya. Quelle: pages2k Viewer

Bild 24 Südamerika Laguna Aculeo. Quelle: pages2k Viewer

Europa

Es ist naheliegend, dass – wenn es die MWP gab – sich diese in Europa findet. Entsprechend zeigen es 2k Proxis. Man beachte, wie Proxis den jüngsten Temperaturanstieg nicht abbilden. Warum sollten sie es dann in der Vergangenheit gemacht haben? Das Schweizer Studienteam kam nicht auf solche naheliegenden Fragen. Die Beantwortung wäre sicher sehr störend gewesen.

Bild 25 Europa global. Quelle: pages2k Viewer

Bild 26 Europa NSC 12 Finnland. Quelle: pages2k Viewer

Bild 27 Europa Tor92 Finnland. Quelle: pages2k Viewer

Bild 28 Europa Nsc12. Quelle: pages2k

Bild 29 Europa Swi06. Quelle: pages2k

Bild 30 Europa Alb12 (Albanien). Quelle: pages2k

Nordamerika

Von Nordamerika gibt es zwei Globalverläufe: Einen langen und einen kurzen. Erkennbar ist der kurze Datensatz (Bild 32) unbrauchbar – zumindest zur statistischen Bearbeitung -, weil es sich dabei in Summe um ein eher stochastisches Datengemenge handelt; und der lange Datensatz (Bild 31) zeigt eindeutig eine mittelalterliche Warmperiode.

Bild 31 Nordamerika global (Langzeitverläufe). Quelle: pages2k

Bild 32 Nordamerika global kurz (Baumringproxis „Trees“). Quelle: pages2k

Langzeitproxi Nordamerika mit deutlich ausgewiesener MWP:

Bild 33 Nordamerika Conifer/hardwood ecoregion. Quelle: pages2k:

Pages2k-MWP Studienergebnis des Autors

Der Autor setzt hier die These, dass sein Ergebnis mit weniger Aufwand nicht ungenauer ist, als das der „berühmten“, Schweizer Studienautoren, allerdings deren Ergebnis widerspricht. Denn er benutzt die IPCC-Statistik, nach der man etwas ansieht und dann mittels „Abstimmen unter den Beteiligten“ den Mittelwert und Vertrauen(sbereich) textlich festlegt. Das gilt in der Klima(Wandel)Wissenschaft inzwischen ja als „high-end“ an Bewertungs- und Aussagequalität.

Und so behauptet er, dass es sogar anhand der für diese Aussage eigentlich ungeeigneten, da die Welt zur damaligen Zeit bei Weitem nicht abdeckenden, zudem teils schauderhaft falschen ungenauen Proxidaten wesentlich wahrscheinlicher als unwahrscheinlich ist, dass es eine (wenn nicht sogar mehrere) Warmperiode im Mittelalter (und davor) gegeben hat.

Nachdem zusätzliche Proxis aus dem kaltesonne MWP-Projekt mit erheblich besserer Flächenabdeckung dies bestätigen, kann man ziemlich sicher sein, dass solche Warmperioden global – teils natürlich mit Verzögerungen – existierten, zumindest so lange, bis neue Proxis (nicht wiederholt unzulässig angewandte Statistik über die schlechten) das widerlegen. Das ist derzeit nicht in Sicht.
In Sicht ist allerdings, dass man die Proxis „verlässt“ und das (gewünschte) Belegergebnis durch Simulieren erzielt. Das hat auch den großen Vorteil, dass Simulieren in AGW-Kreisen als genauer gilt und nicht von jedem Laien einfach, penetrant und ätzend „zerlegt“ werden können.

Nachtrag

Wer sich bis hierher durchgelesen hat und diesen Nachtrag mit den Bildern der auf NoTricksZone hinterlegten Studienauszügen ansieht, wird sich fragen, wie die Studie aus der Schweiz das alles vollkommen ignorieren konnte. Wer sich mit „Klimawandel“ auskennt, fragt sich, wie lange es noch dauern kann, bis nicht einmal irgend-Jemand aus der Wissenschaft den Mut hat, solchen Studien-Betrug durch Unterlassung anzuprangern und sich Autoren mit solchen Studien anfangen, für solche Arbeiten zu schämen.
Lediglich ein Herr Trump hat es begonnen. Es wird werden, wie bei der Hexenverfolgung: Erst als das Entdecken kein (risikoloses) Geld mehr einbrachte, kamen die wissenschaftlich dafür Zuständigen drauf, dass es auch gar keine gibt.
Und angestoßen hatten diese „neue“ Erkenntnis wissenschafts-fremde Personen.
Trump hat demnach die Change, als ein großer „Wissensentdecker“ in die Klimageschichte einzugehen. Hoffentlich hält er damit auch durch, beziehungsweise sich lange genug an der Regierung.

Zwischenzeitlich hat auch Herr Lüdecke zu dieser Schweizer Studie etwas auf EIKE geschrieben;
EIKE 30. Juli 2019: Das blinde Auge der Klimaforscher an der Universität Bern
Und auf NoTricksZone ist eine Serie neuester Studien mit ihren Klimagraphiken hinterlegt, welche alle eine MWP ausweisen:
NoTricksZone: 12 New Papers Provide Robust Evidence The Earth Was Warmer During Medieval Times
… Claims that modern temperatures are globally warmer than they were during Medieval times (~800 to 1250 A.D.) have been contradicted by a flurry of new (2019) scientific papers
Daraus Bildbeispiele

Bild 34 Quelle: NoTricksZone

Bild 35 Quelle: NoTricksZone

Bild 36 Quelle: NoTricksZone

Bild 37 Quelle: NoTricksZone

Bild 38 Quelle: NoTricksZone

Bild 39 Quelle: NoTricksZone

Bild 40 Quelle: NoTricksZone

Bild 42 Quelle: NoTricksZone

Bild 43 Quelle: NoTricksZone

Quellen

[1] EIKE 26.07.2019: Klimajournalismus: Papa, Charly hat gesagt, sein Papa hat gesagt…- oder wie man faule Berner Studien „nature“ und damit Medien unterjubelt

[2] Studie: No evidence for globally coherent warm and cold periods over the preindustrial Common Era

[3] NZZ 24.07.2019: So rasch und grossflächig ist die Temperatur in den letzten 2000 Jahren noch nie gestiegen – Drei Klimastudien mit Beteiligung von Forschern aus Bern enthüllen Details über kalte und warme Episoden vor der Industrialisierung: Sie betrafen immer nur einen Teil des Erdballs.

[4] Der Tagesspiegel: Studie widerlegt Argument der Klimaskeptiker 98 Prozent der Erde werden wärmer

[5] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

[6] EIKE: Nächste Pleite: ,Globale‘ Rekonstruktion PAGES 2K kann den ,Hockeyschläger‘ nicht bestätigen

[7] http://www.realclimate.org/index.php/archives/2013/04/the-pages-2k-synthesis/




Klimawissen­schaftler manipu­lieren die Daten wieder und wieder und wieder und wieder

Auf dem Blog von Pierre Gosselin gibt es einen Beitrag von Kirye aus Japan über die Temperatur-Adjustierungen des GISS bei der NASA (hier, auf Deutsch beim EIKE hier). In der jüngsten GISS-Version V4 unterscheiden sich die vermeintlich „nicht adjustierten“ Daten von den nicht adjustierten Daten in der Vorgängerversion V3.

Tony Heller zeigt Graphiken der Versionen von NASA GISTEMP aus den Jahren 2000, 2017 und 2019. Aus diesen geht hervor, dass Gavin Schmidt und sein Team es fertig gebracht haben, die Erwärmung immer weiter hochzuschrauben, besonders im Zeitraum des unbequemen Stillstands. Den Effekt erkennt man auch in den Abbildungen 2 und 4 auf der GISS history page.

Hier in UK macht das HadCRUT4-Team genau das Gleiche. Clive Best fragt „Was ist mit dem Global Warming Hiatus?“ Die Antwort lautet, das man ihn zerschlagen hat mittels einer ganzen Reihe von Adjustierungen der Daten. HadCRUT3, zeigt so wie im Jahre 2014 veröffentlicht einen eindeutigen Stillstand ohne jede Erwärmung von 2001 bis 2013, aber die jüngsten neuen, verbesserten Daten der letzten Zeit im HadCRUT4 wurden nach oben korrigiert. Clive dachte, dass dies der Erfassung von Stationen mit unterschiedlichen Messungen geschuldet ist, fand jedoch bei Nachforschungen heraus, dass dies mitnichten der Fall ist. Die Zahlen wurden einfach so adjustiert.

Die früheren Versionen von HadCRUT4 können hier eingesehen werden. Daraus wird ersichtlich, wie der Temperaturunterschied zwischen 2013 und 2001 in nachfolgenden Versionen stetig aufwärts getrieben worden ist:

Aber der wesentliche Punkt in diesem Beitrag (das 4. Mal ,wieder‘ in der Überschrift) ist der Bericht über die jüngste Datenmanipulation, von welcher in keinem der obigen Beiträge die Rede ist. Sie stammt von John Kennedy und seinen Kollegen vom UK Met.-Office (UKMO) und wird in einer sehr langen Studie hier beschrieben. Man befasst sich darin mit den Wassertemperaturen (SSTs) und dem brandneuen Datensatz mit der Bezeichnung HadSST4 (verwirrenderweise verwendet HadCRUT4 den Datensatz HadSST3)

Hier folgt Abbildung 14 aus jener Studie. Die Achsenbeschreibung befindet sich in einem Plot weiter unten, aber die großen Merkpunkte sind 1850, 1900, 1950, 2000. In der Graphik wird die gegenwärtige Version HadSST3 verglichen mit der vorgestellten neuen Version HadSST4.

Offensichtlich brauche ich nicht zu erklären, welches die neue und welches die vorherige Version ist. Die Erwärmung wurde einfach um 0,1°C verstärkt, oder 10% insgesamt.

Abbildung 16 in jener Studie zeigt Temperaturtrends gekennzeichnet bis 2012:

Hier stehen die roten Karos für die Rohdaten und die grünen für HadSST3. Die neue Version HadSST4 ist als die schwarze Linie dargestellt, wobei die graue Schattierung die Unsicherheits-Bandbreite repräsentiert. Während der frühen Jahre des 20. Jahrhunderts passte die globale Erwärmung nicht zu der Theorie der Klimawissenschaftler einer Erwärmung durch Kohlendioxid, also wurden die Daten kurzerhand nach unten korrigiert. Aber man betrachte den Trend während des Zeitraumes des Stillstands: hier zeigen die Rohdaten buchstäblich keinerlei Trend. HadSST3 adjustierte den Trend aufwärts, um Erwärmung zu erzeugen, und in HadSST4 wurde noch einmal nach oben adjustiert, wobei die Adjustierung von zuvor in etwa verdoppelt wurde. Und das in einer Ära, in welcher die Datenqualität hervorragend sein sollte dank der Einführung des ARGO float system.

Was also geht hier vor sich? Einen Hinweis darauf gibt es in den anderen beiden Karos in blau und orange. Hierbei handelt es sich um zwei weitere Methoden, die Wassertemperatur zu messen, nämlich ERSST und COBE-SST. Da diese einen signifikant höheren Erwärmungstrend als bei HadSST3 erzeugt haben, musste das UKMO ihre Temperaturdaten ebenfalls aufwärts adjustieren, um damit mitzuhalten. Diese „reduzierte Diskrepanz zwischen Datensätzen“ ist einer der Schlüsselpunkte auf der ersten Seite der Studie.

Durch die ganze Studie zieht sich wie ein roter Faden die Darstellung von Verzerrungen in den Daten und wie diese entfernt werden. Aber die Autoren scheinen die größte Quelle von Verzerrungen zu vergessen, nämlich den Bias, der sich in ihren Köpfen abspielt.

Link: https://cliscep.com/2019/06/30/climate-scientists-fiddling-the-data-again-and-again-and-again-and-again/?

Übersetzt von Chris Frey EIKE




Adjustierte „unad­justierte“ Daten: NASA nutzt den „Zauberstab“ des Frisierens und erzeugt Erwär­mung dort, wo es nie eine gab

Diese Praxis hat zur Erstellung neuer Datensätze geführt mit der Bezeichnung „adjustierte“ Daten, während die alten Datensätze mit der Bezeichnung „V3 unadjustiert“ versehen wurden. Das Problem der Gobale-Erwärmung-Aktivisten bestand jedoch darin, dass ein Blick auf die alten „unadjustierten“ V3-Daten – d. h. unverfälschte Daten – oftmals einen abwärts gerichteten Temperaturtrend zeigte. Derartige negative Trends waren natürlich für die Alarmisten unerträglich, behaupten diese doch unablässig, dass sich der Planet rapide erwärmt.

Die adjustierten „unadjustierten“ Daten

Was also war zu tun? Nun, es sieht so aus, als hätte sich die NASA entschlossen, seine „V3 unadjustierten Datensätze“ zu adjustieren und sie umzubenennen in „V4 unadjustiert“. Das stimmt – die adjustierten Daten wurden zu V4 „unadjustiert“.

Und welchen Trend zeigen nun die neuen „V4 unadjustierten“ Daten?

Richtig geraten! Die neuen V4 unadjustierten Daten zeigen Erwärmungstrends, und das sogar an Stellen, an denen einst ein Abkühlungstrend aufgetreten war.

Die NASA schwingt ihren Zauberstab des Frisierens, um eine Abkühlung in eine (Fake-)Erwärmung zu verwandeln, folgendermaßen:

6 Beispiele skandalösen Unfugs der NASA

Hier folgen 6 Beispiele aus verschiedenen Gegenden des Globus‘ und über Jahrzehnte zurückreichend. Sie demonstrieren eindrucksvoll diese skandalöse, willkürliche Veränderung von Daten:

Nr. 1

Punta Arenas, Chile: Hier sehen wir, wie ein eindeutiger Abkühlungstrend von der NASA so erwärmt wurde, dass nur noch ein sehr geringer derartiger Trend übrig blieb:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 2

Marquette, Michigan: Hier hat die NASA einen leichten Abkühlungstrend in einen robusten Erwärmungstrend verwandelt. Kein Wunder, dass der japanische Klimawissenschaftler Dr. Mototaka Nakamura [auf Deutsch beim EIKE hier] jüngst die globale Erwärmung zeigenden Daten der Experten als „nicht vertrauenswürdig“ und „gefälscht“ charakterisiert hat:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 3

Port Elizabeth, Südafrika: Hier wurde ein 109 Jahre zurück reichender Datensatz so verändert, dass ein fehlender Erwärmungstrend in einen Erwärmungstrend verwandelt wurde:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 4

Davis, Antarktis: Daten der Japan Meteorological Agency beispielsweise zeigen, dass diese Station keinen Trend aufweist, genau wie die nicht adjustierten V3-Daten der NASA. Aber die neuen V4 „unadjustierten“ Daten der NASA zeigen, dass jene Erwärmung endlich auch die Antarktis erreicht hat:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 5

Hachijojima, Japan: Die unadjustierten V3-Daten von dieser abgelegenen Inselstation zeigten keinen Trend – bevor die NASA beschloss, einen neuen, „unadjustierten“ Datensatz zu erzeugen. Und siehe da – jetzt gibt es einen Erwärmungstrend dort, wo nie einer aufgetreten war:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 6

Valentia, Irland: Hier sieht man, wie Abschnitte in der Vergangenheit kühler und jüngere Temperaturdaten wärmer gemacht worden waren. Keine Überraschung – das Ergebnis ist eine stärkere Erwärmung:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Bei der NASA scheint es so, als ob die Sonne, Ozeane, Wasserdampf usw. keine Rolle zu spielen scheinen, wenn es um globale Temperaturtrends geht. Der Nummer 1-Faktor hinter der „Erwärmung“ bei der NASA scheint nicht einmal CO2 zu sein, sondern vielmehr deren Orwell’sche Fälschung von Daten. Falls bei der NASA die Daten nicht mit den (erfundenen) Modellen übereinstimmen, dann verändere man sie einfach, bis sie passen.

Legt diesen NASA-Sumpf endlich trocken!

Link: https://notrickszone.com/2019/06/25/adjusted-unadjusted-data-nasa-uses-the-magic-wand-of-fudging-produces-warming-where-there-never-was/

Übersetzt von Chris Frey EIKE




Klimawissen­schaftler am MIT: „AGW-Behaup­tungen fußen auf nicht vertrauens­würdigen, gefälschten Daten … haben keinerlei wissenschaft­lichen Wert!“

Dr. Kiminori Itoh machte jüngst auf die Kindle-Version eines klimaskeptischen Buches aus Japan aufmerksam. Es trug den Titel [übersetzt] „Alltag eines Klimawissenschaftlers – Theorie der globalen Erwärmung ist unbewiesen und lediglich eine Hypothese“* (hier). Autor des Buches ist Dr. Mototaka Nakamura, (1)der seinen Doktorgrad 1994 am MIT erwarb und da nach zeitweilig am MIT und viel en renommierten Instituten arbeitete.

[*Direktübersetzung via Google aus dem Japanischen. Anm. d. Übers.]

In seinem Buch erklärt Dr. Nakamura, warum die vermeintlich die globale Erwärmung belegenden Daten „vertrauensunwürdig“ sind und man sich nicht auf sie verlassen kann.

Nicht gestützt durch nachweisbare Daten

Er schreibt, dass zwar viele Menschen, darunter auch viele Klimaforscher, glauben, dass es eine bewiesene Tatsache ist, dass die Temperaturen seit der Industriellen Revolution gestiegen sind, dass dieser Anstieg aber „nicht durch nachweisbare Daten gestützt“ wird. Er schreibt:

Die globalen mittleren Temperaturen vor dem Jahr 1980 haben keine vertrauenswürdigen Daten zur Grundlage. Bevor die Satelliten-Überwachung des gesamten Planeten im Jahre 1980 begann, wurden die Temperaturen nur in einem kleinen Teil der Erde mit einem gewissen Grad an Genauigkeit und Häufigkeit gemessen. Vom gesamten Globus liegen nur aus Nordamerika und Westeuropa vertrauenswürdige Temperaturdaten vor, die bis zum 19. Jahrhundert zurück reichen.

Renommierte Karriere

Dr. Nakamura erwarb seinen Doktortitel (Dr. rer. nat.) am Massachusetts Institute of Technology (MIT) und spezialisierte sich über fast 25 Jahre auf anomales Wetter und Klimawandel an renommierten Institutionen, darunter auch das MIT, aber auch am Georgia Institute of Technology, NASA, Jet Propulsion Laboratory, California Institute of Technology, JAMSTEC und Duke University.

Gescheiterte Klimamodelle

Nakamuras Buch zerschlägt “die Lüge einer kritischen globalen Erwärmung infolge des zunehmenden Kohlendioxid-Gehaltes”. Er stellt die große Unsicherheit der “globalen Erwärmung während der letzten 100 Jahre bloß” und verweist auf das grandiose Scheitern der Klimamodelle.

Nur 5% der Erdoberfläche wurden während der letzten 100 Jahre adäquat vermessen

Dr. Nakamura zufolge fehlt es den Temperaturdaten an entscheidenden Inhalten, und sie gestatten in keiner Weise, irgendwelche brauchbaren Schlussfolgerungen zu ziehen:

Bildinschrift: <b>Große Unsicherheit … unmöglich, einen Trend abzuleiten</b>

Vollständige Satelliten-Überwachung erst seit 40 Jahren

Bodenstationen viel zu weit verstreut

Oberflächendaten von den Ozeanen mit entscheidenden Lücken

Daten aus der Tiefe der Ozeane nahe Null

Hemmungslose Daten-Adjustierungen und Pfusch

Gegenwärtig ist das Buch leider nur auf japanisch erhältlich. Hier folgen einige übersetzte Passagen.

So illustriert Dr. Nakamura beispielsweise, wie dünn gesät die globalen Temperaturdaten wirklich sind, und er schreibt, dass es während der letzten 100 Jahre „nur für 5 Prozent der Erdoberfläche möglich war, die mittlere Temperatur mit einem halbwegs gewissen Grad an Genauigkeit zu ermitteln“.

Extrem spärliche Ozeandaten

Dann gibt es da die völlig unzureichende Anzahl von Daten der großen Ozeane. Später beschreibt Dr. Nakamura, warum die Präzision der gemessen mittleren Temperatur auf den Ozean-Oberflächen, welche etwa 75% der Erdoberfläche bedecken, bis hin zum Extrem in Frage gestellt werden muss.

Er schreibt: „Die Temperaturdaten vor dem Jahr 1980 von Luft und Wasser sind sehr weit gestreut“. Die Verfahrensweise der Aufzeichnung derselben ist vollkommen unangemessen.

Um es in einer Nussschale auszudrücken: „Die Rohdaten der Klima-Datensätze der Wassertemperatur an der Ozeanoberfläche sind verschiedenen Adjustierungen unterzogen worden“.

1 Station pro 10.000 km² sind nahezu bedeutungslos

Dr. Nakamura belegt außerdem, dass die Anzahl der global genutzten Messpunkte kein auch nur ansatzweise genaues Temperaturbild ergeben kann. „Experten können nicht einfach entscheiden, dass 10.000 km² um jeden Messpunkt repräsentative Temperaturwerte ergeben“.

Später erklärt er: „Falls man die Erwärmung der Erdoberfläche seit der Industriellen Revolution als Wahrheit akzeptiert, bedeutet das, dass man dem Gedanken zustimmt, dass man die mittlere Temperatur an der Erdoberfläche bestimmen kann mittels einer verzerrten winzigen Region auf dem Globus. Das ist Unsinn! Betrachtet man die Regionen mit langen Zeitreihen der Temperatur, kann man sehen, dass es sich in einigen Regionen erwärmt, in anderen aber abgekühlt hat“.

Nakamuras harte Beurteilung: „Von keinerlei wissenschaftlichem Wert“

Und schließlich verurteilt Nakamura die fortgesetzten Daten-Adjustierungen: „Außerdem haben Experten erst jüngst neue Adjustierungen angebracht, welche den hilfreichen Effekt hatten, die Erde als sich weiterhin erwärmend erscheinen zu lassen“. Der talentierte Japaner verurteilt das als „Daten-Fälschung“.

Er folgert:

Daher haben die Daten der globalen mittleren Temperaturänderung jedweden wissenschaftlichen Wert eingebüßt. Sie sind nichts weiter als ein Propagandamittel, um die Bevölkerung zu betrügen.

Link: https://notrickszone.com/2019/06/21/mit-doctorate-climate-scientist-slams-gw-claims-based-on-untrustworthy-falsified-data-no-scientific-value/

Übersetzt von Chris Frey EIKE

(1) Dr. Nakamura received a Doctorate of Science from the Massachusetts Institute of Technology (MIT), and for nearly 25 years specialized in abnormal weather and climate change at prestigious institutions that included MIT, Georgia Institute of Technology, NASA, Jet Propulsion Laboratory, California Institute of Technology, JAMSTEC and Duke University.




Erwiderung des Met-Office auf das Audit des globalen Temperatur-Datensatzes von HadCRUT4

Das UK Met-Office begrüßt das Audit des australischen Forschers bzgl. der Fehler in HadCRUT4

Graham Lloyd, The Australian

Das britische Met-Office hat ein Audit des australischen Forschers John McLean begrüßt. In diesem wurde behauptet, dass der Autor gravierende Fehler im Datensatz HadCRUT4 der globalen Temperatur gefunden hat.

„Jedem tatsächlich erkannten Fehler wird bei der nächsten Aktualisierung Rechnung getragen“.

Das Met-Office sagte, dass automatische Untersuchungen bzgl. der Qualität der Ozean-Daten durchgeführt werden und dass monatliche Aktualisierungen der Temperatur auf dem Festland eine von Computern gestützte Qualitätskontrolle durchlaufen.

„Der HadCRUT-Datensatz enthält umfassende Unsicherheits-Abschätzungen bei der Zusammenstellung der globalen Temperatur“, sagte ein Sprecher. „Wir haben bereits den Bericht von Dr. John McLean aus dem Jahr 2016 akzeptiert und die darin beschriebenen Fehler korrigiert“.

———————————–

Ich bin sicher, dass die Schrott-Daten-Apologeten Mosher und Stokes uns bald sagen werden, warum dies nicht signifikant ist und warum HadCRUT einfach gut ist, und warum wir diesen Fehlern keine Aufmerksamkeit zuteil werden lassen sollten.

Jo Nova fügt hinzu:

Ohne dass sie zugeben, dass McLean gravierende Fehler gefunden hat, räumen sie ein, dass seine Anmerkungen zuvor im Jahre 2016 nützlich waren, und man verspricht, „die Fehler bei der nächsten Aktualisierung zu beseitigen“. Gut und schön, aber dann erhebt sich die Frage, warum ein PhD-Student in Heimarbeit Fehler findet, welche ein mit 226 Millionen Pfund ausgestattetes Institut mit 2100 Mitarbeitern nicht finden konnte.Bedeutsam ist, dass sie keiner der Behauptungen widersprechen.

Noch bedeutender ist, dass sie nicht einmal das Killer-Thema der Adjustierungen aufgrund von Messstellen-Verlagerungen erwähnen – die kumulative künstliche Abkühlung der ältesten Aufzeichnungen, um dem Bau von Gebäuden Rechnung zu tragen, die erst viele Jahrzehnte später gebaut wurden.

Mehr dazu hier.

Jo hat da einen wesentlichen Punkt. Warum eigentlich finden immer die Skeptiker die Fehler in den Klimadaten, Hockeyschläger und andere Datenmanipulationen, durchgeführt von einem üppig finanzierten Klima-Komplex?

Vielleicht liegt es daran, dass es sie einfach nicht kümmert, und Wissbegier muss immer hinter dem Geld zurückstehen. Genau wie Politiker, die nur auf die nächste Wahl schauen, ist die Klima GmbH so abhängig von dem Geldstrom geworden, dass deren einzige Sorge der nächsten großen Zuwendung gilt.

Eisenhower hatte recht. Wir kennen alle dessen Abschiedsrede, in welcher er uns warnte vor dem „Militär-industriellen Komplex“. Das ist sehr symbolträchtig. Aber was man vermutlich nicht weiß ist, dass diese Abschiedsrede eine zweite Warnung enthält, und zwar eine, die sich auf unsere jetzige Lage bzgl. Wissenschaft bezieht. Er sagte seiner Nation:

Für die tiefgreifenden Veränderungen unserer militärisch-industriellen Lage war und ist die technologische Revolution der letzten Jahrzehnte verantwortlich.

Im Zuge dieser Revolution rückte die Forschung in den Mittelpunkt und wurde gleichzeitig formaler, komplexer und teurer. Ein stetig steigender Anteil wird für, durch oder auf Anweisung der [US-]Bundesregierung durchgeführt.

Heute ist der einzelne Erfinder, der an seinem Schreibtisch vor sich hin werkelt, überschattet von Arbeitskreisen von Wissenschaftlern in Laboratorien und auf Testgelände. In gleicher Weise hat die freie Universität, einst die Speerspitze offenen Gedankenaustausches und wissenschaftlicher Entdeckungen, eine Revolution der Durchführung von Forschungen durchlaufen. Teils wegen der involvierten enormen Kosten wird ein Auftrag der Regierung praktisch zu einem Substitut der individuellen Wissbegierde. Für jede einstige Wandtafel gibt es heute Hunderte neuer elektronischer Computer.

Der Aspekt der Vorherrschaft von regierungsamtlichen Institutionen, Zuteilungen für Projekte und die Macht des Geldes über die Gelehrten der Nation muss sehr genau beobachtet werden.

Und dennoch, falls wir wissenschaftliche Forschungen und Erkenntnisse weiter respektieren wollen, was wir tun sollten, müssen wir uns der genauso großen und entgegengesetzten Gefahr bewusst sein, dass die Politik selbst zu einer Geisel einer wissenschaftlich-technologischen Elite werden kann.

Link: https://wattsupwiththat.com/2018/10/15/met-office-responds-to-hadcrut-global-temperature-audit-by-mclean/

Übersetzt von Chris Frey EIKE




Erderwärmung: James Hansen hat sich geirrt

Im Jahre 1988, vor genau 30 Jahren, erschien der NASA-Wissenschaftler James Hansen in einer Anhörung zur globalen Erwärmung vor dem US-Kongress. Die Anhörung wurde von Al Gore organisiert und sollte verschiedene Szenarien vorstellen, nach denen sich der Planet entwickeln könnte. Damals sagte Hansen selbstbewusst eine Erwärmung von 1 °C voraus.

In Wahrheit hatte Hansen drei Szenarios vorgelegt: A: „business as usual“ mit weiter schnell steigenden Karbonemissionen und der Erhöhung um ein Grad. B war das „most plausible“-Modell, bei konstanten Emissionen auf dem Niveau von 1988, die die Welt bis heute um 0,7 Grad erwärmt hätten. Das Modell C ging von steigenden Emissionen von 1988 bis 2000 und einer anschließenden Stabilisierung aus. Das sollte zu einer Erwärmung bis heute von 0,3 Grad führen – ein Ergebnis, dessen Erreichen er damals als höchst unwahrscheinlich („highly unlikely“) bezeichnete.

Hansens Szenarien wurden im Großen und Ganzen vom IPCC der UN übernommen. Was wurde nun aus den Prophezeiungen Hansens, dem Hohepriester der Erderwärmungsangst, und seiner Anhänger?
Heute ist die Welt durchschnittlich 0,3 Grad wärmer als im Jahr von Hansens Szenarios. Das heißt kurz gefaßt, bezüglich der Temperatur ist Szenario C eingetreten, das ihm damals selbst am unwahrscheinlichsten vorkam.

Dazu kam es jedoch nicht, weil die CO2-Emissionen 2000 ab eingefroren wurden. Ganz im Gegenteil stiegen diese immer weiter an. Das heißt, die Bedingung für den von ihm im Szenario C vorhergesagten Temperaturanstieg lag überhaupt nicht vor, sondern mehr oder weniger die für den Temperaturanstieg des Szenario A angegebene Bedingung.
Daraus folgt, daß Hansens Vorstellungen darüber, was die globale Durchschnittstemperatur antreibt, falsch waren und noch immer sind. Denn er glaubt, Kohlendioxid ist der Temperaturregler der Atmosphäre. Schon 1988 sollte diese Idee jedem mit auch nur einen Funken gesunden Menschenverstand als das aufgefallen sein, was es ist: Nonsens.

Kohlendioxid konstituiert vier Hundertstel eines Prozents der Atmosphäre. Das allein schon macht es zu einem wenig wichtigen Einflußfaktor. Doch ist an der ganzen Geschichte wesentlich mehr. Denn die Atmosphäre selbst bildet nur einen kleinen Teil des globalen Klimasystems. Dazu kommen noch Hydrosphäre, Kryosphäre, die obere Lithosphäre und die Biosphäre sowie solare und kosmische Strahlung und der Vulkanismus. Das atmosphärische Kohlendioxid, auf dessen maßgeblicher Rolle Hansen besteht, entspricht nur rund 0,00015 Prozent der kombinierten Atmosphäre und Ozeane (solche Zahlen haben etwas Willkürliches, bilden jedoch die Proportionen recht gut ab).
Zu theoretisieren, daß 15 Zehnmillionstel eines Gesamtsystems die Temperatur dieses Systems oder eines großen Teils davon bestimmen könnten, ist grober Unfug. Was uns überraschen sollte ist nicht, daß sich die Idee als falsch herausstellte, sondern dass sie verinnerlicht wurde und dass es bei vielen zum Teil hochintelligenten Wissenschaftlern so lange dauert, sie angesichts klarer empirischer Fehler aufzugeben.

Inzwischen liegen dazu einige Stellungnahmen aus amerikanischen Medien vor: So berichtet das Western Journal: „Der Ökonom Ross McKitrick und der Klimawissenschaftler John Christie fanden heraus, dass die beobachteten Trends globaler Erwärmung am unteren Ende dessen rangieren, was Hansen dem Kongress bei einer vom damaligen Kongress-Mitglied organisierten Anhörung sagte.“ Sie selbst schrieben: „Klima-Modellierer werden bestreiten, dass diese Erklärung nicht zur Theorie über Klimawandel passt. Aber genau das waren die von Hansen beschriebenen Theorien, und sie passen nicht zu den Daten. Unter dem Strich: in die Modelle eingebettete Klimawissenschaft ist alles andere als ,settled’“.

Im Wall Street Journal kommentierten im Juni Patrick Michaels und Ryan Maue vom Cato Institute: „Die Lufttemperaturen verhalten sich so, als ob wir die Kohlendioxid-Emissionen vor 18 Jahren aufgefangen hätten, welche für den verstärkten Treibhauseffekt verantwortlich sind. Aber das haben wir nicht! Und nicht nur Mr. Hansen liegt hier völlig falsch“. Dieses Op-Ed setzte hinsichtlich der Genauigkeit von Hansens Prophezeiungen eine wilde Debatte in Gang. Erneut wurde in vielen Medienberichten nach Interviews mit Klimawissenschaftlern im Jahre 1988 behauptet, dass sie ziemlich korrekt waren, obwohl der so genannte „Gottvater“ der globalen Erwärmung sogar bei AP erklärt hatte: „Ich will in dieser Sache nicht recht haben“.

Einige Wissenschaftler verschoben die Torpfosten und argumentierten, dass er zumindest hinsichtlich des Strahlungsantriebs durch Treibhausgas-Emissionen richtig lag: „Alles in allem hat Hansens Modell die Relation zwischen zunehmenden Treibhausgasen (und anderen Klima-Antrieben) und der globalen Erwärmung absolut korrekt abgebildet. Was er nicht richtig eingeschätzt hatte (was auch niemand erwarten kann) ist, wie sich die Emissionen in Zukunft ändern werden. – Zeke Hausfather (@hausfath) 22. Juni 2018“.

Allerdings berücksichtigte die Analyse von McKitrick und Christy derartige Widersprüche. Sie wiesen darauf hin, dass Hansens Prophezeiungen der Kohlendioxid-Emissionen tatsächlich ziemlich genau den Beobachtungen entsprachen – allein es gab kaum eine Erwärmung in den Medien: „Es stellte sich heraus, dass Hansens Projektion des worst-case-Szenarios der globalen Erwärmung, bekannt unter der Bezeichnung Scenario B, nur Kohlendioxid-Emissionen berücksichtigt, aber immer noch zu viel Erwärmung zeigt. Was wirklich von Belang ist, ist der Trend über das Vorhersage-Intervall, und hier treten die Probleme offen hervor“. Hansens Schlussfolgerung, schrieben sie, „übertreibt die Erwärmung signifikant“.

 

http://dailycaller.com/2018/06/25/james-hansen-was-wrong-about-global-warming/

 

Übersetzt von Chris Frey EIKE

Anmerkung: Aufgrund von Hinweisen unserer Leser wurde dieser Artikel am 10. August 2018 überarbeitet.

 




Betrüge­rische, politi­sierte Daten kontami­nieren Wissen­schaft

Wood und Randall betonen die Gefahr für die Öffentlichkeit, die aufkommt, wenn Politiker wissentlich oder unwissentlich Rosinenpickerei mit nicht validierten Forschungsergebnissen betreiben, die zu ihren speziellen Agenden passen. Sie ordnen diese Nicht-Reproduzierbarkeit Wissenschaftlern zu, welche künstlich eine statistische Signifikanz aus verrauschten Daten fabrizieren, die schlechte Entscheidungen treffen hinsichtlich geeigneter Forschungsverfahren und die empfänglich sind für Druck und Versprechungen, welche ihre Schlussfolgerungen verzerren.

Im Besonderen merken die Autoren an: „Die gesamte Disziplin der Klimawissenschaft ist ein Mischmasch unzuverlässiger Statistiken, willkürlichen Forschungsverfahren und politisiertem gleichgeschaltetem Denken“. Ich selbst möchte hier etwas hinzufügen, was noch schlimmer ist: Die Regierung ist der oberste Sponsor, Hauptverursacher und Verbraucher dieses pseudo-wissenschaftlichen Morastes.

Beispiel hierfür: im Februar vorigen Jahres berichtete ich darüber, dass der ehemalige NOAA-Wissenschaftler Dr. John Bates aktenkundig gemacht hatte, dass die NOAA wissentlich „nicht verifizierte“ Temperaturdaten bzgl. globaler Erwärmung veröffentlicht hatte zum Zwecke der Beeinflussung politischer Agenden, welche von der Obama-Regierung dann bei der Klimakonferenz in Paris hervorgehoben worden waren.

Ziel war es, einen globalen Vertrag auf den Weg zu bringen, dem zufolge fortgeschrittene Nationen sich verpflichten, ihren Verbrauch fossiler Treibstoffe zu reduzieren, flankiert von gewaltigen Ausgaben für Hilfsprojekte mit Klimabezug.

Der Whistleblower Bates warf seinem ehemaligen Chef Thomas Karl vor, „auf Entscheidungen und wissenschaftlichen Machenschaften zu bestehen, welche Erwärmung maximieren und ordentliche Dokumentation minimieren … in dem Bemühen, das Vorhandensein eines Stillstands der globalen Erwärmung zu diskreditieren, so dass er Veröffentlichungen zeitlich so abstimmen konnte, dass nationale und internationale Überlegungen bzgl. Klimapolitik beeinflusst werden können“.

Der betrügerische Report von Karl widersprach sämtlichen Messungen via Satelliten und Instrumenten flach verlaufender Temperaturen zwischen 1998 und 2013. Er gipfelte in der Behauptung, dass ein „Stillstand“ oder eine „Verlangsamung“ der globalen Temperaturen niemals existierte und dass die Temperaturen weltweit sogar stärker steigen als erwartet. Bates präzisierte seinen Vorwurf dahingehend, dass die Modelle zur Abschätzung der Festlands-Temperaturen wohlbekannt waren für verheerende Software-Fehler.

Die NOAA hat sich ähnlicher Tricksereien bedient, um alarmistische Projektionen des Meeresspiegel-Anstiegs zu verbreiten. In Wirklichkeit ist der Meeresspiegel ohne Beschleunigung mit einer Rate von etwa sieben Inches [ca. 18 cm] pro Jahrhundert gestiegen, bevor im Zuge der industriellen Revolution Rauchfilter und SUVs eingeführt worden sind.

Inzwischen hat die Organisation unerschütterlich Forderungen abgeblockt nach erhärtenden Forschungen, Beweisen und damit im Zusammenhang stehende Kommunikationen … sogar gegenüber dem Kongress.

Der damalige Leiter des Science, Space and Technology-Komitees im Weißen Haus Lamar Smith (Republikaner) sagte: „Es war sehr unbequem für die Obama-Regierung, dass die Klimadaten eindeutig keine Erwärmung während der letzten zwei Jahrzehnte gezeigt haben. Das amerikanische Volk hat alles Recht der Welt Verdacht zu schöpfen, wenn die NOAA Daten manipuliert, um politisch korrekte Ergebnisse zu erhalten, und wenn sie es danach ablehnt zu erklären, wie und warum diese Entscheidungen getroffen worden sind“.

Zusammen mit der NOAA hat das Goddard Institute for Space Studies (GISS) der NASA, eine kleine, politisch geschützte Klimamodellierungs-Agentur in einem Bürogebäude in Manhattan, ebenfalls eine zweifelhafte Historie statistisch unhaltbaren globalen warmongering* an den Tag gelegt.

[*Warmongering {war-mongering} bedeutet laut LEO ,Kriegshetze‘. Vermutlich ist hier aber ein unübersetzbares Wortspiel gemeint wie etwa ,warm-ongering‘. Anm. d. Übers.]

Das GISS ist weithin bekannt für alarmistische Schlagzeilen, welche für die Medien so interessant sind. Darunter sind Behauptungen wie „NASA warnt vor heißestem Tag, Monat oder Jahr“ auf der Grundlage manipulierter Temperaturdaten und künstlich geschaffener Zeitintervalle, um die Vergangenheit kälter darzustellen als sie war, um die derzeitigen Temperaturen wärmer erscheinen zu lassen als sie sind.

In der Realität zeigen Radiosonden-Messungen der Erdatmosphäre trotz gestiegener atmosphärischer CO2-Niveaus seit Ende der fünfziger Jahre keine signifikante Erwärmung. Der einzige alarmistische Trend findet sich in einer politischen Wissenschaft bzgl. Klima … eine, in der vom Menschen verursachte Änderungen dringend überfällig sind.

Jetzt endlich zeigt sich aber diesbezüglich ein erster Silberstreifen am Horizont. Im vorigen Monat hat der neue Chef der EPA Scott Pruitt versprochen, der von dieser Institution betriebenen „geheimen Wissenschaft“ möglichst rasch ein Ende zu bereiten und kostspielige und kontraproduktive Umwelt- und Energievorschriften abzuschaffen. Er sagte der Daily Caller News Foundation: „Wir müssen sicherstellen, dass die Daten [der Institution] sowie deren Verfahren veröffentlicht werden. Anderenfalls gibt es keine Transparenz. Es wurde nicht objektiv gemessen, und das ist der Punkt“.

Prof. Emeritus der Meteorologie Richard Lindzen vom MIT unterstreicht die Dringlichkeit, die Politik aus der Wissenschaft zu vertreiben. Anderenfalls, so fürchtet er, „werden sich die Historiker einst definitiv fragen, wie tief betrügerische Logik, verschleiert durch eine verdrehte und unerbittliche Propaganda, es einer Koalition mächtiger Spezialinteressen ermöglicht hat, nahezu alle Menschen weltweit davon zu überzeugen, dass CO2 aus der menschlichen Industrie ein gefährliches, den Planeten zerstörendes Gift sei. Es wird als der größte Massenwahn der Historie der Welt in die Annalen eingehen – dass CO2, die Lebensgrundlage der Pflanzen, eine ganze Weile für ein tödliches Gift gehalten wurde“.

Die politische Vergiftung der Wissenschaft andererseits gibt zu echten Sorgen Anlass.

Wir schulden der gegenwärtigen und zukünftigen Generationen viel erhabenere Standards.

Link: http://www.cfact.org/2018/04/30/feds-flawed-politicized-data-pollutes-science/

Übersetzt von Chris Frey EIKE




Wer ist Andol? Wikipedia hat ein nicht unerhebliches Aktivistenproblem

von Die kalte Sonne

Wir erleben derzeit eine aufregende Phase, in der sich die Klimawissenschaften rasant weiterentwickeln. Noch vor 5 Jahren stritten prominente Klimawissenschaftler den systematischen Einfluss der Ozeanzyklen auf die Temperaturentwicklung rigoros ab, erklärten Fritz Vahrenholt und Sebastian Lüning für verrückt, als sie dies in ihrem Buch “Die kalte Sonne” skizzierten. Heute gilt dies als gesichertes Wissen. Zahlreiche Papers haben den ozeanischen Klimapulsgeber ausführlich beleuchtet.

Da die Fachwelt die klimatische Wirkung der Ozeanzyklen jetzt eindeutig anerkennt, macht es Sinn, dies auch im Wikipedia-Profil von Fritz Vahrenholt zu ergänzen. Immerhin gehörte er zusammen mit Lüning zu den Pionieren, die diese Gedanken in die Klimadiskussion eingeführt haben. So dachte jedenfalls unser Leser Greenway21, der am 21. Januar 2018 in Vahrenholts Wikipedia-Profil folgenden Satz – belegt mit gleich drei beispielhaften Fachzitaten – einführte:

Der in Vahrenholts Buch beschriebene systematische Einfluss der Ozeanzyklen auf das Erdklima wurde in den Jahren nach der Buchveröffentlichung in zahlreichen Fachstudien prinzipiell bestätigt.[22] [23][24]

Bei den Zitaten handelt es sich um

22. Dan Seidov, Alexey Mishonov, James Reagan, Rost Parsons: Multidecadal variability and climate shift in the North Atlantic Ocean. In: Geophysical Research Letters. Band 44, Nr. 10, 2017.
23. FrançoisGervais: Anthropogenic CO2 warming challenged by 60-year cycle. In: Earth Science Reviews. Band 155, 2016.
24. Ka-Kit Tung, Jiansong Zhou: Using data to attribute episodes of warming and cooling in instrumental records

PNAS

Zudem aktualisierte Greenway21 dankenswerterweise auch den Stand zur Diskussion der Energiewende, die im Artikel irreführenderweise immer noch als unangefochten und allseits anerkannt dargestellt wurde, sowie die Fortschritte bei der Erforschung der Klimawirkung der Sonne. Die von Greenway21 ergänzte und aktualisierte Version können Sie hier einsehen. Oder klicken Sie in der kompletten Versionsgeschichte des Artikels auf Zeit und Datum (23:18 Uhr, 21. Januar 2018). Nochmals: Alle Ergänzungen und Änderungen waren ausführlich mit Quellen belegt, wie es Wikipedia vorsieht.

Bevor die Änderungen für alle Wikipedia-Leser sichtbar werden, muss ein “Sichter” die Änderungen abnicken. Um Sichter zu werden, muss man einige Voraussetzungen erfüllen, vor allem quantitative Aktivitätsnachweise. Da Greenway21 fachlich recht anspruchsvolle Ergänzungen beigesteuert hat und die Quellen erst überprüft werden müssen, war klar, dass eine seriöse Sichtung wohl einige Tage in Anspruch nehmen könnte. Das muss man in Kauf nehmen, wenn man an einer Online-Enzyklopädie mitarbeitet. Auch wissenschaftliche Publikationen erscheinen nicht von heute auf morgen, sondern benötigen mehrere Monate, bis sie veröffentlicht werden, wenn sie das aufwendige Begutachtungsverfahren bestanden haben.

Nun wird es gruselig. Im Fall von Greenway21 hat es lediglich 59 Minuten gedauert, bis alle Ergänzungsvorschläge in Gänze abgelehnt worden sind. Siebzehn Minuten nach der Geisterstunde (00:17 Uhr, 22.1.2018) hatte Benutzer ‘Andol’ bereits entschieden, dass alles abzulehnen sei. Angesichts der Schnelligkeit muss davon ausgegangen werden, dass keine detaillierte inhaltliche Prüfung stattgefunden hat. ‘Andol’ hatte offensichtlich andere Beweggründe, die Aktualisierung von Vahrenholts Artikel zu verhindern.

Abbildung 1: So sieht eine Versionsgeschichte eines Wikipedia-Artikels aus, diesem Fall von der deutschen Seite von Fritz Vahrenholt. Wenn man auf Zeit und Datum drückt, erscheint die Version, wie sie damals ausgesehen hätte, wenn alle Änderungen akzeptiert worden wären. In unserem Fall geht es um +5691 Zeichen (in grün), die ergänzt worden waren und 59 Minuten später (-5691, in rot) abgelehnt wurden.

 

Um wen handelt es sich bei ‘Andol’? Der Name scheint zunächst einem gängigen Schmerzmittel entlehnt zu sein. Vielleicht ein erstes Zeichen dafür, um was es dem Benutzer in Wirklichkeit geht, eine versteckte Nachricht? Ein Klick auf den Benutzernamen ‘Andol’ öffnet die persönliche Seite des Benutzers. Dort beschreibt er sich selbst wie folgt:

Hallo, ich bin Andol und treibe mich vor allem in den Bereichen Energieversorgung allgemein, Erneuerbare Energien und speziell Windenergie herum, zudem bin ich in den Bereichen Globale Erwärmung und Klimaskeptizismus tätig. Daneben schreibe ich auch gelegentlich in Bahnartikel oder zu allgemeinen geschichtlichen Themen und verfasse gerne biographische Artikel zu Wissenschaftlern oder Stubs über wissenschaftlichen Zeitschriften.

Ein Fan der Erneuerbaren Energien, offensichtlich ein grüner Aktivist, dem der Fortbestand des Klimakatastrophengedankens selbstredend sehr am Herzen liegen wird. Ein klassischer Interessenskonflikt. Alles, was nicht in Andols Aktivistenvorstellungen passt, wird minutenschnell abgeschmettert. Aktivisten als Torwächter einer ursprünglich als politisch ausgewogen gedachten Online-Enzyklopädie. Bitter.

Außerdem teilt uns Andol in seinem Profil mit, dass er gerne mit der Eisenbahn fährt (wer tut das nicht?) und (mittlerweile) ein abgeschlossenes Geschichtsstudium besitzt. Er ist also noch nicht einmal Naturwissenschaftler und erlaubt sich trotzdem, eilige redaktionelle Entscheidungen über komplexe klimawissenschaftliche Themen vorzunehmen. Ein absolutes Armutszeugnis für Wikipedia, das sich wirklich fragen sollte, wie es dazu kommen konnte. Sicher ist dies kein Einzelfall. Wenn man Andols Profil auf Wikipedia liest, muss man unweigerlich schmunzeln:

Wikipedia bereitet mir auch nach all den Jahren viel Freude, es gibt aber ein paar Dinge, die mir überhaupt nicht gefallen. Hierzu zählt insbesondere die Unsitte, ohne Kenntnis oder Nachprüfen der angegebenen Belege inhaltliche Änderungen am Text durchzuführen und damit durch pure Schlampigkeit den Autoren Aussagen zuzuschreiben, die sie oftmals gar nicht getätigt haben. Oder einfach zum bereits vorhandenen Beleg einen zweiten Beleg mit der gegenteiligen Aussage hinzuzufügen und dann im Fließtext die Aussage um 180 Grad verdrehen. Dann kann ich auch mal wütend werden. Generell kann man mit mir aber sehr gut auskommen.

Interessant ist auch die Begründung Andols, mit der er die Ergänzungen von Greenway21 und damit die neuen Erkenntnisse der Fachliteratur abwürgt:

Revert. So nicht. Massives Whitewashing und Umschreiben wider den klimatoligischen Konsens basierend auf Rosinenpicken u.ä..)

Andol ist ein Ewiggestriger. Anstatt sich ernsthaft mit den wissenschaftlichen Inhalten zu beschäftigen, vermutet er sofort ‘Whitewashing’ und eine Verletzung des vermeintlichen Klimakonsens. Angesichts dieser Einstellung sollten alle Klimainstitute sofort geschlossen werden. Denn es ist ja angeblich alles schon bekannt, nur noch unwichtige Belanglosigkeiten gäbe es zu klären. Andol unterliegt hier einem schwerwiegenden Irrtum, und der Wikipedia-Leitung ist dies offenbar gänzlich egal. Teilen sie vielleicht seine Einstellung? Gibt es bei den Torwächtern der Wikipedia-Klimaseiten überhaupt irgendeinen Naturwissenschaftler, der die Sache inhaltlich durchdringt? Momentan macht es den Eindruck, als wenn sich hier eine Greenpeace-, WWF-oder NABU-Jugendgruppe zusammengefunden hat, um die Grünfärbung der Wikipedia-Seiten sicherzustellen. Expertise: Keine. Zeit und Energie: Unendlich.

Mittlerweile wurde Andol wohl schon dreimal auf der Seite Vandalismusmeldung gemeldet. Es ist ein Wunder, dass ihm noch nicht die Sichterrechte entzogen wurden. Das könnte ein Administrator wohl einfach tun:

Jeder Administrator kann Benutzern manuell die Sichterrechte entziehen, insbesondere bei Missbrauch der (aktiven) Sichterrechte oder bei wiederholter missbräuchlicher Verwendung der Funktion „kommentarlos zurücksetzen“.

Weshalb bleiben die Administratoren untätig? Kann ausgeschlossen werden, dass der Admin des Bereiches nicht ebenfalls ideologisch festgelegt ist? Eine Liste der Administratoren findet man hier. Es gibt offenbar “nur” 181 davon. Nun sind Sie, liebe Leser, gefragt. Wie findet man eigentlich den Administrator, der sich mit dem Thema Klimawandel beschäftigt? Muss man alle 181 Einträge einzeln öffnen und durchschauen? Wie kontaktiert man einen Administrator, um mit ihm zu besprechen, wie ein seriöser und faktenorientierter Änderungsbetrieb wieder ermöglicht werden könnte? Vielleicht gibt es den einen oder anderen Leser, der hier den Durchblick hat und uns dabei helfen könnte. Bitte Infos via Kontaktformular. Danke!

Wikipedia ist ein faszinierendes Projekt, das wohl fast jeder von uns zu den unterschiedlichsten Themen regelmäßig konsultiert. Im Bereich des Klimawandels und vermutlich in anderen politisch sensiblen  Bereich versagt das gutgemeinte System, das auf Fairplay und Kooperation setzt. Einen Schutz vor hartnäckigen Aktivisten hat man offenbar nicht eingeplant. Hier sind wir alle gefragt, damit auch diese schwierigen und wichtigen Themen wieder ohne Einschränkungen nutzbar werden. Momentan ist der Bereich Klimawandel auf Wikipedia nur unter starkem Vorbehalt nutzbar. Das sollte auch den Leitern der Online-Enzyklopädie nicht vollkommen egal sein. Wir wollen gerne unseren Teil beisteuern.

Siehe auch unsere früheren Artikel zu Wikipedia:

Der Beitrag erschien zuerst bei „Die kalte Sonne“ hier




Fake-News und Tempera­turwerte 2017 in Rekordnähe

Diese Graphik ist in vielfacher Hinsicht irreführend hinsichtlich dessen, was sie versteckt, was sie enthält und was sie nicht zeigt. Folglich ist der New York Times-Artikel Fake News.

Ganz oben auf der Website von NASA GISS steht geschrieben, dass die Daten „…von aktuellen Datenreihen von NOAA GHCN v3 (meteorologische Stationen), ERSST v5 (Meeresgebiete) und SCAR (antarktische Stationen) stammen“.

Zunächst zu dem, was die Graphik enthält. Kip Hansen beschreibt bei WUWT, wie die Times die Daten manipuliert. Die Daten, am 17. Januar aktualisiert bis Dezember 2017, stehen in den Formaten text und csv zur Verfügung, und zwar auf der NASA GISS-Website im Menüpunkt „Tables of Global and Hemispheric Monthly Means and Zonal Annual Means“. In der Unter-Überschrift wird klar gesagt, dass die Daten „…abgeleitet sind aus den korrespondierenden Mittelwerten 1951 bis 1980“. Nirgendwo bei NASA GISS oder der NOAA-Website werden derartige Daten als Ableitungen aus den Daten des Zeitraumes 1880 bis 1899 präsentiert. Kip Hansen erklärt, warum das so ist, und warum die New York Times die Daten manipuliert hat:

Die NASA hat niemals eine Graphik der globalen Temperaturanomalie mit dem Referenz-Zeitraum 1880 bis 1899 erstellt – also zwei Dekaden, aus welchen die globale mittlere Temperatur und deren (fast imaginäre) Anomalie im besten Falle auf groben Schätzungen beruhen. Der normale NASA-Standard ist der Zeitraum 1951 bis 1980, der gewöhnliche Klima-Zeitraum über 30 Jahre. Die cleveren Schummel-Akrobaten bei der Times haben den Nullpunkt auf das Niveau des Zeitraumes 1880 bis 1899 abgesenkt, was zu einer „Anomalie“ von fast 1,2°C führt.

Offensichtlich schien den Wissenschaftlern am GISS die offiziell von der NASA angegebene Anomalie von „0,9°C wärmer als das Mittel des Zeitraumes 1951 bis 1980“ nicht genug „wärmer“ zu sein, so dass sie es für notwendig erachteten, den Wert aufzumotzen“.

Ed Straker (American Thinker AT, 19. Januar) erkannte sofort „Adjustierungen“ der NOAA-Rohdaten, welche eine Realität von einer geringen oder gar keiner Erwärmung verstecken seit 1890, ebenso wie Perioden mit Abkühlung einschließlich Ende der neunziger Jahre bis vor Kurzem. Die USHCN-Daten, aus welchen die folgende Graphik erstellt worden ist, stammen vom US Historical Climatology Network und quantifizieren „…Temperaturänderungen in den zusammen hängenden Gebieten der USA“, was bedeutet, dass Daten aus Alaska, Kanada und dem gesamten Rest der Welt einschließlich der Ozeane ausgeschlossen sind.

Außerdem ist die Prozentzahl „künstlich erzeugter“ Daten bei fehlenden Stationsdaten während der letzten Jahre gestiegen., wie aus einem Beitrag auf der Real Climate Science website von Tony Heller hervorgeht. Darin beginnt die Diskussion bei der sixth chart down. Der restliche Beitrag ist eine esoterische Diskussion über die Verteidigung seitens der NASA bzgl. der Verwendung solcher Daten. Der bedeutende Punkt ist, dass nur ein geringer Prozentanteil der Öffentlichkeit sich überhaupt dessen bewusst ist, dass die Daten adjustiert werden. Und wenn Adjustierungen mit einer solchen Größenordnung auf die [Daten aus den] kontinentalen USA übertragen werden, wie zuverlässig sind dann die Daten der übrigen Welt bei der Repräsentation der Temperatur? Dies ist nur eine von vielen Fragen, mit welchen sich ein Komitee des Kongresses einmal beschäftigen sollte.

Jährliche Daten selbst verstecken extrem wichtige Informationen. Die graphische Darstellung der monatlichen Daten von NASA GISS beispielsweise von 2013 bis Dezember 2017 enthüllen, dass das Jahr 2016 nur aus einem einzigen Grund ein rekord-warmes Jahr war, nämlich wegen einer sehr warmen Periode während der ersten vier Monate 2016 – ein Phänomen, welches Ende 2015 seinen Anfang nahm. Man beachte in der folgenden Graphik, dass die Temperaturanomalien der ersten vier Monate 2017 deutlich unter den ersten vier Monaten des Jahres 2016 lagen; dass die Juni-Anomalie unter denen der vier Jahre zuvor lag; und dass die Anomalien von August bis November unter jenen des Jahres 2016 lagen. Das heißt, neun der zwölf Monate des Jahres 2017 wiesen eine geringere Anomalie als im Jahr 2016 auf; ein Monat 2017 eine geringere als während der voran gegangenen vier Jahre; und ein Monat (September) eine geringere als während der drei Jahre 2013, 2014, 2016) zuvor. Nun könnte man argumentieren, dass die wahre „Anomalie“ dieser Daten die Abweichungen einiger weniger Monate mit hohen Temperaturen Ende 2015/Anfang 2016 sind, weisen doch Anomalien im Jahre 2017 den gleichen Abwärtstrend auf, der bereits Ende 2016 eingesetzt hat.

Tatsächlich stützt die graphische Darstellung alternativer Fakten, welche von Main Stream-Medien wie der New York Times [und mit Sicherheit auch der „Süddeutschen Zeitung“, Anm. d. Übers.] verschwiegen werden, eine solche näher liegende Schlussfolgerung. Die nächste Graphik zeigt monatliche Anomalien um die Referenzperiode 1951 bis 1980 von NASA GISS, aber nur von Januar 1998 bis Dezember 2017, also ein Zeitraum, von dem manch einer sagt, dass er einen Stillstand der globalen Erwärmung zeigte (z. B. Sheldon Walker am 17. Januar 2018); und andere sagen, dass die Erwärmung nach dem Jahr 2012 wieder eingesetzt habe. Während Walker ein akzeptables statistisches Verfahren anwendet, um eine Korrektur dessen zu erreichen, was als „Autokorrelation“ bekannt ist, ist dies unnötig, einen Stillstand zu folgern, falls man lediglich die „anomalen“ Daten von Dezember 2015 bis April 2016 eliminiert, über der roten Linie. Intuitiv scheinen die Anomalien der nachfolgenden Monate nur geringfügig außerhalb der Bandbreite der verbleibenden Werte zwischen Januar 1998 und November 2015 zu liegen – um das Mittel des Zeitraumes 1998 bis 2017.

Unabhängig von allem oben Gesagten sondern die New York Times, andere Main Stream-Medien und wirklich viele Klimawissenschaftler selbst widersprechende Daten aus bei ihrem Kreuzzug, die globale Erwärmung nachzuweisen. Die Temperaturen sind in großem Umfang erst seit 1880 aufgezeichnet, also seit dem Jahr, in dem der Datensatz von NASA GISS anfängt. Da die Daten der ersten Jahre dieses Zeitraumes als unzuverlässig eingeschätzt werden, zieht NASA GISS ein über den Zeitraum 1951 bis 1980 berechnetes Mittel heran als Grundlage für den Vergleich von Anomalien. Erwähnt wird auch der Mangel von Daten einiger Stationen in den kontinentalen USA, um die übrige Welt und einen bedeutenden Teil des Globus‘ nicht zu erwähnen, der überhaupt nicht abgedeckt ist, weil es dort keine Messstationen gibt. Außerdem sind die Daten aus120 Jahren mit zweifelhafter Zuverlässigkeit daher nicht ausreichend, um Schlussfolgerungen zu ziehen hinsichtlich geologischer Zeiträume von einer Größenordnung von tausenden Jahren.

Am 16. September 2017 wurden in einem AT-Artikel einige der oben genannten Dinge diskutiert, angefangen mit der Notwendigkeit, gegenwärtige Rekord-Temperaturen seit mindestens Anfang der Zivilisation zu zeigen. Das IPCC veröffentlichte im Jahr 1990 eine solche Graphik, in welcher die Temperaturen des 20. Jahrhunderts als unter denen der Mittelalterlichen Warmzeit liegend erschienen. Im IPCC-Bericht 2001 [AR 3] zeigte dagegen die derzeitigen Temperaturen nach Art eines „Hockeyschlägers“ als rekordhaft. Dies geht im Wesentlichen auf die Arbeit von Michael Mann und seiner Verwendung von Proxy-Daten zurück, was selbst höchst zweifelhaft zuverlässig ist, aber auch auf „Daten-Adjustierungen“ in der oben beschriebenen Art und Weise und im AT-Artikel aufgelistet.

Angesichts der Komplexität des Themas und der potentiellen Kosten der Politik diesbezüglich muss es weitere Anhörungen geben wie die, welche der Kongress-Abgeordnete Lamar Smith vom Committee on Science, Space, and Technology leitete. In jener Anhörung kamen Judith Curry, John Christy, Michael Mann und Richard Pielke zu Wort, alles Experten in dem Bereich. Die Einsetzung eines Untersuchungsausschusses ist ebenfalls ratsam.

———————————————–

Dale Leuck retired from over 38 years of research and forecasting for the U.S. Dept of Agriculture in September 2017, having completed his Ph.D. in Agricultural Economics at the University of Tennessee in 1979.  He has written some for “American Thinker”, a farm magazine, and to various senators and congressmen.

Link: https://wattsupwiththat.com/2018/01/21/fake-news-and-2017-near-record-temperatures/

Übersetzt von Chris Frey EIKE