1

,Versteckte‘ NOAA-Tempera­turdaten enthüllen, dass 6 der letzten 9 Monate in den USA zu kalt ausge­fallen waren – und die NOAA bekommt nicht einmal den Juni hin

Wenig bekannte Daten des hoch modernen Climate Reference Network der USA (welche es anscheinend niemals schaffen, Eingang in den monatlichen „Klimazustands“-Bericht der NOAA Eingang zu finden) zeigen, dass sechs der letzten neun Monate zu kalt ausgefallen waren, was in der folgenden Tabelle durch Fettdruck hervorgehoben ist:

Tabelle 1: mittlere Temperatur-Anomalie von Oktober 2018 bis Juni 2019 in den USA. Die ganze Datentabelle steht hier.

Man beachte die negative Abweichung für Juni 2019 mit -0,14°F.

Die direkt der National Climate Data-Page der NOAA entnommenen Daten zeigen nicht nur, dass es in längeren Zeiträumen im Jahre 2019 zu kalt gewesen war, sondern auch, dass das Mittel der Temperatur in den USA im Jahre 2019 niedriger liegt als im Jahre 2005, dem Beginn des Datensatzes:

Abbildung 1: Mittlere Temperatur-Anomalie von Januar 2005 bis Juni 2019. Quelle der Graphik hier.

Das U.S. Climate Reference Network (USCRN) wurde eingerichtet, um die genauesten Temperaturmessungen zu zeigen im Vergleich zum alten Cooperative Observer Network (COOP), welches durch den UHI, Probleme des Aufstellortes und eine Fülle von vom Menschen induzierten Inhomogenitäten wie Stationsverlagerungen, unvollständige Daten, aufgelöste Stationen sowie Bedingungen an Rollbahnen von Flughäfen beeinträchtigt worden waren, die niemals dafür gedacht waren, als Klimaaufzeichnungen herangezogen zu werden.

Der Report steht hier.

Die Leserschaft dieses Blogs kennt meine Arbeiten bzgl. dieser Probleme (hier), und als Folge davon gab es einen Report der GAO über Probleme des alten COOP-Netzwerkes. Man untersuchte einen Unter-Datensatz des größeren COOP-Netzwerkes (USHCN) und schrieb:

Der Übersicht der GAO von Wettervorhersage-Büros zufolge genügten 42% der aktiven Stationen im Jahre 2010 nicht einer oder mehreren Anforderungen der Standards bzgl. der Aufstellung. Unter Berücksichtigung der Erfordernisse des Betriebs der Stationen fand die GAO, dass die Büros allgemein, aber nicht immer, die erforderlichen Werkzeuge zur Hand hatten, um jährliche Inspektionen von Stationen durchzuführen und Stationsaufzeichnungen zu aktualisieren. NOAA-Funktionäre sagten GAO, dass jährliche Begutachtungen der Stationen sowie ständige Aktualisierungen der Aufzeichnungen notwendig sind einschließlich der Aufstell-Bedingungen, damit die NOAA und andere Nutzer der Daten die Bedingungen kennen, unter welchen die Daten aufgezeichnet wurden. Die NOAA-Mitarbeiter identifizierten eine Reihe von Herausforderungen, welche dazu beitrugen, dass einige Stationen nicht die Standards erfüllten, einschließlich der Verwendung von Messinstrumenten, die via eines Kabels mit einer Anzeige in irgendeinem Raum verbunden waren – wodurch sich die installierte Ausrüstung näher an einem Gebäude befinden kann als von den Standards vorgeschrieben.

Die NOAA verfolgt nicht, ob USHCN-Stationen den Standards der Aufstellung und der Erfordernis der Aktualisierung von Aufzeichnungen der Station genügen, und sie verfügt nicht über eine Abteilung, welche sich der Probleme nicht erfüllter Standards von Stationen annimmt. Leitlinien der Durchführung von Messungen schreiben aber entsprechende Informationen vor, um die Ergebnisse des Programms zu bewerten. Die Informationskanäle der NOAA jedoch sind nicht darauf ausgelegt zu verfolgen, ob die USHCN-Stationen den Standards bzgl. Aufstellung und Aktualisierung genügen. Ohne zentral verfügbare Informationen kann die NOAA einfach nicht angeben, wie sich die Stationen verhalten. – Quelle

Die Antwort der NOAA? Anstatt darauf einzugehen, wurde der Unter-Datensatz der COOP-Stationen im Jahre 2012 kurzerhand beendet. Auf seiner Klimadaten-Website sagt die NOAA jetzt:

Nationale monatliche Temperatur-Aktualisierungen des USHCN wurden ausgesetzt. Die offiziellen CONUS-Temperaturaufzeichnungen beruhen jetzt auf nClimDiv. Die USHCN-Daten von Januar 1895 bis August 2014 werden aber zu historischen Vergleichszwecken weiter gezeigt. – Quelle

Und dennoch, während das USHCN eingestellt wurde und dessen Daten nicht mehr in den monatlichen und jährlichen NOAA-Klimaberichten auftauchen, bestehen die im USHCN erkannten Probleme im größeren COOP-Netzwerk fort, von welchem viele tausend Stationen verbleiben:

Abbildung: Verteilung der Stationen im U.S. Cooperative Observer Network im CONUS. Stationen vom USHCN, Version 2, sind als rote Dreiecke gekennzeichnet. Quelle

Alles, was die NOAA gemacht hat war, die von uns benannten sichtbaren Symptome zu behandeln (indem man sie einfach entfernte). Die Wurzel des Übels packte man jedoch nicht an und verwendete weiterhin die Mehrzahl der Daten darin – Daten mit der gleichen Art von Problemen und Inhomogenitäten, die schon im USHCN-Unterdatensatz erkannt worden waren. Das USHCN bestand aus 1218 Stationen aus über 8700 COOP-Stationen, und jene verbleibenden Daten werden herangezogen, um den U.S. Climate Divisional Dataset zu berechnen, welcher dann wiederum als heutige „offizielle“ Temperatur-Mittelwerte verkauft wird. Im Grunde war alles, was sie taten, das Problem unter den Teppich zu kehren und dann zu tönen, dass man über Algorithmen verfüge, um schlechte Daten zu „fixieren“.

Inzwischen werden perfekt gute Daten ignoriert zugunsten „fixierter“ schlechter Daten. Die NOAA sagt Folgendes zum hochmodernen Climate Reference Network:

Die Absicht des USCRN-Programms ist es, ein Klimabeobachtungs-Netzwerk mit nachhaltig hoher Qualität zu erhalten, welches in 50 Jahren mit höchstem Vertrauensniveau die Frage beantworten kann: Wie hat sich das Klima der Nation während der letzten 50 Jahre geändert?

Diese Stationen wurden mit der Klimawissenschaft im Hinterkopf gestaltet. Drei unabhängige Messungen von Temperatur und Niederschlag werden an jeder Station durchgeführt, wobei die Kontinuität der Messungen sowie die Wartung gut kalibrierter und hoch genauer Messungen sichergestellt werden. Die Stationen werden in unberührten Umgebungen aufgestellt, in denen noch viele Jahrzehnte lang keine nennenswerten Entwicklungen zu erwarten sind. – Quelle

Die Daten aus der übrigen Welt, erfasst im Global Historical Climatology Network (GHCN) der NOAA besteht zum größten Teil aus der gleichen Art von Stationen mit gleich großen oder sogar noch größeren Problemen bzgl. der Daten (wegen des Fehlens einer konsistenten Qualitätskontrolle).

Unglücklicherweise scheint die NOAA zu glauben, dass es diese Daten des hochmodernen Climate Reference Network nicht wert sind, der Öffentlichkeit mitgeteilt zu werden. Eine Durchforstung der letzten 5 Jahre monatlicher und jährlicher „Klimazustands“-Berichte ergab, dass nicht ein einziges Mal diese Daten hoher Qualität erwähnt worden waren. Vielmehr zog man es vor, stattdessen die Daten des alten COOP-Netzwerkes zu zeigen, die jetzt die neue Verpackung als der U.S. Climate Divisional Dataset erhielt.

Tatsächlich behauptet der NOAA-Klimareport für Juni 2019, dass der Monat in den USA um 0,2°F zu warm war (hier), obwohl dem US Climate Reference Network die Juni-Daten diesen Monat als 0,14°F zu kühl auswiesen.

Wie sieht nun aber die korrekte Temperatur der USA für den Juni aus?

Auch im Mai 2019 gab es Unstimmigkeiten. Dem USCRN zufolge lag die Mitteltemperatur um 1,13°F unter dem vieljährigen Mittel.

Der „offizielle“ Klimareport der NOAA nannte eine nur halb so große Abweichung (hier)

Es sieht so aus, als ob sich die NOAA noch nicht einmal darauf einigen kann, wie die Temperatur in den USA auf monatlicher Basis aussieht. Man verwendet alte und unzuverlässige Daten, während man es ablehnt, die besten Daten zu verwenden, die sie haben. Warum?

Das ist eine schändliche Inkompetenz der Regierung, die einmal untersucht werden sollte.

Man fragt sich, ob schreiende Schlagzeilen wie „heißest jemals“ in diesem Monat überhaupt existieren würden, falls es auf der Welt eine globale Version des USCRN geben würde – mit regelmäßiger Datenkontrolle und Messungen weit entfernt von der vom Menschen induzierten Wärmeinsel über Städten.

Link: https://wattsupwiththat.com/2019/07/30/hidden-noaa-temperature-data-reveals-that-6-of-the-last-9-months-were-below-normal-in-the-usa-and-noaa-cant-even-get-june-right/

Übersetzt von Chris Frey EIKE




Überraschungen bzgl. globaler Erwärmung

1. Inkonsistenzen in den Temperaturaufzeichnungen.

2. Deren Erklärung als Artefakte als Folge von Missbrauch der Daten.

3. Das daraus sich ergebende Scheitern des IPCC, glaubwürdige Beweise für eine anthropogene globale Erwärmung zu finden.

Eine irreführende Graphik

In dem kultigen Bild der globalen Temperatur im 20. Jahrhundert (Abbildung 1 oben) kann man zwei Warmperioden ausmachen – während der initialen Dekaden (1910 bis 1942) und den letzten Dekaden (1977 bis 2000).

Abbildung 1: Temperatur im 20. Jahrhundert. Oben: global, unten: in den USA

Obwohl diese beiden Trends ähnlich aussehen, sind sie in Wirklichkeit ziemlich unterschiedlich: Die initiale Erwärmung ist echt, die zweite Erwärmung aber nicht. Was für eine Überraschung! Ich würde es noch nicht „fake“ nennen, aber sie existiert einfach nicht! Ich versuche nachzuweisen, dass dieser Unterschied ein Artefakt des Datensammel-Prozesses ist, indem die Datensätze mit vielen anderen Datensätzen unabhängig davon verglichen werden, welche ähnliche Zeitintervalle abdecken.

Die Temperaturreihe der 48 Festlands-US-Staaten zeigt einen viel geringeren Trend (Abbildung 1 unten), vermutlich weil es eine bessere Kontrolle der Platzierung von Wetterstationen und deren Thermometer gibt;

Der Trend der globalen Wassertemperatur (SST) ist viel geringer, wobei die Temperaturwerte des Jahres 1995 denen aus dem Jahr 1942 fast genau gleichen (jedenfalls Gouretski und Kennedy zufolge, deren Studie 2012 in den Geophysical Research Letters veröffentlicht worden ist);

Genauso ist es mit dem Trend der nächtlichen Lufttemperatur über Meeresgebieten (NMAT), gemessen mit Thermometern auch Schiffsdecks (Daten von J. Kennedy vom Hadley Centre in UK zufolge);

Atmosphärische Temperaturtrends sind einheitlich viel geringer und liegen nahe Null (von 1979 bis 1997) – egal ob mit Ballonen und Radiosonden oder mit Mikrowellen-Fernerkundung [microwave sounding units (MSU)] an Bord von Wettersatelliten (Siehe Abbildung 8 in Referenz 2);

Kompatible Daten zur Sonnenaktivität zeigen nichts Ungewöhnliches. (Interessanterweise wurden die Solardaten für einen ganz anderen Zweck zusammengestellt, nämlich um die Verbindung zwischen kosmischen Strahlen und Klimawandel zu widerlegen mit der Hypothese, dass die Erwärmung zum Ende des vorigen Jahrhunderts real war. Angesichts jedweden Fehlens einer solchen Erwärmung fällt dieser Versuch der Kritik an der Theorie der kosmischen Strahlen vs. Klima in sich zusammen).

Proxy-Daten zeigen ebenfalls Trends nahe Null, egal ob von Baumringen oder Eisbohrkernen, worauf bereits vor 20 Jahren hingewiesen worden war (siehe Abbildung 16 in Referenz 1 sowie die Abbildungen 2 und 3 in Referenz 2 – plus all jene Abbildungen, die Michael Mann zurückhält).

Betrachtet man sorgfältig die Mann’sche Originalstudie aus dem Jahr 1998 in Nature oder nachfolgende Ausgaben, erkennt man, dass seine Proxy-Temperaturen im Jahre 1979 plötzlich enden und durch von Thermometern gemessene Temperaturwerte von CRU-EAU ersetzt werden, also von der Climate Research Unit der East Anglia University. Dieser Austausch stützt nicht nur das Blattdes Mann’schen Hockeyschlägers, sondern erlaubte es auch dem IPCC zu behaupten, dass das 20. Jahrhundert das wärmste Jahrhundert der letzten 1000 Jahre gewesen sei, wobei es sogar noch wärmer ausgefallen war als die Mittelalterliche Warmzeit. In den Klimagate-E-Mails wurde dieses Vorgehen als „Mann’scher Nature-Trick“ bezeichnet. Ich kann nicht umhin, mich zu fragen, ob der Mann’sche Originalbeitrag der Proxydaten nach 1979 überhaupt noch eine Erwärmung zeigt. Vielleicht hat das etwas damit zu tun, dass Mann diese Daten geheim gehalten hat – könnten sie doch das Blatt zerschlagen und die IPCC-Behauptung ad absurdum führen.

Andererseits wird die erste Erwärmung (1910 bis 1940) von vielen Proxydaten gestützt – einschließlich Temperaturdaten aus Baumringen, Eisbohrkernen usw. Unglücklicherweise konnten wir keinerlei Daten aus der oberen Troposphäre auffinden. Allerdings wette ich, dass sie einen verstärkten Erwärmungstrend zeigen würden – einen Hot Spot.

Exkurs: Hotspot (HSp) und Hockeyschläger (Hst)

Der Begriff „Hotspot“ bezeichnet einen verstärkten Trend in der oberen Troposphäre über den Tropen (UT). Er kommt zustande durch latente Energie mittels Wasserdampf (WV) und ist der dominante Faktor, die UT aufzuheizen. Im IPCC-Bericht AR 2 (1996) hat Ben Santer den HSp fälschlich als den Fingerabdruck der Treibhaus-Erwärmung (GH) bezeichnet. Dies hat zu einem großen Durcheinander in der Literatur geführt, was wiederum die falsche Behauptung nährte, dass der HSp seine Existenz dem troposphärischen CO2 verdanke. Aber Lehrbüchern zufolge ist es nichts als eine Verstärkung jedweden Temperaturtrends mittels der Feuchtadiabate. Dies existierte sicher von 1910 bis 1942, aber uns fehlen die Daten zum Nachweis. Ein praktisches Fehlen des HSp von 1979 bis 1997 (siehe Abbildung 8 in Referenz 2) impliziert einen Trend nahe Null während jenes Intervalls. Diese Beobachtung widerlegt auch die AGW-Hypothese aus dem AR 2 (1996), welche zum Kyoto-Protokoll führte.

Die Konstruktion des Hockeyschlägers von Mann wurde zuvor schon erklärt.

Diese Vorstellung der Daten sollte Alarmisten und Klimaskeptiker gleichermaßen davon überzeugen, dass die globale Erwärmung zum Ende des 20. Jahrhunderts nicht existiert. Wir sollten allerdings anmerken, dass die IPCC-Berichte AR 4 und AR 5 sich jeweils auf diesen (nicht existierenden) Erwärmungstrend stützen mittels des Nachweises, dass dieser anthropogener Natur ist.

Erklärung des Klimatrend-Artefaktes

Jetzt werden wir uns mittels neuer verfügbarer Daten dem zuwenden, was den fiktiven Temperaturtrend in den letzten Jahrzehnten des 20. Jahrhunderts zustande gebracht hat:

Zuerst schauen wir auf die Ozean-Daten: Wie man Abbildung 2 entnehmen kann, gab es eine große Änderung in der Art und Weise der Messung der Wassertemperaturen (SST):

Abbildung 2: Quellen der SST-Daten: Man beachte die drastischen Änderungen zwischen den Jahren 1980 und 2000, als globale Bojen zunehmend die Eimer-Messungen auf Schiffen ersetzten – mit ebenfalls bedeutenden geographischen Änderungen.

Daten von Treibbojen nahmen von 1980 bis 2000 von Null auf 60% zu. Aber derartige Bojen werden direkt von der Sonne erwärmt, wie der Cartoon in Abbildung 3 zeigt: eine Treibboje in einer von der Sonne erwärmten oberen Schicht sowie nicht erwärmtes, in Schiffsmotoren einströmendes Kühlwasser aus tieferen Ozeanschichten. Diese Kombination ergibt einen unechten Anstieg der SST, wenn die Daten vermischt werden.

Abbildung 3: Der Cartoon zeigt eine Treibboje in der sonnenerwärmten Schicht und in Schiffsmotoren einströmendes Kühlwasser aus tieferen Schichten.

Bei der Zusammenführung von beiden müssen wir berücksichtigen, dass Bojendaten global ermittelt werden, während Eimermessungen und Messungen in einströmendem Kühlwasser hauptsächlich entlang der Hauptschifffahrtsrouten durchgeführt werden. Wir wissen auch nicht, aus welchen Tiefen das Wasser für die Eimermessungen stammt; das Einströmen ist abhängig vom Schiffstyp und der Menge der Ladung. Ein Entwirren dieses Durcheinanders erfordert Details bzgl. der Daten, die es einfach nicht gibt. Alles, was wir zeigen können, ist ein deutlicher Tagesgang bei den Bojen-Temperaturen.

Die Festlands-Daten haben ihre eigenen Probleme. Während der gleichen Dekaden gab es weitgehend unabhängig eine erhebliche Reduktion der „überflüssigen“ (zumeist) ländlichen Stationen (Abbildung 12 in Referenz 2) – es sei denn, sie lagen bei Flughäfen. Wie Abbildung 4 zeigt, nahm die Anzahl der Stationen in den neunziger Jahren drastisch ab:

Abbildung 4: Die Anzahl von Wetterstationen an Flughäfen (Abbildung 12 in Referenz 2; Quelle: NOAA-Daten) nahm weniger stark ab, was zu einem erheblichen Anstieg des Anteils von Flughafen-Stationen führte (grundlegenden NOAA-Daten zufolge).

Die Zunahme des Anteils von Flughafen-Stationen war gewaltig – von 35% auf 80% – was zu einer unechten Temperaturzunahme infolge der Nähe von Rollbahnen und Gebäuden führte. Das ist schwierig im Detail zu berechnen. Alles, was wir sagen können, ist eine allgemeine Zunahme des Luftverkehrs, etwa 5% pro Jahr weltweit (siehe Abbildung 19 in Referenz 1).

Allerdings haben wir MSU-Daten aus der unteren Atmosphäre sowohl von den Ozeanen als auch vom Festland. Sie zeigen kaum einen Unterschied. Daher ist die Annahme berechtigt, dass beide Daten in gleicher Weise zu dem fiktiven Trend der Jahre 1977 bis 1997 beitragen.

Das Fehlen eines solchen Erwärmungstrends macht alle Beweise des IPCC pro AGW obsolet. Beide IPCC-Berichte AR 4 und AR 5 berufen sich auf den Erwärmungstrend von 1979 bis 1997, um eine anthropogene globale Erwärmung zu zeigen.

Offensichtlich ist es doch so: falls es keinen Erwärmungstrend gibt, scheitern diese Bemühungen – ebenso wie die Beweise des IPCC pro AGW.

Striche

Ref 1: Singer,S.F. Hot Talk, Cold Science. Independent Institute, Oakland, CA, 1997 and 1999.

Ref 2: Singer,S.F. Nature, Not Human Activity, Rules the Climate. Heartland Inst, Chicago, 2008 http://climatechangereconsidered.org/wp-content/uploads/2016/12/Nature-Not-Human-Activity-Rules-the-Climate-2008.pdf

Link: https://wattsupwiththat.com/2017/05/11/dr-fred-singer-on-global-warming-surprises/

Übersetzt von Chris Frey EIKE