1

Die Fälscher-Fabrik der NASA: Das GISS fälscht die Daten schon wieder!

Aber jetzt ist diese Periode aus klimatischer Sicht zu einer Peinlichkeit für die Wissenschaftler geworden, welche die AGW-Theorie beschwören. Damals waren die CO2-Konzentrationen in der Atmosphäre viel niedriger, so dass es nach ihrer Theorie hätte kühler sein müssen als heute. War es aber nicht!

Aber anstatt die Rolle von CO2 bei der globalen Temperaturerhöhung in Frage zu stellen, hat die NASA GISS beschlossen, die historischen Daten einfach umzuschreiben, so dass sie zu ihrer Theorie passen. Das ist natürlich wissenschaftlicher Betrug.

Heute untersuchen wir die NASA-GISS-Daten für die Station Wellsboro in Pennsylvania. Zuerst schauen wir uns die „unbereinigten“ Jahresmitteltemperaturdaten der Version 4 an und vergleichen sie mit den neuen „homogenisierten“ Daten der Version 4:

Daten: NASA GISS

Oben sehen wir, wie sich NASA-Wissenschaftler einfach die alten Datensätze vorgenommen und sie einfach neu geschrieben haben, so dass die heißen Jahre des frühen 20. Jahrhunderts erheblich kälter daherkommen – um über zwei Grad in vielen Jahren.

Früher sah Wellsboro einen Abkühlungstrend. Aber jetzt, seit NASA-Wissenschaftler an den Daten herum manipuliert haben, ist der Trend so geschmiedet worden, dass er zur AGW-Theorie passt.

Als nächstes folgt ein Diagramm, in dem Version 3, die 1883 beginnt und 2019 endet, mit Version 4, die 1882 beginnt, verglichen wird:

Version 4 Daten: NASA GISS, Version 3 hier.

Die frühere Version 3 zeigte ebenfalls eine Abkühlung, bevor die NASA die Daten neu schrieb und sie vernichtete. Die aktuelle Version 4 zeigte eine Abkühlung, aber auch diese wurde manipuliert und zeigt nun eine starke Erwärmung.

Viele würden argumentieren, dass dies keine Wissenschaft ist, sondern glatter wissenschaftlicher Betrug in klassischer Orwell-Manier.

Link: https://notrickszone.com/2020/07/17/nasas-fudge-factory-goddard-institute-for-space-studies-fudges-the-data-again/

Übersetzt von Chris Frey EIKE




Temperaturdatenmanipulation von GISS (NASA) erneut nachgewiesen

Dass das zur NASA gehörende Goddard Institute for Space Sciences (GISS) die weltweiten Temperaturdaten ausschließlich in Richtung stärkerer Erwärmung manipuliert, ist seit langem bekannt. Doch selten konnten diese Manipulationen so eindeutig und vor allem so einprägsam und daher auch für Laien überzeugend gezeigt werden, wie in diesem Ausschnitt aus dem Recherche-Video „Schulbuch belegt Schwindel mit Globaler Erwärmung | AddOn #03“ von ‚Klima Manifest Heiligenroth‘ , bei YouTube am 09.06.2017 hochgeladen

Weitere Erläuterungen dazu auf der Website von Klimamanifest von Heiligenroth hier
Das Video in voller Länge gibt es hier

Video nicht mehr verfügbar

Videoausschnitt über die umfangreiche und andauernde direkte Daten-Manipulation weltweiter lokaler Temperaturdaten durch das Goddard Institute for Space Sciences (GISS) das zur US Raumfahrtbehörde NASA gehört.

Mit Dank an den Videokanal FMDsTVChannel

‚Klima Manifest Heiligenroth‘ schreibt dazu:

Dann zeigen wir mit Hilfe der sog. „WAYBACK-MACHINE„, dieser sehr interessanten ARCHIV-Webseite im Internet,  wie die globalen Temperaturdaten nahezu täglich von NASA-GISS manipuliert werden, denn auf der „WAYBACK-MACHINE“ werden auch die .txt-Dateien der globalen Temperaturdaten archiviert.


Wer die EXCEL-Tabelle haben möchte, mit der wir die im Video gezeigten Analyse mittels „bedingter Formatierung“ mit EXCEL durchgeführt haben, kann sich gerne bei uns per Mail melden.

EIKE hat bereits selber des öfteren ausführlich darüber berichtet. zB.

EIKE 9. IKEK: Prof. Ewert – Erderwärmung- Was wurde gemessen und wie wurde ausgewertet?

Manipulierte Temperatur-Daten? Erderwärmung – was wurde gemessen und wie wurde ausgewertet ?

Zwei Wissenschaftspublikationen der EIKE Autoren Lüdecke, Link und Ewert auf dem Blog der bekannten US Klimaprofessorin Judith Curry

Korrigiert wurde das bisher nicht, ebensowenig wie Gründe dafür angegeben wurden.

Das vollständige Recherche Video „Schulbuch belegt Schwindel mit Globaler Erwärmung | AddOn #03“ werden wir hier in Kürze vorstellen.




Mehr zum ein­schlägigen Artikel von David Rose: Insta­bilität im Global Historical Climate Network GHCN

Nachdem ich diese beiden Individuen kennen gelernt und ihren Zelotismus gesehen habe, überrascht mich kein einziger der Taschenspielertricks, die David Rose in seinem Artikel ans Tageslicht gebracht hat.

Die Gläubigen behaupteten, dass es keinen Unterschied gebe zwischen den Temperatur-Datensätzen der NOAA und von der HadCRUT, die im Rose-Artikel angesprochen worden waren, und sagen, dass die Differenz ein Grundlagen-Fehler ist. Sei’s drum, und vielleicht war es auch einfach ein Fehler der Graphik-Abteilung bei der Mail on Sunday – ich weiß es nicht.

Wenn man die Grundlinien der Anomalien übereinander legt, verschwindet die Differenz:

Abbildungen: Vergleich der monatlichen globalen Temperatur-Anomalien von HadCRUT4 und NOAA Ozean und Festland bezogen auf die allgemeine Basisperiode 1961 bis 1990. h/t The CarbonBrief

Aber … es gibt weitere ernste Probleme mit den globalen Klimadaten.

Was auch immer man denken mag, NOAA und HadCRUT sind nicht vollständig „unabhängig“. Beide verwenden Daten des GHCN, und das GHCN wurde betrieben von … Trommelwirbel! … Thomas Peterson von der NOAA, also von einem der Mitautoren der „Pausebuster“-Studie von Karl et al. 2015.

Der Fuchs bewacht den Hühnerstall, und wie man unten erkennt, sind die Daten ernstlich dubios.

Paul Matthews schreibt auf der Website CliScep:

Ziel dieses Beitrags ist es, eine der Beschwerden von Bates zu bestätigen. Im Mail-Artikel heißt es, dass „der für die Studie herangezogene Festlands-Temperaturdatensatz mit verheerenden Fehlern in dessen Software behaftet war, welche dessen Ergebnisse ,instabil‘ machten“. Weiter unten liest man: „Außerdem war auch die GHCN-Software von ernsten Fehlern befallen. Diese machten das Ganze so ,instabil‘, dass jedes Mal, wenn die Rohdaten der Temperatur im Computer berechnet wurden, unterschiedliche Ergebnisse herauskamen“.

Da hat Bates so ziemlich recht. Ich selbst habe die Instabilität des Algorithmus‘ der GHCN-Adjustierungen zum ersten Mal im Jahre 2012 entdeckt. Paul Homewood hat die Adjustierungen auf seinem Blog viele Jahre lang hinterfragt, besonders in Island, siehe Beispiele hier, hier, hier und hier. Oftmals wird die Vergangenheit durch diese Adjustierungen kälter, um die Erwärmung stärker aussehen zu lassen als es in den Rohdaten zum Ausdruck kommt. Als ich die Adjustierungen der Werte von Alice Springs in Australien betrachtete, bemerkte ich (siehe meinen Beitrag aus dem Jahr 2012), dass sich die Adjustierungen der Temperaturen in der Vergangenheit oftmals innerhalb nur weniger Wochen ziemlich dramatisch veränderten. Ich denke, dass auch Paul Homewood dies irgendwo auf seinem Blog kommentiert hat. Als wir diese Änderungen zum ersten Mal bemerkten, dachten wir, dass vielleicht der Algorithmus selbst verändert worden wäre. Aber es wurde bald klar, dass sich die Adjustierungen so oft änderten, dass dies nicht der Fall sein konnte, und es war der Algorithmus selbst, der instabil war. Mit anderen Worten, immer wenn dem System jede Woche neue Daten hinzugefügt wurden, wurde der Algorithmus erneut durchlaufen, und die sich daraus ergebenden Temperaturen der Vergangenheit waren jedes Mal ziemlich unterschiedlich.

Hier folgt eine von mir zu jener Zeit erstellte Graphik mit Daten, die von der GHCN ftp site heruntergeladen werden können. (die nicht adjustierten bzw. adjustierten Files sind ghcnm.tavg.latest.qcu.tar.gz bzw. ghcnm.tavg.latest.qca.tar.gz). Sie illustrieren die Instabilität des Adjustierungs-Algorithmus‘:

Die dunkelblaue Linie zeigt die Rohdaten-Temperaturaufzeichnung für Alice Springs. Die grüne Linie zeigt die adjustierten Daten, wie sie im Januar 2012 vom GHCN genannt worden sind. Man sieht, dass die Adjustierungen ziemlich gering sind. Die rote Linie zeigt die adjustierte Temperatur nach Durchlaufen des GHCN-Algorithmus‘, wie sie vom GHCN im März 2012 angegeben wurden. In diesem Falle sind die Temperaturen der Vergangenheit um 2 Grad abgekühlt worden. Im Mai erwärmte der Adjustierungs-Algorithmus die Temperaturen der Vergangenheit, so dass diese etwa 3 Grad höher lagen als die Temperaturen, die sie im März gezeigt hatten! Man beachte, dass alle Graphen am rechten Rand zusammenlaufen, da der Adjustierungs-Algorithmus in der Gegenwart beginnt und rückwärts läuft. Die Divergenz der Linien mit zunehmender Vergangenheit illustriert die Instabilität.

Es gibt einen Blogbeitrag von Peter O’Neill Wanderings of a Marseille January 1978 temperature, according to GHCN-M, in welchem die gleiche Instabilität des Algorithmus‘ gezeigt wird. Er betrachtet adjustierte Temperaturen von Marseille, welche die gleichen offensichtlich zufällig verteilten Sprünge zeigen, wenngleich die Amplitude der Instabilität etwas geringer ist als im Falle Alice Springs. Sein Beitrag zeigt auch, dass jüngere Versionen des GHCN-Codes das Problem nicht gelöst haben, gehen doch seine Graphiken bis zum Jahr 2016. Man findet auf seinem Blog viele ähnliche Beiträge.

Es gibt noch viel mehr zu sagen über die Temperatur-Adjustierungen, aber ich möchte mich in diesem Beitrag auf diesen einen Punkt beschränken. Der GHCN-Algorithmus ist instabil, wie von Bates festgestellt, und erzeugt praktisch bedeutungslose adjustierte Temperaturdaten der Vergangenheit. Die hier gezeigten Graphiken ebenso wie diejenigen von Peter O’Neill belegen dies. Kein ernsthafter Wissenschaftler sollte sich eines derartig instabilen Algorithmus‘ bedienen. Man beachte, dass diese unechten adjustierten Daten danach als Input verwendet werden für weithin gebräuchliche Datensätze wie etwa GISTEMP. Was sogar noch absurder ist: das GISS führt selbst noch weitere Adjustierungen der schon adjustierten GHCN-Daten durch. Es ist unfasslich, dass sich die Klimawissenschaftler bei GHCN und GISS dieses sehr ernsten Probleme bei ihren Verfahren nicht bewusst sind.

Zum Schluss habe ich noch die jüngsten Roh- und adjustierten Temperaturdaten vom GHCN heruntergeladen, bis zum 5. Februar 2017. Hier folgen die Plots für Alice Springs. Es gibt keinen Preis, wenn man richtig rät, welches die Rohdaten und welches die adjustierten Daten sind. Beim GISS gibt es eine sehr ähnliche Graphik.

Der ganze Beitrag dazu steht hier: https://cliscep.com/2017/02/06/instability-of-ghcn-adjustment-algorithm/

Link: https://wattsupwiththat.com/2017/02/07/more-on-the-bombshell-david-rose-article-instability-in-the-global-historical-climate-network/

Übersetzt von Chris Frey EIKE




Wegen der Pressekonferenz von GISS und NOAA über die globalen Oberflächentemperaturen 2016

EINFÜHRUNG

Die Ozeane decken etwa 70% der Erdoberfläche ab, doch Klimamodelle sind in den vergangenen drei Jahrzehnten weit davon entfernt, die Oberflächentemperaturen dieser Ozeane auf globalen, hemisphärischen und individuellen Ozeanbeckenbasen zu simulieren. In den vergangenen jährlichen Modelldatenvergleichen haben wir das multimodale Mittel aller im CMIP5-Archiv gespeicherten Klimamodelle verwendet, für diesen Beitrag jedoch nur den Mittelwert der Outputs der drei CMIP5-archivierten Klima-Modell-Simulationen des Goddard Institute of Space Studies (GISS) [NASA] mit dem Ozeanmodell „Russell“. In den vergangenen Modelldatenvergleichen nutzen wir den ursprünglichen satellitengestützten Reynolds OI.v2 Seeoberflächen-Temperatur-Datensatz. In diesen Fall verwenden wir jedoch die „Extended Reconstructed Sea Surface Temperature Version 4“ [Erweiterte Rekonstruierte Seeoberflächen Temperatur] (ERSST.v4) von NOAA [National Oceanic and Atmospheric Administration  – Wetter- und Ozeanografiebehörde der Vereinigten Staaten]

Warum sind die Modellierungen und Daten unterschiedlich?

Sowohl NASA GISS als auch die NOAA NCEI verwenden NOAA’s ERSST.v4 „Pause Buster“ [~Beseitigung der Erwärmungspause…] -Daten für die Ozean-Oberflächentemperaturkomponenten ihrer kombinierten Land-Ozean-Oberflächentemperatur-Datensätze und heute halten beide Agenturen eine multiaktive Pressekonferenz, um ihre „in 2016 jemals Wärmsten überhaupt“ globalen Oberflächentemperaturentdeckungen. (Pressekonferenz startet um 11 Uhr Eastern – in deutschen Medien wurde davon berichtet) Und wir nutzen die GISS-Klimamodell-Outputs, weil GISS Teil dieser Pressekonferenz ist und ich vermute, dass GISS nicht aufzeigen wird, wie sehr daneben ihre Klimamodelle diese kritische globale Erwärmung simulieren.

 

Einführende Information

Der Meeresoberflächentemperatur-Datensatz, der in diesem Beitrag verwendet wird, ist das erweiterte Rekonstruierte Sea Surface Temperature-Datenblatt der NOAA, Version 4 (ERSST.v4), a.k.a. ihre „Pause-Buster“ -Daten. Wie oben erwähnt, bilden die ERSST.v4 Daten den Ozeananteil der NOAA und GISS globalen Land + Ozean Oberflächentemperatur. Die in diesem Beitrag präsentierten Daten stammen vom KNMI Climate Explorer, [Holländischer Think Tank] wo sie bei den „Monatsbeobachtungen“ unter der Überschrift „SST“ zu finden sind.

Die präsentierten GISS Klimamodelle sind diejenigen, die im Coupled Model Intercomparison Project, Phase 5 (CMIP5) Archiv gespeichert sind. Sie sind eine der jüngsten Generationen von Klimamodellen von GISS und wurden vom IPCC für ihren 5. Evaluierungsbericht (AR5) verwendet. Die GISS-Klimamodelle von Meeresoberflächentemperaturen sind über den KNMI Climate Explorer verfügbar und zwar über ihre monatliche CMIP5-Szenario-Webseite unter der Überschrift Ocean, ice und upper air variables. Die Meeresoberflächentemperatur wird als „TOS“ (Temperatur-Ocean-Surface ; – Meeresoberfläche) bezeichnet. Ich präsentiere den GISS-E2-R p1, GISS-E2-R p2 und GISS-E2-R p3, wobei das „R“ für Russell Ozean steht. (Ich präsentiere die GISS Modelle mit HYCOM Ozean Modell in einem bevorstehenden Post.) Die Historic / RCP8.5 Szenarien werden verwendet. Das RCP8.5-Szenario ist das Worst-Case-Szenario, das der IPCC für seinen 5. Evaluierungsbericht verwendet. Und wieder verwenden wir das Modellmittel, weil es die erzwungene Komponente der Klimamodelle darstellt; Das heißt, wenn die von den Klimamodellen verwendeten Forcierungen die Oberflächen der Ozeane zum Erwärmen veranlassten, stellt das Modell am besten dar, wie sich die Ozeanoberflächen durch diese Forcings erwärmen würden. Eine weitere Diskussion finden Sie im Beitrag über die Verwendung des Multi-Modells, das ein Zitat von Dr. Gavin Schmidt von GISS zu dem Modellmittel enthält.

Die Modell-Daten-Vergleiche sind absolut, keine Anomalien, so dass jährliche Daten präsentiert werden. Und die Modelle und Daten reichen zurück in der Zeit für die letzten 30 Jahre, 1987 bis 2016.

Die linearen Trends in den Grafiken sind berechnet mit EXCEL.

 

WARUM ABSOLUTE MEERES OBERFLÄCHENTEMPERATUREN ANSTATT VON ANOMALIEN?

Die Klima-Wissenschaftsgemeinde neigt dazu, ihre Modell-Daten-Vergleiche mit Temperatur-Anomalien [Abweichungen] und nicht in absoluten Temperaturen zu präsentieren. Warum?

Wie Dr. Gavin Schmidt von GISS erklärt: „… keine bestimmte absolute globale Temperatur stellt ein Risiko für die Gesellschaft dar, es ist die Veränderung der Temperatur im Vergleich zu dem, was wir bisher gewöhnt waren“. (Siehe: den interessanten Post bei RealClimate über modellierte absolute globale Oberflächentemperaturen.)

Aber wie Sie entdecken werden, sind die GISS Klimamodellsimulationen der Meeresoberflächentemperaturen zu warm. Betrachten wir nun, dass die Ozeanoberflächen die primären Quellen von atmosphärischem Wasserdampf sind, dem am meisten verbreiteten natürlichen Treibhausgas. Wenn die Modelle die Beziehung zwischen Meeresoberflächentemperaturen und atmosphärischem Wasserdampf richtig simulieren, haben die Modelle zu viel Wasserdampf (natürliches Treibhausgas) in ihren Atmosphären. Das kann helfen, zu erklären, warum die GISS-Modelle zu viel Erwärmung in den letzten 3 Jahrzehnten simulieren.

WARUM DIE VERGANGENEN DREI DEKADEN?

Die klassische Definition des Klimas durch die Weltmeteorologische Organisation (WMO) ist das gemittelte Wetter über einen Zeitraum von 30 Jahren. Auf der Homepage der WMO: Häufig gefragt:

Was ist das Klima?

Das Klima, das manchmal als das „durchschnittliche Wetter“ verstanden wird, ist definiert als die Messung des Mittelwerts und der Variabilität der relevanten Größen bestimmter Variablen (wie Temperatur, Niederschlag oder Wind) über einen Zeitraum von Monaten bis zu Tausenden oder Millionen Jahre. Die klassische Periode ist 30 Jahre, wie von der WMO definiert. Das Klima im weiteren Sinne (is the state)] [m.e. gemeint: die jeweilige Klimazone, der Übersetzer], einschließlich einer statistischen Beschreibung des Klimasystems.

Durch die Präsentation von Modellen und Daten für die letzten 3 Jahrzehnte, kann niemand behaupten, ich habe den Zeitrahmen „cherry-picked“. Wir vergleichen Modelle und Daten über die jüngste klimarelevante Periode.

HINWEIS ZU DEN ABSOLUTEN WERTEN DER NOAA ERSST.v4 DATEN

Die Revisionen der NOAA-Langzeit-Oberflächentemperatur-Datensätze wurden in Karl et al. (2015) Ausarbeitung veröffentlich: Mögliche Artefakte von Daten-Bias in der jüngsten globalen Oberfläche Erwärmungspause. Dort stellten Tom Karl und andere fest:

Erstens haben mehrere Studien die Unterschiede zwischen boje- und schiffbasierten Daten untersucht, wobei festgestellt wurde, dass die Schiffsdaten systematisch wärmer sind als die Bojendaten (15-17). Dies ist besonders wichtig, da ein Großteil der Meeresoberfläche nun von beiden Beobachtungssystemen erfasst wird und oberflächentreibende und verankerte Bojen die globale Abdeckung um bis zu 15% (Ergänzungsdaten) erhöht haben. Diese Änderungen führten zu einem zeitabhängigen Bias im globalen SST-Datensatz und verschiedene Korrekturen wurden entwickelt, um die Vorausrichtung (18) zu berücksichtigen. Vor kurzem wurde eine neue Korrektur (13) entwickelt und im ERSST Datensatz Version 4, den wir in unserer Analyse verwendet haben, angewendet. Im Wesentlichen beinhaltet die Bias-Korrektur die Berechnung der durchschnittlichen Differenz zwischen den kollokierten Bojen und Schiff SSTs [~nebeneinanderliegenden Datensätze]. Die durchschnittliche Differenz war -0,12 ° C, eine Korrektur, die auf die Bojen-SSTs in jeder Rasterzelle in ERSST Version 4 angewendet wird.

Für Modell-Daten-Vergleiche, bei denen Anomalien präsentiert werden, ist die Verlagerung [~Anpassung] der genaueren boje basierten Daten um 0,12°C auf die schiffsbasierten Daten gleichgültig. Diese Vereinfachung war eine Frage der Bequemlichkeit für NOAA, da es für mehr Jahre Schiffsdaten als bojen basierte Daten gibt. Allerdings, wenn Modelle und Daten auf einer absoluten Basis verglichen werden, verschieben die genaueren bojen basierten Daten die Schiff-basierten Daten um 0,12 °C und machen daher einen Unterschied beim Vergleich. Da die Modell-simulierten Oberflächentemperaturen weltweit zu warm sind, hilft diese Verknüpfung, die Daten besser an die Modelle anzupassen. Und das klingt typisch für die Klimawissenschaft bei der NOAA.

Mit anderen Worten, die Unterschiede zwischen Modellen und Daten sind wahrscheinlich größer als in allen Beispielen in diesem Beitrag gezeigt, wobei die modellierten Meeresoberflächentemperaturen wärmer als beobachtet sind … und umgekehrt, wenn die Modelle zu cool sind.

Genug der Einführung …

GLOBALE ZEITREIHE

Abbildung 1 zeigt zwei Modelldatenvergleiche für globale Meeresoberflächentemperaturen, nicht Anomalien, für die letzten 30 Jahre. Ich habe einen Vergleich für die globalen Ozeane (90S-90N) in der oberen Grafik und einen Vergleich für die globalen Ozeane, mit Ausnahme der polaren Ozeane (60S-60N), in der unteren Grafik. Ein Ausschluss der polaren Ozeane scheint keinen signifikanten Unterschied zu machen. Es ist offensichtlich, dass globale Meeresoberflächen, die durch das GISS-Klimamodell simuliert wurden, wärmer waren als beobachtet und dass die GISS-Modell-Erwärmungsrate in den letzten 3 Jahrzehnten zu hoch war. Der Unterschied zwischen modellierten und beobachteten Erwärmungsraten liegt bei etwa 0,07 bis 0,08 °C / Jahrzehnt, mehr als 60% höher als die beobachtete Geschwindigkeit. Und in beiden Fällen ist die von den GISS-Modellen simulierte 30-jährige durchschnittliche Meeresoberflächentemperatur um etwa 0,6 °C zu hoch.

 

Abbildung 1 – Globale Ozeane

 

ZEITREIHE – TROPISCHE UND EXTRATROPISCHE MEERESOBERFLÄCHEN TEMPERATUREN

Im Juni 2013 präsentierte Roy Spencer Modell-Daten Vergleiche der Erwärmung der tropischen Mittel-Troposphäre, vorbereitet von John Christy. Siehe Roy’s Beiträge EPIC FAIL: 73 Klimamodelle vs. Beobachtungen für tropische troposphärische Temperaturen und STILL Epic Fail: 73 Klimamodelle vs Messungen, 5-Jahres-Mittel. Die Modelle haben die Erwärmungsraten der Mittel-Troposphäre in den Tropen stark überschätzt. Ich dachte, es wäre sinnvoll, da die tropischen Ozeane (24S-24N) 76% der Tropen und etwa 46% der Weltmeere abdecken, um zu bestätigen, dass die Modelle auch die Erwärmung der Meeresoberflächentemperaturen der tropischen Ozeane stark überschätzen .

Es sollte nicht überraschen, dass die Modelle in den vergangenen 30 Jahren die Erwärmung der Meeresoberflächentemperaturen der tropischen Ozeane überschätzten. Siehe Abbildung 2. Tatsächlich überschätzen die Modelle die Erwärmung mit einer großen Bandbreite. Die Daten zeigen die Meeresoberflächentemperaturen der tropischen Ozeane an, die mit einer nicht sehr alarmierenden Rate von 0,11° C / Jahrzehnt erwärmt wurden, während die Modelle zeigen, dass, wenn die Oberflächen der tropischen Ozeane durch menschliche Treibhausgase erwärmt würden, sollten sich auf fast das zweifache dieser Rate mit 0,22 °C / Jahrzehnt erwärmen. Für 46% der Oberfläche der globalen Ozeane (ca. 33% der Oberfläche des Planeten) verdoppelten die Modelle die beobachtete Erwärmungsrate.

Abbildung 2 – Tropische Ozeane

Und natürlich sind für die tropischen Ozeane die Modell-simulierten Meeresoberflächentemperaturen um etwa 0,9 ° C zu warm.

Für die außertropischen Ozeane der südlichen Hemisphäre (90S-24S), Abbildung 3, ist die beobachtete Erwärmungsrate ebenfalls extrem niedrig bei 0,06 °C / Jahrzehnt. Andererseits deuten die Klimamodelle darauf hin, dass die Ozeane sich mit einer Rate von 0,14 °C / Jahrzehnt erwärmt hätten, wenn menschliche Treibhausgase für die Erwärmung der Meeresoberflächentemperaturen in dieser Region verantwortlich wären, was die beobachtete Tendenz mehr als verdoppeln würde. Die außertropischen Ozeane der südlichen Hemisphäre decken etwa 33% der Oberfläche der globalen Ozeane (ca. 23% der Oberfläche des Planeten) und die Modelle verdoppeln die Geschwindigkeit der Erwärmung.

Abbildung 3 – Extratropische südliche Hemisphäre

Die Modelle sind in den außertropischen Ozeanen der südlichen Hemisphäre zu warm, um etwa 0,6 ° C.

Und die Klimamodelle scheinen die Erwärmungsrate der Meeresoberflächentemperaturen genau für den kleinsten Teil der globalen Ozeane, der extratropischen Nordhalbkugel (24N-90N) zu treffen. Siehe Abbildung 4. Die außertropischen Ozeane der Nordhalbkugel bedecken nur etwa 21% der Oberfläche der globalen Ozeane (ca. 15% der Erdoberfläche).

Abbildung 4 – Extratropische Nordhemisphäre

Seltsamerweise sind die modell-simulierten Oberflächentemperaturen in den außertropischen Ozeanen der nördlichen Hemisphäre zu kühl. Das wird bei den Simulationen von Meereis nicht helfen.

ZEITREIHE – OZEAN BECKEN

Die Abbildungen 5 bis 11 zeigen Vergleiche von modellierten und beobachteten Meeresoberflächentemperaturen für die einzelnen Ozeanbecken … ohne Kommentar. Ich würde die Vergleiche der arktischen und südlichen Ozeane (Figuren 10 und 11) mit etwas Skepsis betrachten … weil die Modelle und Daten das Meereis unterschiedlich rechnen.

Abbildung 5 – Nord Atlantik

# # #

Abbildung 6 – Süd Atlantik

# # #

Abbildung 7 – Nord Pazifik

# # #

Abbildung 8 – Süd Pazifik

# # #

Abbildung 9 – Indischer Ozean

# # #

Abbildung 10 – Arktis

# # #

Abbildung 11 – Südlicher Ozean

 

Schlusssatz

Es wäre schön zu wissen, welchen Planeten die Klimamodelle von GISS simulieren. Es ist sicher nicht die Erde.

Wir leben auf einem mit Ozean bedeckten Planeten, doch irgendwie scheinen das Wann, das Wo und die Ausdehnung der Erwärmung der Oberflächen unserer Ozeane, den Klimamodellierern bei GISS entgangen zu sein. In diesem Beitrag haben wir für die vergangenen drei Jahrzehnte Meeroberflächentemperaturen und keine Anomalien vorgestellt und dies hat auch auf andere Klimamodellversagen hingewiesen, die darauf hindeuten, dass Simulationen der grundlegenden Ozeanzirkulationsprozesse in den Modellen fehlerhaft sind.

Je nach Ozeanbecken gibt es große Unterschiede zwischen den modellierten und beobachteten Oberflächentemperaturen. Die tatsächlichen Meeresoberflächen-temperaturen bestimmen zusammen mit zahlreichen anderen Faktoren, wieviel Feuchtigkeit von den Ozeanoberflächen verdampft wird und wie viel Feuchtigkeit in der Atmosphäre vorhanden ist … was die vorhandene Feuchtigkeit (1) für die Niederschlagsbelastung (2) beeinflusst ), für den wasserdampfbedingten Treibhauseffekt und (3) für die negativen Rückkopplungen aus der Wolkendecke. Mit anderen Worten, die fehlerhafte Simulation der Meeresoberflächentemperaturen beeinflusst die atmosphärische Komponente der tödlich fehlerhaften gekoppelten Ozeanatmosphärenmodelle von GISS.

Erschienen auf WUWT am 18.01.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/01/18/because-of-the-giss-and-noaa-press-conference-about-2016-global-surface-temperatures/




NASA Klima (GISS) Institut findet heraus: Flughäfen werden deutlich wärmer als der Rest der Welt.

Wie im vorherigen Beitrag bemerkt, hat das GISS seine monatliche globale Temperaturzusammenfassung für den Juni 2009 veröffentlicht. Die kolossale Anomalie dieses Monats von 0.63C ist einmal mehr viel höher als die von RSS, UAH, und sogar NOAA, der Quelle der GISS-Temperatur Daten. Nicht nur ist die Anomalie höher als die andere Quellen, sondern sie verläuft entgegengesetzt.

Temperaturdaten von 1079 Stationen trugen weltweit zur Analyse bei, 134 davon in den 50 amerikanischen Staaten angesiedelt. Daten von im Grunde den gleichen wenigen Stationen sind für die vergangenen vierundzwanzig Monate benutzt worden. Viele, viele Hunderte von Stationen, die historisch in die Aufzeichnung einbezogen worden sind, und immer noch Daten sammeln, werden heute weiterhin von GISS bei den globalen Temperaturberechnungen ignoriert.

Und wieder kommt der Großteil der  Temperaturen, der den heutigen weltweiten GISS-Durchschnitt umfaßt, von Flughäfen. In diesem Fall von 554 Flughäfen, laut den NOAA Daten von der V2-Station Bestandsliste. In den U.S. steigt das Verhältnis von Flughäfen zu Stationen insgesamt weiter stark an, mit 121 Flughafen-Stationen von den 134 berichtenden US Stationen.

Wareum müssen wir uns um die Flughafenstationen kümmern? Neben den jüngsten Posts auf der Seite von WWUT, welche die Probleme mit Flughafen-ASOS-Ausrüstung in den U.S. dokumentieren, hat WUWT auch eine Anzahl von Stationen dokumentiert, die problematisch gelegen sind. Besonders auffallend ist die Nähe der Stationen zu beheizten Pisten. Flughäfen können eine Mini-WI (Wäreminseleffekt) Wirkung dort ausüben, wo man sie ansonsten nicht erwartet.

Der NOAA Daten sind nicht völlig aussagekräftig, und mehrere bei Flughäfen gefundene Stationen werden nicht als solche bezeichnet. Einige Beispiele: Londrina und Brasilia in Brasilien, Ely / Yelland in Nevada und Broome in Austrailia. Jene Stationen waren leicht zu finden, weil sie im Stationsnamen den Begriff "Flughafen" oder ähnliches hatten. Ein Scheck der Koordinaten bei Google Earth bestätigte die Flughafenlagen.

Untersuchen wir die Daten über die Stationen etwas näher, sollen wir?

NOAA sagt, dass 345 der Stationen, die sie an GISS weitergeben, ländlich sind, und daher vermutlich frei von UHI-Einfluss. Fünfzehn dieser Stationen befinden sich in den U.S. Aber nur 201 dieser ländlichen Stationen befinden sich nicht bei einem Flughafen, und deshalb vermutlich frei von UHI-Wirkungen (einschließlich Pistenheizung). In den U.S. wird nur eine der fünfzehn Stationen als ländlich und gleichzeitig  nicht bei einem Flughafen gelegen, genannt: Ely / Yelland in Nevada.

So so!!! Wie oben gesagt, liegt diese Station bei einem Flughafen – das bestätigte nicht nur Google Earth, sondern auch die NOAA NCDC-Webseite! Dies bedeutet, dass all die amerikanischen Temperaturen – einschließlich Alaska und Hawaii. – entweder von einem Flughafen (der Großteil der Daten) oder einer städtischen Lage stammt.

Wie für der Rest der Welt wird bei einigen, der als ländlich und nicht bei einem Flughafen liegend angegebenen Stationen, in der Beschreibung vermerkt, dass sie in einem Gebiet mit „gedämpfter“ oder "heller" Beleuchtung liegen. Wenn wir diese herausnehmen, bleibt eine Gesamtsumme von nur 128 Stationen, die ländlich sind, nicht bei einem Flughafen liegen, und "dunkel" sind.

Warum ist "dunkel" so wichtig? Erinnern Sie sich, dass GISS dunkle Stationen verwendet, um den WI-Effekt der städtischen Stationen zu justieren. Bei nur 128 dunklen Stationen, keine davon in den U.S., scheint dies eine unmögliche Aufgabe zu sein.

Glücklicherweise erlauben es die GISS-Justierungs-Regeln, alte Daten zum Justieren von neuen Daten zu verwenden. Die Älteren "nicht-meldenden“ ländlichen Wetterstationen dienen weiter dazu, städtische Stationen zu justieren, obwohl die letzten zwei Jahre Überschneidung fehlen.

Zum Glück sind die Algorithmen robust genug, um Justierungen im Bereich von 100´stel Graden zu berechnen, selbst wenn Daten fehlen.

John Goetz im Juli 2009 den Originalartikel finden Sie hier

Die Übersetzung besorgte CS.

Weiterführende Links: http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/




Fehler in den Metadaten: 230 Landstationen des GHCN liegen tatsächlich im Wasser

Die nebenstehende Karte von Google zeigt nur eine der 230 Stationen des GHCN, die sich im Wasser befindet. Nachdem sich dieses Phänomen überall in immer mehr Beispielen zeigte, schien es einfach zu sein, alle diese Fehler im GHCN aufzuspüren und zu analysieren. Dies ist aus zwei Gründen interessant:

1.    In meinem Analyseprogramm habe ich eine Land-Wasser-Maske benutzt, um die Temperatur im Wasser und in Landgebieten zu trennen und zu wichten. Landgebiete im Wasser sind natürlich gleich Null!

2.   Hansen nutzte 2010 Nachtlichter zur Lokalisierung der Stationen, und in den meisten Fällen sind die Lichter an der Küste heller als draußen auf dem Wasser. Obwohl ich schon „Meeresleuchten“ glänzen gesehen habe, wie es durch den Seegang manchmal vorkommt.

Das Auffinden “nasser Stationen” ist im Rasterpaket von R. [?] trivial. Alles, was man braucht, ist eine hoch aufgelöste Karte der Verteilung von Land und Wasser. In meiner vorigen Studie habe ich eine Rasterkarte im Abstand von ¼ Grad verwendet. ¼ Grad sind am Äquator etwa 25 km. Dann fand ich eine Rasterkarte mit einem Abstand von 1 km, wie sie von Satelliten benutzt wird. Diese Daten finden sich in einer einzigen codierten Zeile, und dann ist es einfach herauszufinden, welche Stationen „nass“ sind.

Beispielhafte Abbildung aus Steve Moshers CA Beitrag zur Beurteilung von "City Light" Einfluss. Dazu schreibt die NASA: This image shows levels of light pollution across the globe. The brightest areas of the Earth are the most urbanized, but not necessarily the most populated—for example, compare western Europe with China and India.

Da das NCDC das GHCN-V3-Netz gerade überholt, habe ich sie auf das Problem aufmerksam gemacht und werde ihnen natürlich auch den Code zur Verfügung stellen. Ich muss noch an NASA GISS schreiben. Da der Bericht von Hansen 2010 bereits im Veröffentlichungsverfahren steckt, bin ich unsicher, wie man jetzt richtigerweise weiter vorgeht.

Sich die 230 Fälle anzuschauen ist nicht schwierig. Man braucht lediglich Zeit. Man kann viele verschiedenen Typen dieser Fälle identifizieren: Atolle, Inseln und Küstenstriche. Es ist auch möglich, einige korrekte Positionen mit Hilfe der WMO-Angaben oder aus anderen Quellen anzugeben, die eine noch größere Genauigkeit aufweisen als das GHCN oder GISS. Man kann auch feststellen, dass die „Fehlposition“ auf die Nachtlichter keinen Einfluss hat. Es gibt Fälle, in denen man innerhalb des ½-Grad-Netzes, das ich zeige, überhaupt keine Lichter findet. In den Google-Karten [siehe Bemerkung am Ende] zeige ich Muster aller 230 Stationen. Das Kreuzchen zeigt die Position der GHCN-Station und die Linien zeigen das Helligkeitsraster der Nachtlichter. An stockdunklen Orten sind keine Linien eingezeichnet.

Ich werde dies auch mit einer neueren Version der Nachtlichter aktualisieren. Eine „Fahrt“ mit Google ist für alle verfügbar, die das wollen. Der Code ist trivial, und ich kann es interessant darstellen. Mit Ausnahme der graphischen Darstellung ist es nicht schwieriger als:

Ghcn<-readV2Inv() # im Verzeichnis

lonLat <- data.frame(Ghcn$Lon,Ghcn$Lat)

Nlight <- raster(hiResNightlights)

extent(Nlight)<-c(-180,180,-90,90) #Feststellen der Fehler in den Metadaten der Nachtlichter

Ghcn<-cbind(Ghcn,Lights=extract(Nlight,lonLat)) # Herausfiltern der Lichter durch “Punkte”

distCoast <-raster(coastDistanceFile,varname=”dst”) # um die spezielle Landkarte zu erhalten

Ghcn <- cbind(Ghcn,CoastDistance=extract(distCoast,lonLat))

# für diese Vorlage sind die Punkte im Wasser nach ihrer Entfernung vom Land codiert. Alle Pixel an Land sind O

# Untersuchung nur der Landstationen, die im Wasser auftauchen.

wetBulb <- Ghcn[which(Ghcn$CoastDistance>0),]

writeKml(wetBulb,outfile=”wetBulb”,tourname=”Wetstations”)

Hier sind einige Schnappschüsse aus der Galerie [siehe Bemerkung unten!]. Das Land-Wasser-Raster mit 1 km ist sehr genau. Man könnte eine oder zwei Stationen an Land finden. Die Bestimmung mit Nachtlichtern ist weniger genau, was Hansen 2010 nicht beachtet. Diese Pixel können 1 km von der tatsächlichen Position entfernt sein. Die kleine Sammlung von Beispielen zeigt die verschiedenen Möglichkeiten. Es wird kein Versuch unternommen, um festzustellen, ob die Stationen Land- oder Stadtverhältnissen entsprechen. Wie es aussieht, müssen die Ungenauigkeiten mit den Nachtlichtern noch näher untersucht werden, bevor dieser Aufwand getrieben wird. 

Link: http://wattsupwiththat.com/2010/11/08/metadata-fail-230-ghcn-land-stations-actually-in-the-water/

Hinweis: Die Beispiele, bei denen die Meßstation mitten im Wasser liegt und auf die sich der Autor bezieht, sind Im Originallink am Ende des Textes zu finden. Ein Klick auf jedes einzelne Bild im Original, was man mit genau 2 Mausklicks auf den Link zum Original erreichen kann, zeigt die beschriebenen Phänomene. Wegen des hohen Aufwands, und weil die Bilder ohne englische Unterschriften auskommen, wird auf die Übernahme in diese Übersetzung für EIKE verzichtet.

Kann es sein, dass das Verlegen dieser Stationen ins Wasser nur vorgaukeln soll, dass sich diese Stationen nicht im Bereich von größeren Ansiedlungen (Städten) befinden, obwohl das in Wirklichkeit doch der Fall ist?

Steve Mosher

Übersetzt und mit Bemerkungen versehen von Chris Frey für EIKE

Den Originalbeitrag finden Sie hier

* Den Beitrag von Steve Mosher in Climate Audit finden Sie hier




GISS-Eskapaden; die merkwürdigen Statistiktricks des US Klimainstitutes GISS

Angeregt durch diesen Web-Beitrag über das Fehlen von Daten im Polarmeer, habe ich nachgeschaut, wie das GISS Daten erzeugt, wenn es gar keine gibt.

Das GISS ist das Goddard Institute for Space Studies und gehört zur NASA. Der Direktor des GISS ist Dr. James Hansen. Dr. Hansen ist ein unbefangener Wissenschaftler, der meint, man müsse Menschen, die nicht an seine apokalyptischen Visionen der Zukunft glauben, wegen „Hochverrats an der Menschlichkeit“  vor Gericht stellen.   Das GISS erzeugt die GISTEMP genannte Historie der Erdoberflächentemperaturen. Hier ist seine Historie der Temperatur-Anomalie für Dez-Jan-Feb 2010 :

 

Abb. 1. GISS Temperatur-Anomalien DJF 2010. Für graue Gebiete gibt es keine Temperaturdaten.

Was stimmt mit dieser Darstellung nicht? 

Das Kuriose an dieser Darstellung ist, daß uns Temperaturdaten geliefert werden, wo gar keine existieren. Vom Polarmeer haben wir zum Beispiel sehr wenig Messungen. Dennoch zeigt die GISS-Karte radikale Erwärmung im Polarmeer. Wie kommt das zustande?

Das Verfahren ist in einem  Papier von 1987  von Hansen und Lebedeff skizziert. In jenem Papier schreiben sie, dass die jährlichen Temperaturänderungen über weite Strecken wohlkorreliert sind, über bis zu 1200 Km.

Aufgrund der von Hansen und Lebedeff entdeckten guten Korrelation (+0.5 und mehr) bis zu 1200 km von einer gegebenen Messstation, zeigt GISS die vermuteten Temperaturtrends innerhalb 1200 km von den Küstenstationen und 1200 km von den Stationen auf den Inseln. Gebiete außerhalb sind in grau dargestellt. Mit diesem 1200 km Radius können sie den “Temperaturtrend” des gesamten Polarmeers zeigen, wie in Abb. 1 dargestellt. Damit ist das Problem der sehr geringen Abdeckung im Polarmeer erledigt. Hier ist ein kleiner Teil des Problems dargestellt, die Abdeckung der Fläche nördlich 80° Nord:

(„Korrelation“ ist ein mathematisches Maß für die Ähnlichkeit zweier Datenbestände. Sie rangiert von „null“, d. h. keine Ähnlichkeit, bis plus oder minus “eins”, d. h. völlig gleich. Ein negatives Vorzeichen bedeutet Gleichheit, aber wenn der Wert eines Datenbestandes nach oben geht, nimmt der andere ab.)

 

Abb. 2. Temperaturmessstationen bei 80° nördlicher Breite. Die Kreise um die Stationen haben 250 km Durchmesser. Man beachte, dass der Kreis bei 80°N einen Radius von etwa 1200 km hat, eine Größe, innerrhalb derer wir laut Hansen Temperaturtrends extrapolieren können.

Können wir wirklich annehmen, dass eine einzelne Station für ein derart großes Gebiet repräsentativ sein könnte? Sehen Sie sich Abb. 1 an, dort sind Trends angegeben für das gesamte Polarmeer, obschon es keine Messdaten gibt. Hier ist eine größere Ansicht, die das gesamte Polarmeer zeigt.

 

Abb. 3. Temperatur-Messstationen um das Polarmeer herum. Die Kreise um die Stationen haben etwa 250 km Durchmesser. Man beachte, dass die Fläche nördlich von of 80°N (gelber Kreis) etwa die dreifache Größe von Alaska hat.

Was die Dres. Hansen und Lebedeff 1987 nicht bemerkten, und niemand scheint es seither bemerkt zu haben, ist, dass ihre Erkenntnisse in Bezug auf die Korrelation von weit entfernten Messstationen sehr problematisch sind. Das zeigt die folgende Graphik.

 

Abb. 4. Fünf Pseudo-Temperatur-Historien. Man beachte die Unterschiede in der Form der Historien und in den Trends. 

Merkwürdigerweise gleichen sich diese Pseudo-Temperatur-Historien trotz ihren offensichtlichen Unterschieden in einem, der Korrelation. Die Korrelation zwischen jeder einzelnen Pseudo-Temperatur-Historie und den anderen Pseudo-Temperatur-Historien ist größer 90%.

 

Abb. 5. Korrelation zwischen den Pseudo-Temperatur-Historien aus Abb. 3.

Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.

In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten?“

Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).

 

Abb. 6. Trends von Temperatur-Historien von Alaska-MessStationen. Foto stammt aus Pioneer Park, Fairbanks.

Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.

Und schließlich ist meines Wissens dieses Extrapolationsverfahren von Hansen und dem GISTEMP einmalig. Es wird von keinem anderen Erzeuger von globalen oder regionalen Datenhistorien benutzt, wie z. B. vom CRU oder USHCN. Wie Kevin Trenberth in den CRU-Emails über die Diskrepanz zwischen GISTEMP und den anderen Datenhistorien sagte (Hervorhebung durch den Verf.):

Nach meinem Verständnis ist die größte Quelle dieser Diskrepanz [zwischen globalen Datenhistorien] die Art und Weise, wie die Arktis analysiert wird. Wir wissen, dass das Meereis auf Rekordniedrigständen war, 22% weniger als im vorhergehenden Niedrigjahr 2005. Einige Meer- und Lufttemperaturen waren bis zu 7C höher als Normal. Aber meistens gibt es keine konventionell ermittelten Daten. Bei der NASA [GISTEMP] extrapoliert man und baut die hohen Temperaturen in der Arktis ein. In anderen Datenreihen tut man das nicht. Nur verfügbaren Daten werden benutzt, das Übrige fehlt.

Keine Daten verfügbar? Kein Problem, baue einfach einige hohe Temperaturen ein 

Was ergibt sich daraus?

Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

[Nachfolgend zwei Berichtigungen aus dem Kommentarbereich der Originalquelle]

[Aktualisierung 1] Fred N. merkte an, dass GISS eine polare Sicht auf die gleichen Daten zeigt. Man beachte den Anspruch der Gültigkeit für das gesamte Polarmeer. Danke.

[Aktualisierung 2] JAE wies darauf hin, dass Abb. 1 keine Trends zeigt, sondern Anomalien. BOBALLAB verwies mich auf die Karte mit den tatsächlichen Trends. Beiden Lesern meinen Dank. Hier ist die zutreffende Darstellung:

 

Erschienen am 25. 03. 2010 als  Gastbeitrag von Willis Eschenbach auf der Watts Up Seite. Die Übersetzung besorgte dankenswerterweise Hellmut Jäger für EIKE




Climategate 2.0 — Die NASA Daten: U.S. Klimawissenschaft so korrupt wie die CRU (Teil 2) ?

Dr. James Hansen hat eine besondere Geschichte von alarmierenden Warnungen und gewagten Behauptungen aufzuweisen. Er hat im Namen einer globalen Erwärmung allarmierend ausgesagt in Unterstützung (1) der Zerstörung von privatem Eigentum (2). In diesem Zusammenhang verglich er Kohletransportzüge mit den Nazi-Todeszügen, während er darauf bestand, dass ein Präsident Namens George Bush ihn mundtot mache. Er hat sich selbst als Erwärmungs-Fanatiker herausgestellt, der ein durch Steuern finanziertes Institut (GIS) leitet.

Am 11. August 2007 hat James Hansen eine E-Mail an Andrew Revkin von der New York Times, gesandt:

  • Was die Zukunft der USA betrifft, können Sie davon ausgehen, dass die Erwärmung in der nächsten und übernächsten Dekade deutlicher wird.

 

Die Beobachtungen und die Vorhersagen der sich darauf beziehenden Literatur berücksichtigen die vergangene Dekade ohne Erwärmung. Änderungen in den ozeanischen Strömen und andere offenbar entscheidende Klima-„Zwänge“ haben sich seitdem in die andere Richtung gewendet.

Völlig daneben zu liegen, ist anscheinend gut genug für Regierungsarbeit. Es wird sehr deutlich, dass Hansen nur geschützt wird und weiter angestellt ist, weil er ein Regierungsbeamter ist, der die Dinge in einer Art und Weise falsch macht, die die politisch bevorzugte Sichtweise unterstützt. Hansens extremer Übereifer ist ein annehmbarer extremer Übereifer. Er ist eine heilige Kuh, trotz jahrelanger fragwürdiger Praktiken und Nebenbeschäftigungen.

Abenteuerlich argumentierend bei seiner Verteidigung während des Durcheinanders im August 2007, ausgelöst durch Steve McIntry, lehnte Hansen wiederholt ab, dass die NASA immer 1934 als wärmer als das Jahr 1998 dargestellt hatte. In dem Vorgang bezieht er sich laufend auf einen Aufsatz von 2001 mit anderen NASA- Kollegen. Er war dort der  führende Autor.

Am 23.August 2007 schrieb Ruedy an Hansen, offenbar um zu versuchen, den höchst profilierten Wissenschaftler seines Amtes zu bewegen, sich nicht selbst und die anderen in Verlegenheit zu bringen:

Die Temperaturkurve in unserem Aufsatz von 1999, die sich auf GHCN- Daten abstützen, zeigt 1934 um 0,5°C wärmer als 1998; 1998 war auf dem 5. Platz hinter 1921, 1931, 1938, 1951.

In der entsprechenden Kurve unseres Aufsatzes von 2001, die auf USHCN-Daten basiert und jetzt sorgfältig korrigiert wurde (Achtung: beschönigender Ausdruck!), 1934 und 1998 sind an erster, 1921 an dritter Stelle (NOAA, stellte die USHCN-Daten bereit, 1998 lag leicht vor 1934).  

Die US-Tabelle, die wir während 2006 gezeigt haben, zeigte 1998 und 1934 sogar bei 1,24 °C (ich bekam eine Kopie von einem Journalisten aus Brasilien, wir haben die Daten nicht aufgehoben).

 

In der Tat, der Aufsatz, auf den sich das hier bezieht, Hansen et al (3), 2001), zeigte 1934 ein erstaunliches halbes Grad wärmer als das nächst nähere Jahr 1998.

Nachdem er intern in Verlegenheit gebracht wurde, sagte Hansen:

Ich denke, wir sollten vermeiden, immer mehr in Einzelheiten zu gehen, um einzelne Jahre einzuordnen.

 

Ja, ich vermute, dass er es in dieser Weise empfunden hat.

Nicht nur war die Dateninstandhaltung überhaupt nicht von großer Bedeutung – trotz  NASA’s ausdrücklicher Betonung von Zuverlässigkeit und Integrität, historisch und andererseits – Hansen und die NASA verbrachten einen Großteil von August 2007 damit, zu versuchen die Geschichte komplett neu zu schreiben. Besonders ihre eigene.

Am 10. August 2007 sandte Ruedy eine E-Mail einer NASA-Person mit Namen Leslie McCarthy (in der Öffentlichkeitsarbeit tätig), mit einer Kopie an Hansen. Ruedy informierte McCarthy von dem Dreh, den sie benutzen würden, um gegen Steve McIntyre zu kämpfen:

(McIntyre) konzentriert sich auf US-Zeitserien, welche weniger als 2 % der Welt abdecken. Diese sind so fluktuierend (verrauscht) und haben eine so große Fehlerspanne, dass keine Schlüsse daraus zu ziehen sind.

Der Fehler, auf den Ruedy sich bezieht, ist 0,5 °C, durch Ruedy selbst in seiner E-Mail an Kris French bei National Geographic am 10. August 2007. In dieser E-Mail tadelt Ruedy McIntyre als globalen “Erwärmungs-Verneiner“.

Hansen sandte eine E-Mail an Dr. Donald E. Anderson, Programmdirektor des Earth Science Enterprise beim NASA-Hauptquartiers, am 14. August 2007:

Wenn man wünscht wissenschaftlich zu sein, anstelle zu versuchen, die Öffentlichkeit zu verwirren…, sollte man festhalten, dass einzelne Jahrestemperaturen für Gebiete so gering wie die der US (2 % der Erde) extrem fluktuierend (verrauscht) sind.

Damit hat Hansen implizit NASA’s lang geübte Praktiken eingeschätzt, mit Temperatur-Anomalien zu werben: Nur U.S. Temperaturen oder geringere als diese, seien unwissenschaftlich und geeignet, die Öffentlichkeit zu verwirren. Die NASA hat aber jahrelang von den U.S. Daten –Temperaturen großes Aufhebens gemacht. Diese seien also nur irgendwie sinnvoll, wenn eine Erwärmung erkennbar ist. Sogar dann, wenn die Erwärmung geringer war, als der Betrag, den er jetzt als bedeutungslos abtut. Er baut nun eine unmittelbar gegensätzliche Sichtweise auf, wenn nur die U.S.-Temperaturen die Behauptung von einer  Erwärmung bedrohen.

In einer E-Mail an Andrew Revkin am 24. August 2007 stellt Hansen fest:

Die Gegner vermischen klug diese zwei Sachen, global und U.S., so verwirren sie vollständig die öffentliche Diskussion.

Aber es war die NASA und in der Tat Hansens GISS, die die U.S. Temperaturen die ganze Zeit hervorhoben. Nicht die „Gegner“. Die NASA ordnete einzelne Jahre ein, dann sagten sie plötzlich diese Einordnung sei nicht der Rede wert, wenn die Zahlen (ihrer Vorstellung) widersprachen.

Hansens Ausführungen dazu schlossen ein, Andrew Revkin am 24. August mitzuteilen:

Ich denke wir sollten vermeiden, einzelne Jahre immer detaillierter einzuordnen. Soweit ich mich erinnern kann, haben wir immer versucht, davor abzuraten, da dies etwas unsinnig ist, im Gegensatz zu (sic) der Frage, welches das wärmste Jahr ist.

Hansen hat Beispiele eines Abratens  dieser Art nicht gezeigt. Stattdessen hat sich die NASA diesen Praktiken aktiv angenommen,aber trotz dieser offensichtlichen Priorität schwankten NASA`s Zahlen, Ansprüche und Einordnungen abenteuerlich.

Am 23. August 2007 sagte Hansen auch zu Revkin:

 So weit ich weiß, machen wir keine solche Liste. Wir mögen solche Listen nicht, weil die Ergebnisse nicht bedeutsam sind und sich von Gruppe zu Gruppe sicherlich unterscheiden (..dies bedeutet, es gibt keine Übereinstimmung bei den als bekannt behaupteten Temperaturen—herunter bis zu einem hundertstel Grad!). Es sind im allgemeinen die Medien, die eine Liste machen. Wir sehen (nur) einem neuen Hoch in den Aufzeichnungen entgegen (…„sehen entgegen“ ist ein wenig untertrieben), sollten aber beachten, dies ergibt nur virtuelle Verbindung, wenn die Differenz so gering ist.

Hansens Erinnerung ist fehlerhaft. Wir haben gesehen, dass sich entscheidende Differenzen bis zu 0,5°C, so wie die zwischen 1934 und 1998, in der Folge und geradezu magisch in eine statistische Verbindung von 0,02°C unter NASA`s  sanften Diensten verändern.

Am 10. August 2007 sandte Ruedy eine E-Mail an NASA`s Leslie McCarthy, Kopie an Hansen. Er bat sie folgendes aufzuzeigen:

Das Problem mit Einordnungen ist, dass es große (Ansammlungen) Gruppen von Jahren gibt, die bezüglich der Fehlerspanne gleich sind und Einordnungen innerhalb dieser Gruppen rein zufällig sind.

Am 23. August sandte Hansen eine E-Mail an Revkin:

Ich glaube wir haben einige Male klar festgestellt, was die Einordnung bewirkt.

 

Alte Gewohnheiten sterben jedoch schwer, und später in seiner E-Mail hebt Hansen 2005 als „das wärmste Jahr“ hervor.

Hier ist eine Auswahl von Presseverlautbarungen der NASA (diese wurden am 27. August 2007 eingesehen):

·     „Wärmstes Jahr in einem Jahrhundert“

·     „2006 war der Erde fünfwärmstes Jahr“

·     „Viertwärmstes Jahr weltweit seit 1890“

·     „Das Jahr 2003 ist das drittwärmste Jahr in dem Zeitraum der genauen Messungen mit Instrumenten“ (besonders erwähnt die zwei wärmeren Jahre)

·     „Das meteorologische Jahr 2002 ist das zweitwärmste Jahr in dem Zeitraum der genauen Messungen mit Instrumenten“

 

Im August 2007 richteten sich die Bemühungen darauf, das Interesse zu verringern, das die NASA, mit nicht bestätigten  Behauptungen über den Anstieg der U.S.- Temperaturen, ausgelöst hatte.  Es waren diese Rangfolgen-Methodik die Hansen und die NASA sich eingesetzt hatte. Sie entsprach der die zu dieser Zeit eingesetzten ad hoc Taktik, weil nur die U.S Messungen und die der einzelnen Jahre, das Interesse an der Temperaturentwicklung hochgetrieben zu haben.

„The New York Times“ Revkin schränkte diplomatisch die Verantwortung für diesen Brennpunkt, an dem die NASA mit einer Leidenschaft teilnahm, die an Besessenheit grenzte, ein, indem er am 10. August 2007 an Hansen schrieb:

  • Tatsächlich haben wenige Leute (Gore und besonders einige Umweltschützer) öfter die US-Temperaturtrends als Argumente für Aktionen genutzt (Reihe von Berichtsjahren). Es ist für mich schwer, die erneute Analyse dieser Jahrestemperaturen zu vernachlässigen,—obwohl mein eigener Schwerpunkt bei den globalen Temperaturen bleibt. Im Grunde genommen sollten die Leute immer weniger Aufmerksamkeit auf den US- Trend (48 Staaten) als einem bedeutenden Signal des AGW gewidmet haben? (Jetzt, da alle diese wärmeren früheren Jahre dazukommen, wird es sicher  zu einem Fall, dass die regionalen Daten ein roter Hering sein können).

Natürlich haben sich die Berichte der Alarmisten lange auf regionalen Daten über das Klima bezogen, obwohl von den Computer Modellen wohl bekannt war, dass sie untauglich sind, Aussagen vom regionalen zum globalen Klima zu machen. Dies ist durch die Anwesenheit der Ozeane und Gebirge bedingt. „Regionales Klima“ ist eine Möglichkeit, lokale Entwicklungstrends zu finden und zu behaupten, sie sind auch für die globale Entwicklung bedeutsam. Sie sind dann politisch nützliche Anekdoten (aber nur wenn sie mit den richtigen Vokaneln geschildert werden können, wie: Erwärmung, sehr trocken/ sehr naß, usw.. Man beachte im obigen Text von Revkin die Worte…." das „Eindringen“ (Hinzukommen) all dieser „früheren warmen Jahre“.

Tatsächlich hat Revkin in der Vergangenheit NASA`s Ansprüche der Art, die er hier Gore zuordnet, vertreten. Dies ist sicherlich ein wenig mehr, als nur ein Diener vor Hansen, wenn er vorschlägt, dabei mitzuhelfen, die aufkommende Verwirrung weg zu massieren und umzulenken.

In der Tat –obwohl Hansen Revkins Fragen grundsätzlich auswich—übernahm Revkin pflichtschuldigst Hansens Linie in eine Geschichte in der New York Times. In dieser spielte er „Hansens Y2k??? Irrtum“ herunter. In dem Artikel, wie er sich in seiner E-Mail als Antwort, an Ruedy der ihn lobte, ausließ, entschuldigt sich Revkin nahezu, all dies geschrieben zu haben—volle zwei Wochen nachdem die Geschichte aufgeflogen war—, aber die Geschichte war für Revkin zu schwierig geworden, um sie noch länger zu ignorieren.

Der NASA Wissenschaftler Ruedy schrieb dann in einer privaten E-Mail am 15.August 2007 an eine brasilianische Journalistin Leticia Francisco Sorg. Darin bestätigt er erneut, wie groß die Heuchelei ist, dass die NASA gewillt ist zu behaupten, dass sogar 30 Jahre eine zu „kurze Zeitspanne“ ist, um die Vorgänge zu beobachten –wenn während dieser 30 Jahre die auftretende Erwärmung der Menschheit nicht zugeordnet werden kann. Andererseits, wenn nicht—sind 30 Jahre viel Zeit, die gewünschten Schlüsse zu ziehen.

Ende des zweiten Teils, Original hier , wird fortgesetzt

 Chris Horner Februar 18, 2010

Christopher Horner ist Senior Fellow des Competitive Enterprise Institute (CEI) Autor u.a. des Buches "Red Hot Lies"

Die Originalversion erschien hier

Mit Dank an h Dr. F. W.  Peppler  und I. Peppler für die Übersetzung.

Article printed from Pajamas Media: http://pajamasmedia.com

URL to article: http://pajamasmedia.com/blog/climategate-2-0-%e2%80%94-the-nasa-files-u-s-climate-science-as-corrupt-as-cru-pjm-exclusive/

URLs in this post:

[1] in support: http://blogs.telegraph.co.uk/news/jamesdelingpole/100023339/james-hansen-would-you-buy-a-used-temperature-data-set-from-this-man/

[2] the destruction of private property: http://joannenova.com.au/2010/01/hanson-barracking-for-lawless-destruction-and-the-end-of-civilization/#more-6213%20http://wattsupwiththat.com/2008/09/10/note-to-nasa-fire-dr-james-hansen-now/

[3] Hansen et al: http://pubs.giss.nasa.gov/docs/2001/2001_Hansen_etal.pdf

 





Climategate 2.0 — Die NASA Daten: U.S. Klimawissenschaft so korrupt wie die CRU (Teil 1) ?

Das tat ich, weil der kanadische Geschäftsmann Steve McIntyre (ein Mann mit professioneller Erfahrung im Hinterfragen von verdächtigen statistischen Behauptungen der Bergbauindustrie und anderer Industrien, der sich einen Namen bei der Aufdeckung der Fehler in der nun berüchtigten “Hockeyschläger-Kurve” gemacht hat)  Ungereimtheiten bei den NASA-Behauptungen vom immer wärmer werdenden ersten Jahrzehnt dieses Jahrhunderts bemerkte. Die NASA schien die U.S. Temperaturen des beginnenden Jahrhunderts ab 2000 aufgeblasen zu haben. Meine FOIA-Anfrage erbat von der NASA Informationen über die dortigen internen Diskussionen zur Frage, ob und wie der Temperaturfehler zu korrigieren sei, der von McIntyre aufgedeckt worden war.

Die NASA hat auf meine Anfrage mehr als zwei Jahre lang gemauert, bis ich durch Klimagate veranlasst wurde, der NASA eine Klage anzudrohen, falls sie nicht umgehend meine Forderung erfüllte.

An Silvester hat die NASA schließlich dem Competitive Enterprise Institute (CEI) die Dokumente übergeben, die ich im August 2007 angefordert hatte.

Die Emails werfen ein Licht auf die Heuchelei, Unehrlichkeit der NASA und deren zweifelhafte Seriosität beim Umgang mit den Daten. Und wie sich die NASA bei der Verteidigung ihrer Behörde windet. Die Emails belegen, wie die NASA enorme Mengen von Steuergeld veruntreut, indem sie genau das tut, was sie nur einem "Skeptiker" zutraut. Die Emails zeigen, wie die NASA versucht hat, ihre Webseite um ihre eigenen Dokumente zu bereinigen, und wie sie doch tatsächlich klammheimlich viele Presseverlautbarungen tilgte, die sich auf nachweislich falsche Daten berufen hatten. Und sie zeigen eine NASA, die behauptet, ihre eigenen Temperatur-Fehler (bei deren Erzeugung sie erwischt wurde, und die sie in nicht korrigierter Form auch noch aggressiv herausstellte) seien nur trivial, nachdem sie jahrelang schon bei geringeren Erwärmungs-Anomalien herumtrompetet hatte. 

Wenn man die folgenden Email-Auszüge zusammen mit denjenigen betrachtet, die ich in den nachfolgenden drei Teilen dieser Reihe besprechen werde, so möge man im Auge behalten, dass diese Emails beabsichtigten, die Sache der Herbeiführung der einschneidendsten Gesetzgebung in der Geschichte zu untermauern: der Verbannung von Kohlenstoff-Emissionen von aller menschlichen Aktivität. Die Aktivisten der NASA lassen keine Zweifel in ihren Emails, dass dies ihr Ziel war. Auch möge man bitte bedenken, dass diese Dokumente eine vor zwei Jahren gestellte diesbezügliche FOIA-Anfrage beantworten. Die jüngsten Entwicklungen lösen zusammen mit den Enthüllungen in diesen Dokumenten weitere Anfragen aus, die bereits abgeschickt wurden, weitere werden folgen.

Darüber hinaus hat das CEI am 29. Januar 2010 die NASA angezeigt wegen deren unrechtmäßiger Zurückhaltung weiterer Dokumente bei der Beantwortung unserer FOIA-Anfragen. In dieser Anzeige haben wir die NASA informiert, dass, falls sie nicht binnen 20 Tagen – wie es rechtlich geboten ist – unsere Forderung erfüllt, wir unsere Rechte vor Gericht ohne Verzug wahrnehmen werden.

Unter der Leitung von Dr. James Hansen, Direktor des NASA-Goddard Institute for Space Studies (GISS) führt die NASA eine fortwährende öffentliche Kampagne mit der Behauptung eines klaren Beweises des anthropogenen Klimawandels (AGW) — eines Klimawandels, der vom Menschen verursacht wäre. Die mittels der FOIA-Anfrage freigegebenen Dokumente jedoch enthalten atemberaubende Geständnisse über die Unverlässlichkeit der Daten. Besonders angesichts der NASA Behauptungen, sie würde die Temperaturen und deren Abweichungen im hundertstel Bereich eines Grades kennen, und angesichts ihres Beitrags zum Alarmschlagen über die behauptete Zunahme von nur einem Grad während mehr als einem Jahrhundert.

Dr. Reto Ruedy, Kollege von Hansen beim GISS, beschwerte sich in seiner Email vom 3. August 2007 bei Gavin Schmidt, einem seiner Mitarbeiter und zugleich RealClimate-Blogger:

        Die Daten [des United States Historical Climate Network] werden nicht routinemäßig aktualisiert (derzeit (sic) scheinen sie 2002 zu enden).

Diese Unterlassung hat zu erheblichen Differenzen bei den Daten geführt, die angeblich von den gleichen Bodenmessstationen des US-HCN und des Global Climate Network (GHCN) kommen. Die NASA trompetete später, dass sie nur ganz geringfügige "Justierungen" an diesen Daten (selbstverständlich nach oben) vorgenommen hätte – diese Justierungen, wie sie jetzt zugeben müssen, liegen innerhalb der Fehlerungenauigkeit. Doch dieser Tatsache haben sie weit weniger Gewicht beigemessen in ihrer Medien-Kampagne zur Behauptung einer nicht normalen, menschengemachten Erwärmung.

   Ruedy vom GISS schrieb dann: 

   Die Annahme [der NASA], dass durch die Justierungen die älteren Daten in Übereinstimmung mit zukünftigen Daten gebracht wurden … könnte möglicherweise nicht stimmen. … Bei 490 von 1057 Stationen waren die USHCN-Daten um bis zu 1C kälter als die entsprechenden GHCN-Daten, bei 77 Stationen waren die Daten gleich, und bei den übrigen 490 Stationen waren die USHCN-Daten wärmer als die GHCN-Daten.

Ruedy behauptete, dass dadurch eine geschätzte Erwärmung von etwa 0.1 C in die Datenhistorie gekommen sei. Dann beschrieb er einen alternativen Weg der Manipulation für die Temperaturdaten, man sollte stattdessen eine “eine sorgfältigere Methode” finden.

Der vormalige Umweltreporter Andrew Revkin von der New York Times schrieb privat, dass er sich Sorgen um die Verlässlichkeit der Bodenmessstationen machte, obgleich er öffentlich seinen oberen Platz auf der Hühnerstange der Klima-Alarmisten häufig zum Beschreien des Klimawandels nutzte. Noch bei der Times schrieb er an Hansen am 23. August 2007: 

„am heutigen tage habe ich zum ersten Mal bei http://www.surfacestations.org nachgesehen und musste mich doch sehr wundern. wenn unsere stationen derart schlampig sind, wie ist es dann erst in der mongolei.“

Leider hat sich Andy niemals die Zeit genommen, über schlampige bis hin zu verwunderlichen Daten zu schreiben, obgleich er in vielen Artikeln für eine Bedeutung warb, von der wir wissen, dass die NASA sie für statistisch bedeutungslose Temperaturaussagen hält. Das genau ist Parteinahme oft: Nur eine Seite der Geschichte wird dargestellt, noch dazu die am wenigsten überzeugende.

Am 14. August 2007 emailte Makiko Sato vom GISS an Hansen, dass nach seiner Analyse eine Erwärmung von 1 Grad zwischen 1934 und 1998 tatsächlich nur die Hälfte hätte betragen können:

        Ich bin mir sicher, dass ich 1998 wenigstens einmal für wärmer als 1934 erkannt hatte, weil ich auf meiner eigenen Temperatur-Webseite (die sich die meisten Leute niemals anschauen), ich habe [hier befindet sich verborgene Image/Information im Dokument]. … die Daten nicht aufgehoben, aber einige davon sind noch da (dann werden einige Daten aufgelistet, in denen 1934 um 0.5 C wärmer als 1998 ist).

Weil die Klima-Aktivisten nur eine Erwärmung von 1 Grad für das vergangene Jahrhundert anführen, ist das Ausmaß von 0,5 C in ihren Berechnungen schrecklich.

Sato fährt fort:

      Es tut mir leid, dass ich nicht mehr Daten aufgehoben habe, aber die US-Daten nach 2001 haben mich in meinem Papier nicht interessiert.

Sato bezieht sich auf das Papier von Hansen et al., in welchem die Kollegen von Hansen diesen daran erinnern, dass 1934 als um einen halben Grad wärmer als 1998 in der Liste steht. — Es ergibt sich aus ihren Emails, dass die Daten vom Juli 1999 das so belegten (ihr Papier beschrieb 1924 als nur "geringfügig" wärmer als 1998, S. 8). Dennoch besteht Hansen in allen diesen Emails darauf, dass 1934 und 1998 statistisch unentscheidbar wären, weil sie gerade mal um 0,02 C unterschiedlich wären und sogar darauf, dass ihre Einordnung [in die Rangfolge der wärmsten Jahre] unverändert bliebe. Beispielsweise behauptet Hansen in einer Email an einen Journalisten bei Bloomberg: "Wie Sie aus unserem Papier von 2001 entnehmen können, fanden wir 1934 als etwas wärmer, aber nur um Haaresbreite mehr als 1998, wir kommen immer wieder zu diesem Ergebnis."  Die Folgerung daraus ist, dass sich nichts geändert hat, obgleich sich die NASA tatsächlich auf ein Unentschieden hinbewegte mit der Behauptung der statistischen Signifikanz eines wärmeren 1934 anstelle von 1998, was politisch unerwünscht war.

In Bezug auf die U.S.-Temperaturen gestand Ruedy am 23. August 2007 Hansen:

       Ich erhielt eine Kopie von einem Journalisten in Brasilien. Wir hier heben die Daten nicht auf.

Die Beziehung von Ruedy zu einem brasilianischen Journalisten führt zum Thema der Inzucht zwischen dem NASA-GISS und ähnlich denkenden Umweltreportern. Man muss sich nur in die Erinnerung zurückrufen, wie jüngst die Behauptung des Weltklimarats (IPPC) vom Gletscherschwund im Himalaya diskreditiert wurde, als entdeckt wurde, dass dies das Werk eines einzelnen spekulierenden Journalisten in einem Unterhaltungsmagazin war und keine streng fachbegutachtete Wissenschaft.

Das kann man auch von der Beziehung der NASA zum IPCC sagen, dessen Alarmschlägerei die NASA ermöglichte. In einer privaten Email wird unter der Hand stillschweigend zugegeben, wenn auch privat, dass die IPCC-Behauptungen von der zunehmenden Erwärmung, wie ja auch IPCC-Chef Rajendra Pachauri oder UN-Generalsekretär Ban Ki-Moon sagen, fadenscheinig sind. Doch die NASA hat sich niemals gegen diese Alarmschreierei gewandt. Im Gegenteil, die NASA wartete ab und zog ihren Vorteil daraus, weil der Steuerzahler mit stark ansteigender Finanzierung das wachsende, wenn auch unpassende Interesse für das "Klima" bezahlte. 

    Am 15. August 2007 antwortete Ruedy per Email auf die Frage der brasilianischen Journalistin Letizia Francisco Sorg, ob sich die Erwärmung verstärke:

"Um das feststellen zu können, würde ein längerer Beobachtungszeitraum benötigt als die vergangenen 25 Jahre. Man braucht tatsächlich noch weitere 50 – 100 Jahre."

Das ist ein vernichtendes Eingeständnis der Komplizenschaft der NASA mit dem UNO-Alarmismus. Das ist keine Wissenschaft. Das ist entlarvte Parteigängerei. Die Unschicklichkeit derartiger Parteigängerei ist allein deshalb schon offensichtlich, sieht man mal von unbegründeten wissenschaftlichen Behauptungen ab.

Ende des 1. Teils, wird forgesetzt.

Christopher Horner ist Senior Fellow des Competitive Enterprise Institute (CEI) Autor u.a. des Buches "Red Hot Lies"

Die Originalversion erschien hier

Mit Dank an Helmut Jäger für die Übersetzung.




Januar 2010 zu warm? Merkwürdige Berechnungsmethoden des GISS (Goddard Institute of Space Sciences) für die Durchschnittstemperaturen der Welt im Januar 10

Wie kommt das?

Schauen wir uns die beiden Graphiken doch einmal genauer an. Wir sehen in der "wärmeren" Graphik, dass es dort fast keine grauen Flächen gibt. Zu grauen Flächen heißt es in der Erläuterung zur Graphik:
Note: Gray areas signify missing data.
Hier also gibt es keine Daten!

Man beachte: wählt man den kleineren Gültigkeitsradius für gemessene Temperaturen von 1200 KM auf 250 KM, dann werden die vielen Flächen sichtbar, die grau sind, also ohne jede Messstation. Und, fatal, sofort verändern sich die durchschnittlichen Temperaturen gravierend – und zwar: nach unten!!

Warum ist das so?
Bedeutet dies nicht, dass ganz erhebliche Flächen, wo überhaupt nicht gemessen wurde, mit einer "angenommenen" Temperatur versehen werden? Also z.B. Gebiete in Alaska oder der Antarktis werden durch die Wahl des Gültigkeitsradiuses für Temperaturen aus einer (weit abgelegenen – Radius 1200 KM!!) Messstation pauschal abgedeckt, obwohl dort nie gemessen wurde?

Wer legt die Legitimation für die Festlegung eines Radiuses fest oder erfolgt diese Festlegung willkürlich?

Wie würden die Daten aussehen, wenn der Radius nur noch 1, 10, 30 oder 50 KM betragen würde? Diese Wahl hat man nämlich nicht. Voreingestellt ist der Radius 1200 KM und zur Auswahl wurde nur noch 250 KM zugelassen. Eine Messstation, die Gültigkeit für 250 KM Umfeld hat, kann ich mir kaum vorstellen.

Fazit: Wenn ich hier nun "zufällig" Messstationen mit wärmeren oder kälteren Temperaturen in die Auswahl für den Radius genommen habe, dann würden sich für sehr grosse Regionen Temperaturen ergeben, die in der Realität so nicht abzubilden wären. Dazu muss man wissen, dass massgeblicher Faktor für die Berechnung der globalen Temperatur die Fläche (KM²) ist. Fläche ist erstmal neutral. Bekommt aber durch das "Überstülpen" einer "angenommenen" Temperatur die entscheidende Bedeutung. Das "Glätten" (smoothing) oder Gleichmachen von Flächen, die ohne jede reale Messung einfach nur grau wäre (also ohne Berücksichtigung bleiben müsste), ist aus mathematischer Sicht schlicht und einfach das Verfälschen von Daten und damit Ergebnissen, um eine vermutete Aussage visuell und statistisch belegen zu können. Wäre das nicht gewollt, gäbe es die Auswahl eines beliebigen Radiuses. Dieser Radius ist ein klassisch variabler Faktor, der nicht nur butterweich ist, sondern sogar fiktiv und reine Spekulation, da er nichts, aber auch gar nichts mit der Realität und den Echtdaten zu tun hat.

Anhand dieser einfachen Analyse wird deutlich, wie wesentlich es ist, die wissenschaftlich neutralen und korrekten Messstationen als Datenquelle zu nutzen, da Daten jeder "akzeptierten" Messstation für einige tausend "grauen" KM² zur Gültigkeit erklärt werden. So kommt jeglicher Auswahl von Messstationen eine ganz besondere Bedeutung zu.

Ein Übrigens habe ich dann auch noch:
In der Antarktis sehen wir selbst in der 2. Graphik, erstaulich viele eingefärbte Flächen. Bei einem Radius von 250 KM, den ich gewählt habe, müssten also in der Antarktis zig Messstationen Echtdaten liefern, immer gleichwarme übrigens, wie man sehen kann (siehe "Bodensockel"). Hat jemand eine Vermutung, wieviele Messstationen in der gesamten Antarktis real vorhanden sind? Das Alfred Wegener Institut hat EINE. Wer noch? Keiner? Tatsächlich niemand?
Dann wäre diese eine gemessene Temperatur für wieviel Fläche der Erde gültig? Mag jemand rechnen?

Ich lasse mich gern eines Besseren belehren. Gern stelle ich einen weiteren solcher Graphik-Vergleiche hier in das Forum, wenn es gewünscht wird.

Analytische Grüsse,
Blogger KlimaAutist  

Quelle: Wetter Online