1

NASA und NOAA „PASSEN“ Temperaturdaten an: Die Rohdaten zeigen, dass die USA sich ggü. den 30er Jahren abgekühlt haben

Das (im Original GIF animierte) Diagramm zeigt klar die historischen US Klimatologie Netzwerk -Stationen  mit Rohdaten und danach mit offiziellen Anpassungen durch NASA und NOAA .

Hier sehen Sie die offiziell „adjusted“  maximalen Temperaturdaten über die Jahre 1920  – 2020, die einen Erwärmungstrend zeigen.

Und hier sind es die tatsächlichen „gemessenen“ Daten, die einen unverkennbaren Abkühlungstrend aufzeigen.

Unten sehen Sie eine vergrößerte Ansicht der US-Thermometerdaten, bevor die NASA / NOAA ihre schmuddeligen „adjustments“ vornahm.

Durchschnittliches Temperaturmaximum 1901 – 2019 ,  Rote Linie gleitendes 5 Jahres Mittel

Die Grafik zeigt, dass die Temperaturen von 1920 bis 1960 tatsächlich wärmer waren als heute. Es war angenehm wärmer,  oft mit 2 bis 3 Grad Fahrenheit. (~ 1,5 bis 2 °C)

Der gleiche Trend ist in der vorstehenden Grafik zu erkennen, in der der Prozentsatz der Tage über 32,2 ° C (90 ° F) in den Jahren zwischen 1901 und 2019 erneut an allen Stationen des US-amerikanischen Netzwerks für historische Klimatologie angegeben ist (beachten Sie auch, dass die Grafik bis 2019 läuft und daher die Rekordkälte der letzten anderthalb Jahre ausschließt) Quelle: [Climate Science Special Report]

Die Daten zur Nationalen Klimabewertung stützen den Trend weiter und zeigen, dass die Sommer in den Vereinigten Staaten von 1910 bis 1960 viel heißer waren.

Darüber hinaus zeigen die jüngsten Beobachtungen [Observations] der Meeresoberflächentemperatur – selbst die von den Erwärmungsaktivisten kontrollierten – deutlich, dass sich die Projektionen katastrophaler Klimaentwicklungen als weit von der Realität entfernt erweisen:

Mehr zum Thema finden Sie HIER.

Wenn Sie sich noch nicht darauf eingelassen haben, dass Regierungen ihre Bevölkerung routinemäßig anlügen, sollten Ihnen die obigen Diagramme einen Einblick dazu bieten. Die globale Erwärmung ist kaum „global“, wenn die Vereinigten Staaten – das viertgrößte Land der Erde – sich abkühlen seit dem Ende von „the dust bowl“ [Katastrophenfilm von 2012, über die schlimmen Auswirkungen von Sandstürmen, durch Klimawandel und natürlich Menschen verursacht]. Und ich denke, es ist auch vernünftig anzunehmen, dass nicht nur die USA seit Mitte der 1930er Jahre einen Abkühlungstrend erleben. Der nordamerikanische Kontinent ist geografisch nicht einzigartig – und diese Beobachtungen stimmen gut mit der beobachteten Sonnenaktivität überein,  nachdem die zwischen 1930 und 1960 zunehmende Aktivität allmählich nachgelassen hat:

Sonnenzyklen und Sonnenflecken

Die Daten können leicht manipuliert werden und manipulierte Statistiken werden verwendet, um die Aussagen der Politik zu beweisen und Richtlinien zu erlassen. Und heute scheinen Regierungsbehörden – gespielt von den unsichtbaren Strippenziehern über ihnen – ein glänzendes und mächtiges neues Werkzeug gefunden zu haben, um ihr Angst- und Kontrollarsenal durchzusetzen: „den Klimanotfall “.

Ein letzter Hinweis zu diesem Thema:

Die durch „Feuerbrünste“ betroffene Landfläche war von 1910 bis 1960 viel höher als heute, was nicht verwunderlich ist, da Hitzewellen normalerweise mit Dürre verbunden sind, betont Tony Heller. Es besteht eine enge Korrelation zwischen Hitzewellen und Brandfläche, wie in der obigen Tabelle dargestellt, die die offiziellen Daten von Hitzewellen (rote Linie) mit denen der Verbrennungsfläche (blaue und grüne Linien) überlappt.

Die Klimaaktivisten möchten, dass Sie glauben, dass Waldbrände eine direkte Folge steigender Temperaturen sind, aber wie Tony Heller gezeigt hat: Die Temperaturen steigen nicht und die Brandflächen nehmen auch nicht zu.

Die tatsächlichen Daten zerstören die Einpeitschungen eines „Klimanotfalls“  und so hat die Biden-Regierung kürzlich die Branddaten vor 1983 gelöscht, mit der glanzlose Begründung, dass „es nicht offiziell war“ ( hier verlinkt ).

Total Wildland Fires and Acres (1983-2020)

Vor 1983 verfolgten die föderalen Waldbrandbehörden die offiziellen Waldbranddaten nicht unter Verwendung der aktuellen Meldeverfahren. Infolgedessen werden auf dieser Website keine offiziellen Daten von vor 1983 veröffentlicht.

Wenn man etwas tiefer gräbt,  wird einem der wahre Grund klar, warum sie die Daten vor 1983 gelöscht haben. Das Jahr 1983 registrierte die geringste Brandfläche. Ab 1983 konnten sie es so aussehen lassen, als würde die Brandfläche zunehmen.

In der Realität besteht keine Korrelation zwischen steigendem CO2 und der verbrannten Fläche. Die Brandfläche in den USA ist tatsächlich um 90 Prozent gesunken, als der CO2 Anteil noch auf vorindustriellem Niveau lag – aber die Behörde hat kürzlich auch dieses Dokument gelöscht:

Übersetzung des rot markierten Textteiles:

In den heutigem Gebieten der USA brannten in der vorindustriellen Zeit (1500 – 1800) durchschnittlich 145 Millionen Acres pro Jahr [~ 586.000 km², zum Vergleich Deutschland: 357,386 km²]. Heute werden jährlich nur 14 Millionen Acres  (Bundes- und Nicht-Bundesland) verbrannt

 

Fallen Sie nicht auf die täglichen Lügen herein, die von machtgierigen Politikern, willfährigen Wissenschaftlern und fremdfinanzierten Aktivisten verbreitet werden .

Die Beobachtungen zeigen, dass die KALTEN ZEITEN zurückkehren, dass die mittleren Breiten sich ABKÜHLEN,  im Einklang mit  der großen Konjunktion , der historisch geringen Sonnenaktivität , den  wolkenkeimbildenden kosmischen Strahlen und einem  meridionalen Jetstream-Fluss (neben anderen Einflüssen).

Sowohl NOAA als auch NASA scheinen sich jedoch einig zu sein – wenn Sie zwischen den Zeilen lesen. NOAA sagt, dass wir  Ende der 2020er Jahre ein  „ausgewachsenes“ Grand Solar Minimum erreichen  und die NASA sieht diesen bevorstehenden Sonnenzyklus  (25)  als “ das schwächste der letzten 200 Jahre “.

NASA veröffentlichte früher Artikel mit Überschriften wie:

Niedrige Temperaturen während des Maunder-Minimums

…. Von 1650 bis 1710 sanken die Temperaturen in weiten Teilen der nördlichen Hemisphäre, als die Sonne in eine ruhige Phase eintrat, die jetzt als Maunder-Minimum bezeichnet wird. Während dieser Zeit traten nur sehr wenige Sonnenflecken auf der Sonnenoberfläche auf, und die Gesamthelligkeit der Sonne nahm leicht ab. Bereits mitten in einer überdurchschnittlich kälteren Zeit, der kleinen Eiszeit, gerieten Europa und Nordamerika in einen Tiefkühlzustand: Alpengletscher erstreckten sich über Ackerland bis ins Tal; Meereis kroch südlich von der Arktis; und die berühmten Kanäle in den Niederlanden froren regelmäßig ein – ein Ereignis, das heute selten ist.

… Der Einfluss des Sonnenminimums ist in diesem Bild deutlich zu sehen, das den Temperaturunterschied zwischen 1680, einem Jahr im Zentrum des Maunder-Minimums, und 1780, einem Jahr normaler Sonnenaktivität. Tiefes Blau in Ost- und Mittel-Nordamerika sowie in Nord-Eurasien zeigt, wo der Temperaturabfall am größten war. Fast alle anderen Landflächen waren 1680 ebenfalls kühler, was durch die unterschiedlichen Blautöne angezeigt wird. Die wenigen Regionen, die 1680 wärmer zu sein scheinen, sind Alaska und der östliche Pazifik (links), der Nordatlantik südlich von Grönland (links von der Mitte) und nördlich von Island (oben in der Mitte).

Darüber hinaus können wir die Vielzahl neuer wissenschaftlicher Arbeiten nicht ignorieren, in denen die immensen Auswirkungen  des Beaufort Gyre  auf den Golfstrom und damit auf das Klima insgesamt dargelegt werden.

https://electroverse.net/u-s-has-been-cooling-since-the-1930s/

Übersetzt durch Andreas Demmig

Nachsatz:

Über „Manipulation“ berichteten wir auf Eike schon häufig. Nutzen Sie die Suchfunktion um die Beiträge zu finden.

 

 




Die Temperaturen im März und energiepolitische Wirrungen

Die weitere Entwicklung wird maßgeblich davon abhängig sein, ob La Niña ausläuft oder sich in der 2.Hälfte des Jahres verstärkt fortsetzt. Die Chancen stehen laut der US- amerikanischen Wetter- und Ozeanografiebehörde NOAA  60 zu 40, dass der Ost- Pazifik wieder bis Juni zu normalen Temperaturen (graue Balken) zurückkehrt. Danach erwartet die NOAA eher eine zweite La Niña (blaue Balken). Dann sind kühlere Temperaturen wie vor zehn Jahren zu erwarten.

von Prof. Vahrenholt

von Prof. Vahrenholt

Die Wirrungen der Energiewende: die Zerstörung des Schwarzwaldes durch Grün-Schwarz

Die Koalitionsgespräche in Baden-Württemberg zwischen Grünen und CDU haben den ersten Verlierer fest vereinbart den baden-württembergischen Wald. Die erste und offenbar wichtigste Vereinbarung der Sondierungsgespräche ist die Festlegung der „Vermarktung von Staatswald- und Landesflächen für die Windkraftnutzung. So können bis zu 1000 neue Windkraftanlagen entstehen“.
 Die bedeutendste Fläche des Landes ist in der Tat der Staatswald mit 329 000 ha Fläche. Zieht man von dieser Fläche die Nationalparkflächen ab (dort wird man es wohl nicht wagen, Schneisen zu schlagen), bleibt immer noch eine Fläche von 190 000 ha übrig. Davon müsste man eigentlich noch die Vogelschutzgebiete und FFH Gebiete, soweit sie nicht in den Nationalparkflächen enthalten sind, abziehen. Aber selbst wenn man das nicht tut, kommt ein Windrad (Minister Altmaier: Die Kathedralen der Energiewende) auf 190 ha. Das ist eine Fläche von 1,4 mal 1,4 km². Also stehen dann im Abstand von 1,4 km jeweils ein Windrad mit den entsprechenden Zufahrtsstraßen, die die Waldstücke zerschneiden.
Damit die Verbreitung in Windkraftanlagen in naturempfindlichen Gebieten besser vorankommt, hatte ja bereits im November 2020 AGORA Energiewende, der Thinktank, der die Bundesregierung berät, die Lockerung des Tötungsverbots geschützter Arten im Naturschutzrecht verlangt.

Doch selbst 1.000 Windkraftanlagen bieten keine gesicherte Stromversorgung im windschwachen Ländle. Der Wegfall der Kernkraftwerke wie Philippsburg 2 (immerhin 13 % der Stromversorgung), kann nur durch stärkeren Import von Strom aus dem Ausland kompensiert werden, darunter das älteste Kernkraftwerk der Welt, das Kernkraftwerk Beznau, das nur sechs Kilometer südlich der baden-württembergischen Grenze im Kanton Aargau steht. Baden-Württemberg verteufelt die Kernkraft, nimmt aber gerne den Strom aus ausländischen Kernkraftwerken.
Wer mag, kann ja mal 1000 Windkraftwerke in die dunkelgrünen Flächen der untenstehenden Grafik einzeichnen.

Quelle für die Grafik: ForstBW

Die Energiewende vor dem Scheitern 

Aber was für Baden-Württemberg schiefgehen wird, geht auch in ganz Deutschland nicht auf. Der Bundesverband der Energie- und Wasserwirtschaft BDEW rechnet durch den Kernenergieausstieg (-8 GW) und den Kohleausstieg (-10 GW) trotz eines Zubaus von 4 GW Gaskraftwerken bis Ende 2022 mit einer Unterversorgung Deutschlands mit Strom. Dadurch „sinkt bis 2023 die konventionelle Kraftwerkskapazität von heute 90 GW auf 75,3 GW. Die Jahreshöchstlast hingegen wird laut Prognose der Bundesnetzagentur dann etwa 81,8 GW betragen“. Da weder Wind- noch Solarenergie gesicherte Leistung liefern, wird es dann, so der BDEW, „eine Lücke an gesicherter Leistung“ geben.

Das ist mittlerweile auch dem Bundesrechnungshof (BRH) aufgefallen. In seiner Pressemitteilung zum Sonderbericht vom 30.März 2021 titelt der Rechnungshof: „Sichere und bezahlbare Stromversorgung zunehmend in Gefahr“. Es lohnt sich die Langfassung des Berichtes zu lesen. Selten ist ein Bundesministerium so abgewatscht worden, wie das Wirtschaftsministerium unter Peter Altmaier. Der Rechnungshof kommt zum Ergebnis, dass die durch den Kernenergie- und Kohleausstieg entstehenden Netzengpässe bis 2025 nicht beseitigt werden (S.30).
Der Bundesrechnungshof geht weiter davon aus, dass die Letztverbrauchspreise für Strom in den kommenden Jahren weiter steigen werden. Schon heute liegen die Strompreise um 43% über dem Durchschnitt in Europa.
Nach seiner Auffassung wirken sich folgende Faktoren gleichzeitig auf die Strompreise aus:

•Der weitere Zubau nachfrageunabhängig produzierender Erneuerbare-Energien-Anlagen.

•der dadurch in großem Umfang notwendige Netzausbau und

derzeit noch fehlende Speicherkapazitäten für Strom aus erneuerbaren Energien.

Das Fazit ist alarmierend: „Der Bundesrechnungshof sieht die Gefahr, dass die Energiewende in dieser Form den Wirtschaftsstandort Deutschland gefährdet, die finanzielle Tragkraft der letztverbrauchenden Unternehmen und Privathaushalte überfordert und damit letztlich die gesellschaftliche Akzeptanz aufs Spiel setzt. Nach Schätzungen aus dem Jahr 2016 müssen in den Jahren 2000 bis 2025 rund 520 Mrd. Euro (nominal) einschließlich der Netzausbaukosten für die Energiewende im Bereich der Stromerzeugung aufgebracht werden.“
Der Bundesrechnungshof bekräftigt deshalb seine Auffassung, dass es nicht vorrangig Ziel sein kann, die Energiewende „um jeden Preis“ umzusetzen.“(S.48)

Das hätte ich nicht besser formulieren können.
Mehr zu diesen Themen sehen Sie auf der Klimaschau Nr. 26 von Sebastian Lüning.




CO2 und Korona

Die Forscher schätzen, dass die täglichen globalen CO2-Emissionen Anfang April 2020 gegenüber dem Durchschnittswert von 2019 um 17% gesunken sind. In der Spitze gingen die Emissionen in einzelnen Ländern durchschnittlich um –26% zurück. Die Auswirkungen auf die jährlichen Emissionen im Jahr 2020 hängen von der Dauer der Maßnahmen ab, mit einer niedrigen Schätzung von –4% und einer hohen Schätzung von –7% für das gesamte Jahr.

Die folgende Grafik zeigt den von GCP berechneten CO2 – Rückgang (roter Graph). Die vertikale Achse zeigt die Emissionen pro fossilem CO2. Das sieht beeindruckend aus:

Datenquelle Le Quéré et al 2020

Jetzt habe ich die publication by Le Quéré et al gelesen und die verwendete Methode war leicht zu verfolgen. Es handelt sich um eine Schätzung der CO2-Emissionen auf der Grundlage von Daten, die bis Ende April in über 70 Ländern, einschließlich des Großteils der USA und China, verfügbar waren. Sie untersuchten den Energieverbrauch, das Produktionsvolumen und die ergriffenen Korona Maßnahmen. Alles in allem sehr plausibel und sicherlich keine wissenschaftliche Tour de Force. Die Tatsache, dass dies bei Nature veröffentlicht werden konnte, wird daher hauptsächlich auf die politisch-soziale Belastung des Themas zurückzuführen sein.

Ich bin sehr gespannt auf die Folgen der bemerkenswerten Reduzierung der CO2-Emissionen auf den CO2-Gehalt der Atmosphäre, denn darum geht es. Am 12. Februar schrieb ich in einem Beitrag  darüber, dass zu diesem Zeitpunkt keine Auswirkungen auf den CO2-Gehalt in der Atmosphäre zu sehen waren. Aber das war noch zu früh in der Koronakrise. Es mag jetzt anders sein, aber die Autoren des vorliegenden Berichts selbst warnen davor, dass diese Effekte enttäuschend sein könnten:

Beobachtungen der CO2-Konzentration in der Atmosphäre sind nahezu in Echtzeit verfügbar, aber der Einfluss der natürlichen Variabilität des Kohlenstoffkreislaufs und die Meteorologie ist groß und maskiert die Variabilität des anthropogenen Signals über einen kurzen Zeitraum“.

Trotzdem suche ich nach einem Zeichen in der Atmosphäre, dass die Emissionen in den letzten Monaten so stark gesunken sind. Aber zuerst ein notwendiger Nebenschritt.

 

https://klimaatgek.nl/wordpress/wp-content/uploads/CO2-cyclus-GCP-Robbie-Andrew.jpg

Quelle: Robbie Andrew und Global Carbon Project

Die obige Abbildung zeigt den CO2-Kreislauf auf der Erde. Die Zahlen sind in Gt (Gigaton) CO2 / Jahr angegeben. Es ist ersichtlich, dass die Gesamtemission von fossilem CO2 auf 35 Gt / Jahr geschätzt wird. Aber es gibt zwei Teile im Zyklus, die klein gedruckt sind, aber große Zahlen enthalten. Ich habe sie mit einer roten Linie markiert. Dies sind die natürlichen Emissionen (Aufwärtspfeile) von CO2 aus dem Land (440 Gt / Jahr) und aus den Ozeanen (330 Gt / Jahr). Beide haben einen Pfeil nach unten mit genau den gleichen Zahlen. Die verwendete Hypothese ist, dass diese Ströme im Gleichgewicht sind.

Zählen wir: 35 Gt Fossil von insgesamt 35 +440 + 330 Gt bedeuten, dass ~ 4,3% des gesamten jährlichen CO2-Flusses in die Atmosphäre aus fossilen Brennstoffen stammen. Ungefähr die Hälfte davon wird von Land und Ozeanen wieder aufgenommen, lautet die Hypothese. Der Rest dieses – relativ geringen – menschlichen Beitrags wird nach der Hypothese nicht absorbiert und erhöht den atmosphärischen CO2-Gehalt. Dies bedeutet, dass der Anstieg des CO2-Gehalts in der Atmosphäre seit der Industrialisierung zu 100% auf den Menschen zurückzuführen ist. Weil die (enormen) natürlichen CO2-Flüsse von Land und Ozeanen nach derselben Hypothese ausgeglichen sind.

Schauen wir uns nun (einen Teil) der Messungen des atmosphärischen CO2 an, die ab 1958 auf der Insel Mauna Loa in Hawaii durchgeführt wurden:

Datenquelle NOAA

Die rote Linie ist die gemessene CO2-Konzentration in ppm. Nach der Hypothese ist dieser Anstieg des CO2-Ausstoßes daher ausschließlich auf anthropogene CO2-Emissionen zurückzuführen. Es ist wahr, dass die natürlichen CO2-Ströme viel größer sind als die durch menschlichen Ursprung, aber wir wissen, dass die Hypothese besagt, dass diese natürlichen Flüsse in Richtung Atmosphäre zu 100% mit den Flüssen ausgeglichen sind, die von Land und Ozeanen absorbiert werden. Einige Leute denken jetzt, dass das sehr seltsam ist, dass ein kleiner Anstieg des menschlichen Einflusses die steigende CO2-Linie in der Atmosphäre verursacht. Das denke ich auch, aber es ist theoretisch möglich.

Die rote Linie ist leicht gewellt, dies sind die natürlichen Schwankungen aufgrund saisonaler Veränderungen. Dies ist in der folgenden Grafik deutlich zu sehen:

Datenquelle NOAA

Es handelt sich um die Messungen des vergangenen Jahres. Jeder schwarze Punkt ist eine tägliche Messung. Die roten Linien sind die wöchentlichen Durchschnittswerte, die blauen Linien die monatlichen Durchschnittswerte. Die jährliche Schwankung ist das Ergebnis der Tatsache, dass die Vegetation im Sommer auf der nördlichen Halbkugel viel CO2 aus der Luft extrahiert, um zu wachsen.

Im letzten Teil der Grafik in den Monaten Januar bis Mai 2020 versuche ich, eine flachere Entwicklung oder sogar eine Abnahme der Messdaten infolge der starken Abnahme der CO2-Emissionen zu sehen, aber ich sehe nichts. Das ist komisch, denn in der ersten Grafik dieses Beitrags ist dieser Rückgang wirklich spektakulär [gezeichnet].

Nun ist es wahr, dass das Forscherteam selbst festgestellt hat, dass die Messungen in der Atmosphäre durch die natürliche Variabilität maskiert werden. Die mit Abstand größte natürliche Variabilität des CO2-Signals ist die saisonale Fluktuation. In der vorletzten Grafik hat NOAA mit dieser schwarzen Linie angegeben, wie das CO2-Signal ohne diese saisonalen Schwankungen aussehen würde. Sie finden die Zahlen auch auf der NOAA-Website, deren Daten als „Trend“ bezeichnet werden. Ich habe ein Diagramm daraus gemacht:

Datenquelle  NOAA

Die Zahlen stammen vom 1. Januar 2010 bis zum 19. Mai 2020. Die blaue Linie zeigt die täglichen CO2-Werte, wobei die saisonalen Schwankungen entfernt wurden. Hier sehen Sie – nach der Hypothese – die Folgen der menschlichen CO2-Emissionen, wobei (fast) alle natürlichen Einflüsse beseitigt sind. Ich habe eine lineare Trendlinie darin gezeichnet, um zu sehen, ob sich der letzte Teil dieser Linie nicht nach unten biegt. Ich sehe nichts. Um sicherzustellen, dass ich auch den Unterschied zwischen der blauen Linie und der Regressionslinie grafisch dargestellt habe:

Datenquelle  NOAA

In den letzten Monaten gab es keine Anzeichen für eine Reaktion des atmosphärischen CO2. Die Trendzahlen für 2020 liegen sogar über der Regressionslinie. Das verspricht etwas, wenn wir in den Niederlanden die CO2-Emissionen “ für das Klima “ um einen wahnsinnigen Betrag von vielen, vielen Milliarden Euro reduzieren. Und nicht zu vergessen die 1000 Milliarden Frans Timmermans.

 

Beitrag übernommen mit freundlicher Genehmigung von Rob de Vos.

https://klimaatgek.nl/wordpress/2020/05/21/co2-en-corona-2/#more-6249

Übersetzung bearbeitet von Andreas Demmig

 

[Franciscus Cornelis Gerardus Maria „Frans“ Timmermans ist ein niederländischer Politiker. Er ist seit dem 1. Dezember 2019 geschäftsführender Vizepräsident und Kommissar für Klimaschutz in der Kommission von der Leyen. Wikipedia]

Dazu im Handelsblatt:

EU will massiv auf Wasserstoff setzen

Der Vizechef der EU-Kommission sieht den „Green Deal“ als Chance für Europa. Timmermans strebt eine führende Rolle beim Thema Wasserstoff an.




Wie Klimadaten in den USA manipuliert werden – Erwärmung statt Abkühlung?

https://realclimatescience.com/

Die * „National Oceanic and Atmospheric Administration“ NOAA ist die Wetter- und Ozeanografie­behörde der Vereinigten Staaten. Sie wurde am 3. Oktober 1970 als eine Einrichtung des Handelsministeriums gegründet, um die nationalen Ozean- und Atmosphärendienste zu koordinieren. Ihr Sitz ist die Bundeshauptstadt Washington.

Heller zeigt, wie die Klimatologen in den USA mit Hilfe des „Beobachtungszeitraum-Fehlers“ eine Abkühlung der USA nach 1960 in eine Erwärmung ummünzen, um das klimapoltische CO2-Narrativ zu unterstützen.


 

 




Offizielle Klimadatenfälscher

Tony Heller hat einen sehr eindrücklichen Weg gefunden, um zu zeigen, wie NASA und NOAA und all die anderen, die angeblich die Temperatur der Erde messen und in Abbildungen darstellen wollen, die Rohdaten, auf denen ihre Abbildungen basieren, fälschen. In Fälscherkreisen heißt dies natürlich nicht fälschen, sondern Adjusitieren oder Anpassen oder Harmonisieren. Wie auch immer es benannt wird, es bleibt Fälschung und wie alle Fälschung, so kann man auch die in Kollusion in den USA, Japan, dem Vereinigten Königreich (der Wiege von Climategate) vorgenommene Datenfälschung als solche aufdecken, wenn man ein Experte in Originalen ist.

Wenn z.B. auf Basis der Originaldaten gezeigt werden kann, dass vergangene Jahre, in denen Gletscher verschwunden sind, in denen in der Arktis viel weniger Eis war als derzeit (also z.B. die Jahre 1902, 1922 oder 1939) in den Daten der Klimawandel-Alarmisten kälter waren als heute, obwohl die Folgen, die in der zeitgenössischen Presse und der zeitgenössischen wissenschaftlichen Literatur berichtet werden, ein viel wärmeres Klima voraussetzen als heute, während Jahre, in denen die Arktis in Eis ertrunken ist (1963, 1973) und die Sorge vor einer neuen Eiszeit umging, in den Temperaturdaten von NASA oder NOAA, wärmer sind als die zuvor beschriebenen Jahre (1902, 1922, 1939), in denen Grönland fast eisfrei war, dann kann man nicht anders als die für diese Daten Verantwortlichen als Fälscher oder Betrüger zu bezeichnen.

Was wir hier in Worte gefasst haben, hat Tony Heller zum Gegenstand eines seiner besten Videos gemacht. Wir machen daraus eine neue dpa-Wichtel Challenge: Wie kann man erklären, dass in den Daten, die allen Prognosen zum menschengemachten Klimawandel zugrunde liegen, Jahre, in denen die Arktis sich vor Eis nicht retten konnte (1963 und 1973) viel wärmer abgebildet werden als Jahre, in denen die Arktis und Grönland fast eisfrei waren (1902, 1922, 1939)?

Das Video von Tony Heller verdient es, in jedem Forum, jedem blog, jeder Kommentarspalte die Klimawandel zum Gegenstand haben, hinterlassen zu werden. Wie immer können diejenigen, die der englischen Sprache nicht mächtig sind, hier klicken und über die Settings (Subtitels English autogenerate, dann auto-translate German) deutsche Untertitel einstellen.

Der Beitrag erschien zuerst bei ScienceFiles hier




Das Ozonloch schrumpft im Oktober 2019 auf die kleinste Größe seit 1982

Das „Loch“ in der Ozonschicht, befindet sich in etwa über der Antarktis, erfuhr wegen „abnormal“ Wetters in der oberen Atmosphäre eine massive Verkleinerung im September und Oktober.  was zu seiner kleinen Ausdehnung führte. Nach den seit 1982 begonnenen Beobachtungen , war dies jetzt die geringste Ausdehnung, wie Wissenschaftler der  NASA und NOAA berichteten.

Die Satellitenmessungen ergaben, dass das Ozonloch am 8. September eine Spitzengröße von 6,3 Millionen Quadratmeilen [~ 16 Mio qkm] erreichte, für den Rest des Monats September und Oktober jedoch auf weniger als 3,9 Millionen Quadratmeilen [~10 Mio qkm] abnahm. Wissenschaftler, die das Ozonloch beobachten, wiesen darauf hin, dass die Veränderungen zumeist auf atypischen Wettermustern beruhen und nicht auf einer dramatischen Erholung.

„Es sind großartige Neuigkeiten vom Ozon in der südlichen Hemisphäre“, sagte Paul Newman, Chefwissenschaftler für Geowissenschaften am Goddard Space Flight Center in Greenbelt, Maryland, in einer Erklärung. „Aber es ist wichtig zu erkennen, dass das, was wir in diesem Jahr sehen, auf wärmere Temperaturen in der Stratosphäre zurückzuführen ist. Es ist kein Zeichen dafür, dass sich das Ozon in der Atmosphäre plötzlich auf dem schnellsten Weg zur Erholung befindet. “

Scientists from NASA and NOAA work together to track the ozone layer throughout the year and determine when the hole reaches its annual maximum extent. This year, unusually strong weather patterns caused warm temperatures in the upper atmosphere above the South Pole region of Antarctic, which resulted in a small ozone hole.
Credits: NASA Goddard/ Katy Mersmann

 

Wie ein Sonnenschutz oberhalb der Erde, bildet die Ozonschicht einen Teil der Erdatmosphäre und absorbiert nahezu die gesamte ultraviolette Strahlung der Sonne, sodass gerade genug [Strahlung] für das Gedeihen des Lebens bleibt. Die Ozonschicht selbst ist ein dünner Abschnitt der Stratosphäre, in der laut National Geographic das Verhältnis von Ozongasmolekülen zu Luftmolekülen etwa 3 zu 10 Millionen beträgt. Trotzdem schützt diese dünne Schicht den Menschen vor Hautkrebs, grauem Star und anderen Krankheiten.

Das Loch in der Ozonschicht schwankt das ganze Jahr über. Das Loch bildet sich in der Regel von Ende September bis Anfang Oktober auf eine maximale Größe von rund 8 Millionen Quadratmeilen. Insbesondere bildet sich das Loch, wenn Sonnenstrahlen im späten Winter auf der südlichen Hemisphäre mit den Ozonmolekülen und menschen-verursachten Verbindungen interagieren.

[Hier gemeint: FCKW – Mehr auf einer Schulungswebseite]

Solche Ereignisse können jedoch bei gewöhnlich wärmeren Temperaturen gemildert werden.

„Bei wärmeren Temperaturen bilden sich weniger polare Wolken in der Stratosphäre und sie halten nicht so lange an, was den Prozess des Ozonabbaus einschränkt“, heißt es in einer gemeinsamen Erklärung von NASA und NOAA.

„Es ist ein seltenes Ereignis, das wir immer noch zu verstehen versuchen“, sagte Susan Strahan, Atmosphärenforscherin bei der Universities Space Research Association, in einer Erklärung am Montag. „Wenn die Erwärmung nicht stattgefunden hätte, würden wir wahrscheinlich ein viel typischeres [größeres] Ozonloch feststellen.“ Strahan stellte fest, dass solche üblichen Wettermuster in der Vergangenheit z.Bsp. in 1988 und 2002 kleine Ozonschichten erzeugt haben.

Das rekord-kleine Ozonloch war eine Folge des warmen Wetters; Wissenschaftler der NASA stellten jedoch fest, dass das Loch tatsächlich langsam kleiner wird – ein Ergebnis des Montrealer Protokolls von 1987, mit dem Fluorchlorkohlenwasserstoffe weltweit aus dem Verkehr gezogen wurden.

Gefunden auf

https://dailycaller.com/2019/10/22/ozone-layer-hole/

Übersetzt durch Andreas Demmig




Polar Vortex – „kein Grund alarmiert zu sein“ – so die amerikanische Wetter Behörde

Der polare Wirbel ist ein großer Bereich mit niedrigem Druck und kalter Luft, der die beiden Pole der Erde umgibt. Er existiert IMMER in der Nähe der Pole, schwächt sich ab im Sommer und stärkt sich im Winter. Der Begriff „Wirbel“ bezieht sich auf den Luftstrom entgegen dem Uhrzeigersinn, der dabei hilft, die kältere Luft in der Nähe der Pole zu halten.  In der nördlichen Hemisphäre dehnt sich der Polarwirbel im Winter oftmals aus, so dass kalte Luft mit dem Jetstream nach Süden geschickt wird (siehe Grafik oben). Dies tritt während der Winterzeit ziemlich regelmäßig auf und ist in den Vereinigten Staaten häufig mit großen Ausbrüchen arktischer Kaltluft verbunden.  Der im Januar 2014 aufgetretene ähnelt vielen anderen kalten Ausbrüchen, die in der Vergangenheit aufgetreten sind, darunter mehrere bemerkenswerte kältere Ausbrüche in den Jahren 1977, 1982, 1985 und 1989.

Es gibt mehrere Dinge, die der Polarwirbel NICHT ist.  Polarwirbel sind nichts Neues.  Der Begriff „Polarer Wirbel“ wurde erst kürzlich populär gemacht, um auf ein Wettermerkmal aufmerksam zu machen, das schon immer präsent war. Es ist auch kein Merkmal, das auf der Erdoberfläche existiert (vorkommt). Wetterprognostiker untersuchen den Polarwirbel, indem sie Bedingungen betrachten, die in einer Höhe von mehreren Zehntausend Fuß [> 3.000 m und mehr] in der Atmosphäre vorherrschen. Wenn wir jedoch extrem kalte Luft aus den arktischen Regionen an der Erdoberfläche spüren, wird dies manchmal mit dem Polarwirbel.  Dies ist nicht auf die Vereinigten Staaten beschränkt. Teile Europas und Asiens erleben ebenfalls Kältewellen, die mit dem Polarwirbel in Verbindung gebracht werden. Die einzige Gefahr für den Menschen besteht allein darin, wie stark die Kälte wird, wenn sich der polare Wirbel ausdehnt, wodurch arktische Luft in südliche Regionen gerät, die normalerweise nicht so kalt sind.

Kurz gesagt, es gibt keinen Grund, alarmiert zu sein, wenn Sie von Polarwirbel hören, aber Sie sollten auf kältere Temperaturen vorbereitet sein. Überprüfen Sie die Vorhersage für Ihre Region auf    weather.gov,  [https://www.wetter.de/] um sicherzustellen, dass Sie angemessen gekleidet sind. Es ist auch eine gute Idee, zu Beginn jeder Wintersaison die Gegenstände in Ihrem Heim- und Auto-Notfall-Set zu überprüfen um sicherzustellen, dass Sie auf jedes gefährliche Winterwetter vorbereitet sind.

Gefunden auf National Weather Service, der NOAA

Übersetzt durch Andreas Demmig

https://www.weather.gov/safety/cold-polar-vortex




Die Hurrikan Saison 2018 ist nun zu Ende – Übersichtsbericht

„Die Saison 2018 verlief mit 15 benannten Stürmen, 8 Hurrikanen und 2 großen Hurrikanen leicht über dem Normalwert“, twitterte der Meteorologe der Colorado State University, Philip Klotzbach.

Im Atlantikbecken gibt es laut Klotzbach im Durchschnitt 12 benannte Stürme, sechs Hurrikane und zwei große Hurrikane.

Sehen Sie dieses Original auf Twitter

Die im April beginnende Hurrikane-Saison in Atlantik begann ruhig, und bis zum Hurrikan Florence Mitte September bildeten sich keine größeren Hurrikane. Florenz erreichte die Stärke der Kategorie 5 auf See, wurde jedoch schnell schwächer, bevor er die Küste von North Carolina erreichte.

Florence wurde jedoch langsamer, als sie die Küste von Carolina traf und es gab Rekordmengen an Niederschlag in der Region, was wochenlange, katastrophale Überschwemmungen verursachte. Insgesamt wurden 51 Todesfälle auf Florenz zurückgeführt.

Der Hurrikan Florenz verursachte nach einer Schätzung von Accuweather einen wirtschaftlichen Schaden von über 30 Milliarden US-Dollar . Wenn das zutrifft, wäre Florenz der zweit – zerstörerischste Hurrikan, der North Carolina traf [in welchem Zeitraum ist nicht angegeben, der Übersetzer]

NOAA Hurricane Hunter Flight into Hurricane Florence 9 Sept 2018

2018 Sep 09 Video Player
Screenshot des Fluges durch Hurrikan Florence vom 09.Sept. 2018,

 

Einige Wochen später entwickelte sich Hurrikan Michael im Golf von Mexiko und traf den Florida Panhandle [der nordwestliche Küstenstreifen] mit fast einer Stärke der Kategorie 5. Michael traf die Küste mit Windgeschwindigkeiten von fast knapp 250 km/h und massiver Sturmflut.

Michael war der mächtigste Sturm der in Panhandle verzeichnet wurde. Er verwüstete die Bucht von Mexico und ließ mehr als 40 Menschen sterben. Nach Schätzungen belief sich der Sturmschaden auf über 30 Milliarden US-Dollar, davon waren etwa 8 Milliarden US-Dollar versichert .

Nach Hurrikan Michael bildeten sich nur zwei weitere benannte Stürme, Nadine und Oscar, im Atlantik.

[Recherchiert: Die Namenslisten werden von der Weltorganisation für Meteorologie (WMO) in Genf geführt. Namen vergeben werden aktuell von den Wetterdiensten, die für das jeweilige Seegebiet zuständig sind. Z.B. das National Hurricane Center (NHC) in Miami/Florida ist für Warnungen vor Stürmen auf dem Atlantik und den Nordostpazifik zuständig. Der Übersetzer]

 

(RELATED: Why Is The US Climate Report So Alarmist? That’s What Obama Wanted)
Warum ist der US-Klimabericht so alarmierend? Weil Obama es so wollte

  • EPA-Chef Andrew Wheeler weist darauf hin, dass die Obama-Regierung die Autoren des US-Klimaberichts dazu drängte, „Worst-Case“ -Szenarien aufzubauschen.
  • Der ehemalige Obama-Wissenschaftszar John Holdren sagte, dies sei „falsch“, erwähnt jedoch nicht eine interne Anweisung aus dem Jahr 2015, die seinem Standpunkt widerspricht.
  • Der jüngste US-Klimabericht konzentriert sich auf „Worst-Case“ -Vorhersagen, die von Experten zunehmend in Frage gestellt werden. Dazu auch ein Bericht auf Eike

Trotz der zwei schädlichen Hurrikane war die Atlantik-Hurrikan-Saison 2018 nur etwa halb so intensiv wie die Saison 2017 . In der Hurrikan-Saison des Jahres 2017 wurden die USA von drei mächtigen Hurrikanen getroffen – Harvey, Irma und Maria. Auch diese verursachten Schäden in Milliardenhöhe.

Gefunden auf The Daily Caller vom 30.11.2018

Übersetzt durch Andreas Demmig

https://dailycaller.com/2018/11/30/hurricane-season-ends-damage-death/

 

Links des NOAA National Hurricane Center

Meldungen zu Hurricane FLORENCE  (Archiv)

Aufmacherbild: https://www.nhc.noaa.gov/refresh/graphics_at1+shtml/203821.shtml?gm_track#contents

 




NOAA erneut ertappt: Datenmani­pulation, diesmal mit der Elimi­nierung einer Rekord-Kältewelle

Dieses Mal waren die Daten betroffen, welche die jüngste Rekord-Kältewelle im Nordosten der USA belegen. Die NOAA möchte diese Kältewelle aus der Historie entfernen.

Falls man die NOAA-Graphiken zum Maß aller Dinge macht, gibt es nichts besonders Ungewöhnliches hinsichtlich der Kälte dieses Winters, welche dazu geführt hat, dass Haie im Ozean erfroren sind und Leguane von den Bäumen fielen (hier).

Die NOAA-Graphik vom Januar 2018 für den Nordosten der USA sieht folgendermaßen aus (das Gebiet umfasst die Neuengland-Staaten sowie die angrenzenden Staaten NY, PA, NJ, DE und MD):

Man würde beim Betrachten dieser Graphik nie darauf kommen, dass es in diesem Gebiet jüngst zu einer Rekorde brechenden Kältewelle gekommen war, oder?

Das liegt daran, wie Paul Homewood entdeckt hat, dass die NOAA die Daten manipuliert hat. Wieder einmal hat die NOAA Temperaturen in der Vergangenheit nach unten korrigiert, um sie kälter aussehen zu lassen, als sie waren, während sie Temperaturen aus jüngster Zeit nach oben korrigiert hat, damit sie wärmer aussehen als sie waren. Gründe? Vermutlich haben die Gründe mehr mit Ideologie als mit Meteorologie zu tun.

Wir sprechen hier nicht über Grad-Bruchteile. Die Korrekturen addieren sich zu atemberaubenden ca. 1,7°C! Das liegt weit jenseits aller Fehlerbandbreiten oder einfacher Fehler und reicht tief in den Bereich Fiktion und politische Propaganda.

Aufmerksam wurde Homewood auf diese Manipulationen, als er die Datensätze von New York unter die Lupe nahm.

Vor allem irritierte ihn, wie die NOAA mit dem besonders kalten Winter umgegangen war, der New York 2013/14 heimgesucht hatte, was er hier beschreibt.

————————–

Die ganze Story von James Delingpole steht hier. Ich empfehle die Lektüre dringend. Er kommentiert ganz am Schluss:

Das ist ein Skandal! Die Klima-Wächter der NOAA sind politische Aktivisten, aber keinesfalls ehrliche Wissenschaftler. Der US-Steuerzahler darf deren Propaganda nicht länger finanzieren!

Legt den Sumpf endlich trocken!

Politik und Medien bei uns machen ja auch begeistert mit. Kann man da wirklich nichts machen außer immer wieder auf derartige Praktiken hinzuweisen? – Chris Frey, Übersetzer

Link: https://wattsupwiththat.com/2018/02/20/noaa-caught-cooking-the-books-again-this-time-by-erasing-a-record-cold-snap/

Übersetzt von Chris Frey EIKE




Die südliche Hemisphäre hat in dieser Saison keinen einzigen Zyklon gesehen

Daten, die vom CSU Tropical Meteorology Project zusammengestellt wurden, zeigen, dass die Aktivität der Südlichen Hemisphären-Zyklone in der Saison 2017-2018 nur 8 Prozent des Durchschnittswertes betragen. Nur zwei namentlich genannte Stürme haben sich gebildet, aber keiner von ihnen erreichte Zyklonstärke.

Colorado State Universität,
Tropische Wirbelsturmaktivität der Nordhemisphäre für 2018 (2017/2018 für die südliche Hemisphäre)
1981-2010 Klimatologische Aktivität Bis Januar 02 in Klammern

Der Meteorologe Philip Klotzbach, CSU erwähnt, dass diese Saison sogar die Zyklonsaison 2016-2017 mit der geringsten akkumulierten Zyklonenergie (ACE – accumulated cyclone energy) unterboten hat. Wissenschaftler verwenden ACE, um die Stärke von Zyklonen oder Hurrikanen zu messen.

„Die Saison tropischer Wirbelstürme in der südlichen Hemisphäre ist in den letzten zwei Jahren sehr langsam angelaufen“,
schrieb Klotzbach in einem Tweet.

Colorado State University, Phillip Kotzbach Meteosat8

Typischerweise bilden sich in der Südhemisphäre zu dieser Zeit etwa drei Zyklone, von denen sich einer in der Regel zu einem großen Sturm verfestigt. Bisher haben sich nur zwei namentlich bekannte Stürme im Indischen Ozean gebildet, von denen keiner zu Zyklonen wurde.

Storm Dahlia bildete sich Ende November, verpuffte aber nach einigen Tagen. Ein weiterer Sturm, Hilda, bildete sich Ende Dezember kurzzeitig im Indischen Ozean.

Vorhersagen und deren Abschlussbewertung finden sich sich hier auf „two-weeks forecast“

Hier als Beispiel:
COLORADO STATE UNIVERSITY FORECAST OF ATLANTIC HURRICANE ACTIVITY FROM SEPTEMBER 29 – OCTOBER 12, 2017

Colorado State Universität, typische Zugrichtung der Wirbelstürme_1950-2008

Colorado State Universität, Durchschnitt der letzen 100 Jahre, Spitze der Aktivität ist im September

Während der Atlantik in diesem Jahr eine besonders aktive Hurrikansaison hatte, war es im dem Rest der Welt ruhiger als normal. Weltweit liegt die Zyklonaktivität bei etwa 88 Prozent des Normalen.

Obwohl, versuchen Sie das jemandem zu erzählen, der die Hurrikane Irma und Maria aus nächster Nähe erlebt hat. Puerto Rico ist noch immer dabei, sich von beiden Hurrikanen zu erholen, die fast die gesamte Stromversorgung der Insel ausschalteten. Den Berichten zufolge, sind drei Monate danach noch immer Millionen von Puerto-Ricanern ohne Strom.

Erschienen auf The Daily Caller am 30.12.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/12/30/the-southern-hemisphere-hasnt-seen-a-single-cyclone-this-season/




Ehemaliger Obama-Funktionär: Büro­kraten manipu­lieren Klima-Statistiken, um Politik zu beein­flussen

Unterstaatssekretär Steven Koonin im Energieministerium sagte dem Wall Street Journal, dass Funktionäre innerhalb der Regierung von Präsident Barack Obama wissenschaftliche Daten verfälscht haben, um die öffentliche Meinung zu manipulieren.

Was man zu den Presseerklärungen bzgl. Klimadaten und Klima-Analysen sagen kann ist, dass sie irreführend, manchmal einfach falsch waren“, sagte Koonin unter Verweis auf Elemente innerhalb der Obama-Regierung, welche für die Manipulation von Klimadaten verantwortlich waren.

[Ob das jemals in einer Zeitung hierzulande gemeldet wird? Der „Süddeutschen Zeitung“ vielleicht? Anm. d. Übers.]

Er verwies auf eine Nationale Klima-Einschätzung aus dem Jahr 2014, welche eine Zunahme der Hurrikan-Aktivität seit 1980 als Illustration heranzieht, wie öffentliche Agenturen Klimadaten verfälscht haben. Koonin sagte, dass die Einschätzung fachlich falsch war.

Was man Ihnen nicht gesagt hat und was Sie nicht erfahren werden, wenn Sie nicht vollständig das Kleingedruckte lesen ist, dass die Aktivität in den Jahrzehnten zuvor abgenommen hat“, sagte er. Die UN veröffentlichten im Jahre 2014 Berichte, die Koonins Aussagen im Wesentlichen spiegelten.

Das IPCC der UN berichtete:

…es gibt einige Beweise von Änderungen hinsichtlich der Extreme in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts“, und aktuelle Daten zeigen „keine signifikanten beobachteten Trends hinsichtlich der Häufigkeit tropischer Zyklone während des vorigen Jahrhunderts“.

Pressefunktionäre arbeiten mit Wissenschaftlern zusammen innerhalb von Organisationen wie NOAA und NASA. Sie sind verantwortlich für irreführende Presseerklärungen über das Thema Klima, fügte er hinzu.

Koonin ist nicht der einzige, der von Fehlverhalten spricht. Das Committee on Science, Space and Technology beispielsweise leitete ein Ermittlungsverfahren gegen die NOAA ein, nachdem ein Whistleblower bekannt gemacht hatte, dass die Wissenschaftler der Agentur mit Hochdruck eine Studie zur globalen Erwärmung verfälscht haben, um politische Entscheidungsträger zu beeinflussen.

Der Abgeordnete der Republikaner Lamar Smith (Texas), der Vorsitzende des Komitees, wird „so bald wie möglich“ anordnen, dass die NOAA Dokumente übergibt, welche in einer Vorladung zu potentiellen Klimadaten-Verfälschungen enthalten waren.

Koonin, der von 2009 bis 2011 unter Obama bedienstet war, fuhr fort, sich über die Politisierung der Wissenschaft zu beklagen und sagte, dass es der Ethos gebiete, „zu sagen, wie es ist. Sie sind ein Wissenschaftler, und es liegt in Ihrer Verantwortung, die Fakten auf den Tisch zu legen“.

Die Aktivitäten von NASA und NOAA, sagte er, sind problematisch, weil „sich die öffentliche Meinung mittels der Daten bildet, welche diese Organisationen zusammenstellen und welche in den Zeitungen erscheinen“.

Keine der Agenturen war vom Daily Caller für eine Stellungnahme erreichbar.

Mehr: http://dailycaller.com/2017/04/24/former-obama-official-says-climate-data-was-often-misleading-and-wrong/#ixzz4fGS3GICc

Link: https://wattsupwiththat.com/2017/04/25/former-obama-official-bureaucrats-manipulate-climate-stats-to-influence-policy/

Übersetzt von Chris Frey EIKE




Wie die neue Software der NOAA die regionale Erwärmung antreibt.

Die Offenlegungen von Dr. Bates über Karls ‚Pausebuster‘ der NOAA NCEI Studie haben das ganze Klima Brimborium geschaffen und Rep. Smith sogar dazu getrieben, die Vorlage der NOAA E-Mails erneut zu fordern. Dabei ist die Karl Studie im Vergleich zu anderen NOAA-Betrügereien ziemlich harmlos. Es hat kaum die Erwärmungspause entfernt und zeigt immer noch, dass die CMIP5 Klimamodelle im Vergleich zur Realität zu heiß laufen. Das Wichtigste war vor allem, dass die Politiker im Vorfeld zu Paris über die Widerlegung der Erwärmungspause sprachen.

Hier ist ein Beispiel für einen viel krasseren Vorgang, aber ein weniger beachteter. Es ist ein Auszug aus einem viel längerem Essay: „Wenn keine Daten vorhanden sind“, zu lesen im ebook „Blowing Smoke“. Es ist nicht global und betrifft nur die kontinentalen Vereinigten Staaten (CONUS). Aber es öffnet einem die Augen und ist unwiderlegbar.

NOAA’s USHCN  [U.S. Historical Climatology Network] Stationen werden verwendet, um den US-Teil von GHCN [Global Historical Climatology Network].zu erstellen. Sie werden auch verwendet, um die Temperaturhistorie der Bundesstaaten zu erstellen, die auf der NOAA Webseite zugänglich sind. Eine Studie aus dem Jahr 2011 [1] gab bekannt, dass NOAA bis Ende 2013 auf die aktualisierte und verbesserte CONUS-Software umgestellt wird. Das Programm, das bis zum Upgrade verwendet wurde, heißt Drd964x. Das Upgrade wurde von Ende 2013 bis 2014 in zwei Tranchen gestartet. Ende 2013 kamen die neuen grafischen Schnittstellen, die eine Verbesserung sind. Dann kam im Februar 2014 die neue Datenausgabe, die eine überarbeitete Stationsvorwahl, Homogenisierung und Rasterung beinhaltet. Die neue Version heißt nClimDiv.

Hier sind die Temperaturhistorien von drei Bundesstaaten.

Die erste ist Maine, wobei die Vorher / Nachher-Daten im neuen graphischen Format dargestellt werden.

Quelle WUWT

[Die Grafiken sind leider auch im Original nicht schärfer. Die X-Achse beginnt im gleichen Jahr

 

Quelle WUWT

Die zweite ist Michigan, die die grafischen Unterschiede von alter zu neuer Software zeigt.

 

Quelle WUWT

Und zum Schluss: Kalifornien

 

In jedem dieser Bundesstaaten wurde Null oder sehr geringe Erwärmung in deutliche Erwärmung konvertiert.

Eine selbstverständliche Frage könnte sein, ob eine verbesserte Homogenisierung (unter anderem „Entfernen“ städtischer Wärmeinsel (UHI) -Effekte) verantwortlich ist?

>> Einschub vom Übersetzer:

Der Autor schreibt im englischen Original:

No from first principles, because the NOAA/NASA UHI policy is to warm the past so that current temperatures correspond to current thermometers.

Übersetzen tue ich das mit:

Nein. Weil es zu den ersten politischen Grundsätzen von NOAA / NASA UHI gehört, die Vergangenheit zu erwärmen, damit gegenwärtige Temperaturen den gegenwärtigen Thermometern entsprechen.

Problem:

Nach meiner Meinung werden jedoch die Temperaturen der Vergangenheit abgesenkt, damit heute eine höhere Erwärmung sichtbar wird – so interpretiere ich auch die gezeigten Grafiken.

Vielleicht kann einer unserer Leser hierzu helfen, Danke

Ende Einschub <<

…  (erläutert mit NASA GISS Tokyo in dem viel längeren Buchaufsatz). Dies könnte in Kalifornien angemessen sein, dessen Bevölkerung sich von 1960 bis 2010 (138%) mehr als verdoppelte mit aktueller Dichte von ~ 91 Personen / km2. Maine repräsentiert einen ähnlichen Ozean und Berge Bundesstaat, ist aber viel ländlicher. Mains Bevölkerung wuchs nur um ein Drittel (34%) von 1960 bis 2010 und seine aktuelle Bevölkerungsdichte beträgt nur 16,5 Personen / km2. Maine sollte nicht die gleiche Notwendigkeit oder den Grad der Homogenisierung erfordern. Ohne die neueste Version des US-Teils von GHCN hätte Maine keine Erwärmung; Sein ‚AGW‘ wurde von nClimDiv produziert.

Es ist zwar ermüdend, alle 48 CONUS-Zustände hinsichtlich des Übergangs von Drd964x zu nClimDiv zu analysieren. NOAA gab 40 von 48 Staaten ’neue‘ AGW. Die Drd964x mittelfristige CONUS Erwärmung von 1895 bis 2012 war 0,088F / Jahrzehnt [~ 0,05K] Die neue nClimDiv-Rate von 1895 bis 2014 beträgt 0,135 F / Jahrzehnt, fast doppelt so hoch. Definitiv anthropogen, aber vielleicht keine wirkliche Erwärmung.

[1] Fennimore et. al., Transitioning…, NOAA/NEDIS/NCDC (2011) available at ftp.ncdc.noaa.gov/pub/data/cmb/GrDD-Transition.pdf

Erschienen auf WUWT am 07.02.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/02/07/even-more-on-the-david-rose-bombshell-article-how-noaa-software-spins-the-agw-game/

 




Wegen der Pressekonferenz von GISS und NOAA über die globalen Oberflächentemperaturen 2016

EINFÜHRUNG

Die Ozeane decken etwa 70% der Erdoberfläche ab, doch Klimamodelle sind in den vergangenen drei Jahrzehnten weit davon entfernt, die Oberflächentemperaturen dieser Ozeane auf globalen, hemisphärischen und individuellen Ozeanbeckenbasen zu simulieren. In den vergangenen jährlichen Modelldatenvergleichen haben wir das multimodale Mittel aller im CMIP5-Archiv gespeicherten Klimamodelle verwendet, für diesen Beitrag jedoch nur den Mittelwert der Outputs der drei CMIP5-archivierten Klima-Modell-Simulationen des Goddard Institute of Space Studies (GISS) [NASA] mit dem Ozeanmodell „Russell“. In den vergangenen Modelldatenvergleichen nutzen wir den ursprünglichen satellitengestützten Reynolds OI.v2 Seeoberflächen-Temperatur-Datensatz. In diesen Fall verwenden wir jedoch die „Extended Reconstructed Sea Surface Temperature Version 4“ [Erweiterte Rekonstruierte Seeoberflächen Temperatur] (ERSST.v4) von NOAA [National Oceanic and Atmospheric Administration  – Wetter- und Ozeanografiebehörde der Vereinigten Staaten]

Warum sind die Modellierungen und Daten unterschiedlich?

Sowohl NASA GISS als auch die NOAA NCEI verwenden NOAA’s ERSST.v4 „Pause Buster“ [~Beseitigung der Erwärmungspause…] -Daten für die Ozean-Oberflächentemperaturkomponenten ihrer kombinierten Land-Ozean-Oberflächentemperatur-Datensätze und heute halten beide Agenturen eine multiaktive Pressekonferenz, um ihre „in 2016 jemals Wärmsten überhaupt“ globalen Oberflächentemperaturentdeckungen. (Pressekonferenz startet um 11 Uhr Eastern – in deutschen Medien wurde davon berichtet) Und wir nutzen die GISS-Klimamodell-Outputs, weil GISS Teil dieser Pressekonferenz ist und ich vermute, dass GISS nicht aufzeigen wird, wie sehr daneben ihre Klimamodelle diese kritische globale Erwärmung simulieren.

 

Einführende Information

Der Meeresoberflächentemperatur-Datensatz, der in diesem Beitrag verwendet wird, ist das erweiterte Rekonstruierte Sea Surface Temperature-Datenblatt der NOAA, Version 4 (ERSST.v4), a.k.a. ihre „Pause-Buster“ -Daten. Wie oben erwähnt, bilden die ERSST.v4 Daten den Ozeananteil der NOAA und GISS globalen Land + Ozean Oberflächentemperatur. Die in diesem Beitrag präsentierten Daten stammen vom KNMI Climate Explorer, [Holländischer Think Tank] wo sie bei den „Monatsbeobachtungen“ unter der Überschrift „SST“ zu finden sind.

Die präsentierten GISS Klimamodelle sind diejenigen, die im Coupled Model Intercomparison Project, Phase 5 (CMIP5) Archiv gespeichert sind. Sie sind eine der jüngsten Generationen von Klimamodellen von GISS und wurden vom IPCC für ihren 5. Evaluierungsbericht (AR5) verwendet. Die GISS-Klimamodelle von Meeresoberflächentemperaturen sind über den KNMI Climate Explorer verfügbar und zwar über ihre monatliche CMIP5-Szenario-Webseite unter der Überschrift Ocean, ice und upper air variables. Die Meeresoberflächentemperatur wird als „TOS“ (Temperatur-Ocean-Surface ; – Meeresoberfläche) bezeichnet. Ich präsentiere den GISS-E2-R p1, GISS-E2-R p2 und GISS-E2-R p3, wobei das „R“ für Russell Ozean steht. (Ich präsentiere die GISS Modelle mit HYCOM Ozean Modell in einem bevorstehenden Post.) Die Historic / RCP8.5 Szenarien werden verwendet. Das RCP8.5-Szenario ist das Worst-Case-Szenario, das der IPCC für seinen 5. Evaluierungsbericht verwendet. Und wieder verwenden wir das Modellmittel, weil es die erzwungene Komponente der Klimamodelle darstellt; Das heißt, wenn die von den Klimamodellen verwendeten Forcierungen die Oberflächen der Ozeane zum Erwärmen veranlassten, stellt das Modell am besten dar, wie sich die Ozeanoberflächen durch diese Forcings erwärmen würden. Eine weitere Diskussion finden Sie im Beitrag über die Verwendung des Multi-Modells, das ein Zitat von Dr. Gavin Schmidt von GISS zu dem Modellmittel enthält.

Die Modell-Daten-Vergleiche sind absolut, keine Anomalien, so dass jährliche Daten präsentiert werden. Und die Modelle und Daten reichen zurück in der Zeit für die letzten 30 Jahre, 1987 bis 2016.

Die linearen Trends in den Grafiken sind berechnet mit EXCEL.

 

WARUM ABSOLUTE MEERES OBERFLÄCHENTEMPERATUREN ANSTATT VON ANOMALIEN?

Die Klima-Wissenschaftsgemeinde neigt dazu, ihre Modell-Daten-Vergleiche mit Temperatur-Anomalien [Abweichungen] und nicht in absoluten Temperaturen zu präsentieren. Warum?

Wie Dr. Gavin Schmidt von GISS erklärt: „… keine bestimmte absolute globale Temperatur stellt ein Risiko für die Gesellschaft dar, es ist die Veränderung der Temperatur im Vergleich zu dem, was wir bisher gewöhnt waren“. (Siehe: den interessanten Post bei RealClimate über modellierte absolute globale Oberflächentemperaturen.)

Aber wie Sie entdecken werden, sind die GISS Klimamodellsimulationen der Meeresoberflächentemperaturen zu warm. Betrachten wir nun, dass die Ozeanoberflächen die primären Quellen von atmosphärischem Wasserdampf sind, dem am meisten verbreiteten natürlichen Treibhausgas. Wenn die Modelle die Beziehung zwischen Meeresoberflächentemperaturen und atmosphärischem Wasserdampf richtig simulieren, haben die Modelle zu viel Wasserdampf (natürliches Treibhausgas) in ihren Atmosphären. Das kann helfen, zu erklären, warum die GISS-Modelle zu viel Erwärmung in den letzten 3 Jahrzehnten simulieren.

WARUM DIE VERGANGENEN DREI DEKADEN?

Die klassische Definition des Klimas durch die Weltmeteorologische Organisation (WMO) ist das gemittelte Wetter über einen Zeitraum von 30 Jahren. Auf der Homepage der WMO: Häufig gefragt:

Was ist das Klima?

Das Klima, das manchmal als das „durchschnittliche Wetter“ verstanden wird, ist definiert als die Messung des Mittelwerts und der Variabilität der relevanten Größen bestimmter Variablen (wie Temperatur, Niederschlag oder Wind) über einen Zeitraum von Monaten bis zu Tausenden oder Millionen Jahre. Die klassische Periode ist 30 Jahre, wie von der WMO definiert. Das Klima im weiteren Sinne (is the state)] [m.e. gemeint: die jeweilige Klimazone, der Übersetzer], einschließlich einer statistischen Beschreibung des Klimasystems.

Durch die Präsentation von Modellen und Daten für die letzten 3 Jahrzehnte, kann niemand behaupten, ich habe den Zeitrahmen „cherry-picked“. Wir vergleichen Modelle und Daten über die jüngste klimarelevante Periode.

HINWEIS ZU DEN ABSOLUTEN WERTEN DER NOAA ERSST.v4 DATEN

Die Revisionen der NOAA-Langzeit-Oberflächentemperatur-Datensätze wurden in Karl et al. (2015) Ausarbeitung veröffentlich: Mögliche Artefakte von Daten-Bias in der jüngsten globalen Oberfläche Erwärmungspause. Dort stellten Tom Karl und andere fest:

Erstens haben mehrere Studien die Unterschiede zwischen boje- und schiffbasierten Daten untersucht, wobei festgestellt wurde, dass die Schiffsdaten systematisch wärmer sind als die Bojendaten (15-17). Dies ist besonders wichtig, da ein Großteil der Meeresoberfläche nun von beiden Beobachtungssystemen erfasst wird und oberflächentreibende und verankerte Bojen die globale Abdeckung um bis zu 15% (Ergänzungsdaten) erhöht haben. Diese Änderungen führten zu einem zeitabhängigen Bias im globalen SST-Datensatz und verschiedene Korrekturen wurden entwickelt, um die Vorausrichtung (18) zu berücksichtigen. Vor kurzem wurde eine neue Korrektur (13) entwickelt und im ERSST Datensatz Version 4, den wir in unserer Analyse verwendet haben, angewendet. Im Wesentlichen beinhaltet die Bias-Korrektur die Berechnung der durchschnittlichen Differenz zwischen den kollokierten Bojen und Schiff SSTs [~nebeneinanderliegenden Datensätze]. Die durchschnittliche Differenz war -0,12 ° C, eine Korrektur, die auf die Bojen-SSTs in jeder Rasterzelle in ERSST Version 4 angewendet wird.

Für Modell-Daten-Vergleiche, bei denen Anomalien präsentiert werden, ist die Verlagerung [~Anpassung] der genaueren boje basierten Daten um 0,12°C auf die schiffsbasierten Daten gleichgültig. Diese Vereinfachung war eine Frage der Bequemlichkeit für NOAA, da es für mehr Jahre Schiffsdaten als bojen basierte Daten gibt. Allerdings, wenn Modelle und Daten auf einer absoluten Basis verglichen werden, verschieben die genaueren bojen basierten Daten die Schiff-basierten Daten um 0,12 °C und machen daher einen Unterschied beim Vergleich. Da die Modell-simulierten Oberflächentemperaturen weltweit zu warm sind, hilft diese Verknüpfung, die Daten besser an die Modelle anzupassen. Und das klingt typisch für die Klimawissenschaft bei der NOAA.

Mit anderen Worten, die Unterschiede zwischen Modellen und Daten sind wahrscheinlich größer als in allen Beispielen in diesem Beitrag gezeigt, wobei die modellierten Meeresoberflächentemperaturen wärmer als beobachtet sind … und umgekehrt, wenn die Modelle zu cool sind.

Genug der Einführung …

GLOBALE ZEITREIHE

Abbildung 1 zeigt zwei Modelldatenvergleiche für globale Meeresoberflächentemperaturen, nicht Anomalien, für die letzten 30 Jahre. Ich habe einen Vergleich für die globalen Ozeane (90S-90N) in der oberen Grafik und einen Vergleich für die globalen Ozeane, mit Ausnahme der polaren Ozeane (60S-60N), in der unteren Grafik. Ein Ausschluss der polaren Ozeane scheint keinen signifikanten Unterschied zu machen. Es ist offensichtlich, dass globale Meeresoberflächen, die durch das GISS-Klimamodell simuliert wurden, wärmer waren als beobachtet und dass die GISS-Modell-Erwärmungsrate in den letzten 3 Jahrzehnten zu hoch war. Der Unterschied zwischen modellierten und beobachteten Erwärmungsraten liegt bei etwa 0,07 bis 0,08 °C / Jahrzehnt, mehr als 60% höher als die beobachtete Geschwindigkeit. Und in beiden Fällen ist die von den GISS-Modellen simulierte 30-jährige durchschnittliche Meeresoberflächentemperatur um etwa 0,6 °C zu hoch.

 

Abbildung 1 – Globale Ozeane

 

ZEITREIHE – TROPISCHE UND EXTRATROPISCHE MEERESOBERFLÄCHEN TEMPERATUREN

Im Juni 2013 präsentierte Roy Spencer Modell-Daten Vergleiche der Erwärmung der tropischen Mittel-Troposphäre, vorbereitet von John Christy. Siehe Roy’s Beiträge EPIC FAIL: 73 Klimamodelle vs. Beobachtungen für tropische troposphärische Temperaturen und STILL Epic Fail: 73 Klimamodelle vs Messungen, 5-Jahres-Mittel. Die Modelle haben die Erwärmungsraten der Mittel-Troposphäre in den Tropen stark überschätzt. Ich dachte, es wäre sinnvoll, da die tropischen Ozeane (24S-24N) 76% der Tropen und etwa 46% der Weltmeere abdecken, um zu bestätigen, dass die Modelle auch die Erwärmung der Meeresoberflächentemperaturen der tropischen Ozeane stark überschätzen .

Es sollte nicht überraschen, dass die Modelle in den vergangenen 30 Jahren die Erwärmung der Meeresoberflächentemperaturen der tropischen Ozeane überschätzten. Siehe Abbildung 2. Tatsächlich überschätzen die Modelle die Erwärmung mit einer großen Bandbreite. Die Daten zeigen die Meeresoberflächentemperaturen der tropischen Ozeane an, die mit einer nicht sehr alarmierenden Rate von 0,11° C / Jahrzehnt erwärmt wurden, während die Modelle zeigen, dass, wenn die Oberflächen der tropischen Ozeane durch menschliche Treibhausgase erwärmt würden, sollten sich auf fast das zweifache dieser Rate mit 0,22 °C / Jahrzehnt erwärmen. Für 46% der Oberfläche der globalen Ozeane (ca. 33% der Oberfläche des Planeten) verdoppelten die Modelle die beobachtete Erwärmungsrate.

Abbildung 2 – Tropische Ozeane

Und natürlich sind für die tropischen Ozeane die Modell-simulierten Meeresoberflächentemperaturen um etwa 0,9 ° C zu warm.

Für die außertropischen Ozeane der südlichen Hemisphäre (90S-24S), Abbildung 3, ist die beobachtete Erwärmungsrate ebenfalls extrem niedrig bei 0,06 °C / Jahrzehnt. Andererseits deuten die Klimamodelle darauf hin, dass die Ozeane sich mit einer Rate von 0,14 °C / Jahrzehnt erwärmt hätten, wenn menschliche Treibhausgase für die Erwärmung der Meeresoberflächentemperaturen in dieser Region verantwortlich wären, was die beobachtete Tendenz mehr als verdoppeln würde. Die außertropischen Ozeane der südlichen Hemisphäre decken etwa 33% der Oberfläche der globalen Ozeane (ca. 23% der Oberfläche des Planeten) und die Modelle verdoppeln die Geschwindigkeit der Erwärmung.

Abbildung 3 – Extratropische südliche Hemisphäre

Die Modelle sind in den außertropischen Ozeanen der südlichen Hemisphäre zu warm, um etwa 0,6 ° C.

Und die Klimamodelle scheinen die Erwärmungsrate der Meeresoberflächentemperaturen genau für den kleinsten Teil der globalen Ozeane, der extratropischen Nordhalbkugel (24N-90N) zu treffen. Siehe Abbildung 4. Die außertropischen Ozeane der Nordhalbkugel bedecken nur etwa 21% der Oberfläche der globalen Ozeane (ca. 15% der Erdoberfläche).

Abbildung 4 – Extratropische Nordhemisphäre

Seltsamerweise sind die modell-simulierten Oberflächentemperaturen in den außertropischen Ozeanen der nördlichen Hemisphäre zu kühl. Das wird bei den Simulationen von Meereis nicht helfen.

ZEITREIHE – OZEAN BECKEN

Die Abbildungen 5 bis 11 zeigen Vergleiche von modellierten und beobachteten Meeresoberflächentemperaturen für die einzelnen Ozeanbecken … ohne Kommentar. Ich würde die Vergleiche der arktischen und südlichen Ozeane (Figuren 10 und 11) mit etwas Skepsis betrachten … weil die Modelle und Daten das Meereis unterschiedlich rechnen.

Abbildung 5 – Nord Atlantik

# # #

Abbildung 6 – Süd Atlantik

# # #

Abbildung 7 – Nord Pazifik

# # #

Abbildung 8 – Süd Pazifik

# # #

Abbildung 9 – Indischer Ozean

# # #

Abbildung 10 – Arktis

# # #

Abbildung 11 – Südlicher Ozean

 

Schlusssatz

Es wäre schön zu wissen, welchen Planeten die Klimamodelle von GISS simulieren. Es ist sicher nicht die Erde.

Wir leben auf einem mit Ozean bedeckten Planeten, doch irgendwie scheinen das Wann, das Wo und die Ausdehnung der Erwärmung der Oberflächen unserer Ozeane, den Klimamodellierern bei GISS entgangen zu sein. In diesem Beitrag haben wir für die vergangenen drei Jahrzehnte Meeroberflächentemperaturen und keine Anomalien vorgestellt und dies hat auch auf andere Klimamodellversagen hingewiesen, die darauf hindeuten, dass Simulationen der grundlegenden Ozeanzirkulationsprozesse in den Modellen fehlerhaft sind.

Je nach Ozeanbecken gibt es große Unterschiede zwischen den modellierten und beobachteten Oberflächentemperaturen. Die tatsächlichen Meeresoberflächen-temperaturen bestimmen zusammen mit zahlreichen anderen Faktoren, wieviel Feuchtigkeit von den Ozeanoberflächen verdampft wird und wie viel Feuchtigkeit in der Atmosphäre vorhanden ist … was die vorhandene Feuchtigkeit (1) für die Niederschlagsbelastung (2) beeinflusst ), für den wasserdampfbedingten Treibhauseffekt und (3) für die negativen Rückkopplungen aus der Wolkendecke. Mit anderen Worten, die fehlerhafte Simulation der Meeresoberflächentemperaturen beeinflusst die atmosphärische Komponente der tödlich fehlerhaften gekoppelten Ozeanatmosphärenmodelle von GISS.

Erschienen auf WUWT am 18.01.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/01/18/because-of-the-giss-and-noaa-press-conference-about-2016-global-surface-temperatures/




100% der Erwärmung in den USA gehen auf Daten­manipulationen der NOAA zurück

Zunächst noch Anmerkung zur Übersetzung: Es tauchen naturgemäß immer wieder die Begriffe „mild – warm – hot“ auf. Anders als bei anderen Übersetzungen bleibe ich hier bei der direkten Übersetzung zu „mild – warm – heiß“. Außerdem werden viele Temperaturangaben in Grad Fahreinheit genannt. Den Celsius-Wert setze ich in eckigen Klammern daneben. Differenzwerte in Grad Fahrenheit werden zur Basis 32°F = 0°C berechnet. – Chris Frey

Auf der Website von ClimateCentral.org erschien jüngst folgende Meldung, welche die Washington Post sofort aufgriff. Es wird behauptet, dass das Jahr 2016 in den USA ein „überwältigend heißes Jahr“ gewesen ist und dass die Temperaturen seit dem 19. Jahrhundert um 1,5°F [ca. 0,8°C] gestiegen seien:

In den USA war es dieses Jahr überwältigend heiß. Quelle: Climate Central

Das erste Problem ihrer Analyse besteht darin, dass es in den USA im Jahre 2016 kaum heißes Wetter gegeben hatte. Der Prozentsatz heißer Tage lag unter dem Mittelwert und liegt für das Jahr an 80. Stelle seit 1895. Nur 4,4% aller Tage wiesen eine Temperatur über 95°F [ca. 35°C] auf im Vergleich zum vieljährigen Mittel von 4,9%. Bei Climate Central bläht man milde Temperaturen mit heißen Temperaturen auf.

Man behauptet dort auch, dass die US-Temperaturen um 1,5°F [ca. 0,8°C] gestiegen seien

Klima auf einen Blick. Quelle: National Centers for Environmental Information (NCEI)

Das Problem bei der NOAA-Graphik ist, dass es geschummelte Daten sind [fake data]. Die NOAA erzeugt den Erwärmungstrend mittels Veränderung der Daten. Die Rohdaten der NOAA zeigen im vorigen Jahrhundert keine Erwärmung.

Die „Korrekturen“ ergeben fast genau 1,5°F, also genau die in dem Artikel behauptete Erwärmung.

Die Adjustierungen korrelieren fast perfekt mit atmosphärischem CO2. Die NOAA [die Abkürzung steht für National Oceanic and Atmospheric Administration. Anm. d. Übers.] adjustiert die Daten dergestalt, dass sie zur Theorie der globalen Erwärmung passen. Dies ist bekannt unter der Bezeichnung PBEM (Policy Based Evidence Making.) [etwa: Auf Politik beruhende Herstellung von Beweisen].

Der Hockeyschläger von Adjustierungen seit dem Jahr 1970 geht fast ausschließlich auf die Phantasiewerte der NOAA zurück, mit denen sie fehlende Stationsdaten ersetzte. Im Jahre 2016 fehlten über 42% der monatlichen Daten ihrer Stationen, also hat man die Werte dort einfach erfunden. Das lässt sich auch leicht feststellen, hat man doch fabrizierte Temperaturen in der Datenbasis mit einem „E“ gekennzeichnet.

Als ich meine Behauptungen über den Betrug der NOAA präsentierte, reagierte die NOAA wie üblich und wischte die Behauptungen mit diesen beiden Aussagen vom Tisch:

1. NOAA hat Gitterpunkts-Daten verwendet Gitterpunkts-Daten und ich reale Daten [un-gridded data].

2. Man „musste“ die Daten adjustieren, um einem Bias wegen des Beobachtungszeitpunktes und Stationsverlagerungen Rechnung zu tragen.

Beide Behauptungen lassen sich leicht widerlegen. Der einzige Effekt, den Gitterpunkte haben ist, dass Temperaturen geringfügig erniedrigt werden.Der Trend der Gitterpunkts-Daten ist fast identisch mit dem Trend der realen Daten.

Der Beobachtungszeit-Bias [Time of Observation Bias (TOBS)] ist ein reales Problem, allerdings nur ein sehr kleines. TOBS fußt auf dem Gedanken, dass falls man ein Min/Max-Thermometer zu nahe dem nachmittäglichen Maximum neu einstellt, warme Temperaturen doppelt zählen (und umgekehrt bei Neueinstellung am Morgen). Ihre Behauptung lautet, dass während der heißen dreißiger Jahre an den meisten Stationen die Thermometer zu früh, also am Nachmittag eingestellt wurden.

Das lässt sich leicht überprüfen mittels Verwendung nur der Stationsdaten, die ihre Thermometer während der dreißiger Jahr nicht neu eingestellt hatten. Das Bild ist nahezu identisch mit dem aller Stationen. Keine Erwärmung im vorigen Jahrhundert. Man beachte, dass der Graph unten dazu neigt, zu viel Erwärmung zu zeigen wegen TOBS am Morgen.

Die eigenen Dokumente der NOAA zeigen, dass die TOBS-Adjustierung gering ist (0,3°F) und nach 1990 flach verläuft.

https://www.ncdc.noaa.gov/img/climate/research/ushcn/ts.ushcn_anom25_diffs_pg.gif

Gavin Schmidt von der NASA erklärt sehr eindeutig, warum die US-Temperaturaufzeichnungen nicht adjustiert werden müssen:

Man kann 50% der Stationsdaten oder mehr aussortieren, und man bekommt im Grunde die gleichen Antworten.

Eine der neuesten Innovationen ist das Erstellen eines Klima-Referenz-Netzwerkes parallel zu den gegenwärtigen Stationen, so dass man nach potentiell ernsten Dingen in großem Maßstab suchen kann – und sie haben bisher keine solchen Dinge gefunden.

Ausführlicher:

NASA – NASA Climatologist Gavin Schmidt Discusses the Surface Temperature Record

Die NOAA hat immer gewusst, dass es in den USA nicht wärmer wird:

US-Daten zeigen seit 1895 keinen Erwärmungstrend – NYTimes.com

Sämtliche Behauptungen im Climate Central-Artikel sind betrügerisch. In den USA wird es nicht wärmer, und 2016 war kein heißes Jahr. Es war ein sehr mildes Jahr.

Link: http://realclimatescience.com/2016/12/100-of-us-warming-is-due-to-noaa-data-tampering/

Übersetzt von Chris Frey EIKE

Bemerkung zu den letzten beiden Graphiken: Es ist mir nicht gelungen, sie lesbarer darzustellen. Wer nachlesen möchte, klicke bitte auf den Link zum Original.




Globaltemperatur zu hoch? (I) NOAA (amerik. Wetterbehörde) bestätigt:Globale Erwärmung der Dekade wg. defektem Satelliten zweifelhaft!

Der Fehler wurde nach einem Hinweis eines anonymen Teilnehmers am klimaskeptischen Blog Climate Change Fraud (siehe Originalartikel) entdeckt (am 9. August 2010).

Mitten im Zentrum dieser Kontroverse steht die vom Steuerzahler finanzierte National Oceanic and Atmospheric Administration (NOAA, [der amerikanische Wetterdienst, A. d. Übers]). Der Koordinator von NOAA Chuck Pistis hat jetzt bestätigt, dass die sich rasch herum sprechende Geschichte auf dem angesehenen klimaskeptischen Blog wahr ist.

Jedoch hat Chuck Pistis, der auch als Sprecher von NOAA fungiert, es abgelehnt zu sagen, wie lange dieser Fehler unentdeckt wirken konnte. Auch würde sich der gebeutelte Sprecher nicht in Spekulationen darüber verlieren, wie groß der Schaden für die Glaubwürdigkeit einer ganzen Dekade von Temperaturmessungen des problematischen Satelliten ‚NOAA-16‘ sei.

‚NOAA-16‘ wurde im September 2000 gestartet und wird derzeit operationell genutzt. Sein sonnensynchroner Orbit verläuft 849 km über der Erde und dauert 102 Minuten. Dabei ermittelt er automatisch Temperaturdaten der Erdoberfläche, die genauso automatisch in Klimamodelle einfließen.

NOAA hat von einer ganzen Folge rekordwarmer Temperaturen während der letzten Jahre berichtet, die auf Satellitenmessungen beruhten, aber diese könnten jetzt alle Makulatur sein.

Der weltbekannte kanadische Klimatologe Dr. Timothy Ball erklärte nach einem Expertenblick auf die schockierenden Ergebnisse: „Bestenfalls deutet dieser ganze Vorfall auf große Inkompetenz, im schlimmsten Fall auf einen verzweifelten Versuch, Temperaturrekorde zu konstruieren, die zum politischen Tagesgeschäft passen“.

Die großen, physikalisch nicht möglichen Fluktuationen der Temperatur der Großen Seen [Die Seenplatte zwischen USA und Kanada um Chicago, A. d. Übers.]

Wissenschaftler, die die Satellitendaten der Großen Seen auswerteten, waren die ersten, die Alarm schlugen, nachdem ihnen die völlig verzerrten Daten durch eine ganze Reihe unmöglich hoher Temperaturwerte aufgefallen waren. NOAA räumt ein, dass die maschinell aufbereiteten Daten nicht ununterbrochen aufgezeichnet worden waren, so dass die Unstimmigkeiten in der Masse der anderen automatisierten Daten verborgen geblieben waren.

In einem Beispiel, dass nach meinem Artikel rasch von NOAA entfernt wurde, zeigten die Daten von Juni und Juli für den Michigan–See völlig absurde Temperaturwerte, die niedrige bis mittlere Hunderterwerte Fahrenheit [ca. 35 bis 40°C] zeigten – und einige Gebiete des [US-Bundesstaates] Wisconsin mit Werten bis 612 F [weit über 100°C]. Mit der jetzt ans Licht kommenden immer größeren Anzahl solcher Fehler hat die diskreditierte NOAA den gesamten Datensatz der öffentlichen Einsicht entzogen. Aber dieses Entfernen ist nicht das Gleiche wie die Bewertung der Implikationen dieses gewaltigen statistischen Debakels.

Die Reinwaschung der NOAA scheitert an einem Tag

Noaa–Sprecher Chuck Pistis begann sofort mit der Reinwaschung, nachdem er erstmals von der Geschichte in der am schwersten betroffenen Region, Egg Harbor, gehört hatte, in der sämtliche Instrumente schnell zum Kochen kommen sollten  Dienstag Vormittag erklärte Pistis hochnäsig:

„Ich habe in den Archiven geschaut und habe kein Abbild zu diesem Zeitpunkt gefunden. Außerdem posten wir normalerweise nicht Bilder mit viel Bewölkung, geschweige denn mit Temperaturen. Dieses Abbild scheint durch jemanden zur allgemeinen Unterhaltung bearbeitet worden zu sein“.

Aber später am gleichen Tag warfen Pistis und seine bemitleidenswerten Kollegen das Handtuch und stellten sich dem übermächtigen Fauxpas. Pistis gab zu:

„Ich habe eben noch einmal (sic) das Abbild betrachtet. UND ES IST in meinem Archiv. Ich weiß nicht, warum die Temperaturwerte so falsch (sic) sind. Es scheint eine Fehlfunktion des Satelliten zu sein. WIR haben Tausende Bilder gepostet (sic) seit der Einführung unseres Coatwatch service (sic) [vermutl. so etwas wie ein ‚umfassender Überblick‘. A. d. Übers.] im Jahre 1994. Ich habe noch nie ein Bild wie dieses gesehen“.

Aber der Sprecher der Michigan Sea Grant Extension, einem Partner von ‚Coatwatch’, der zusammen mit NOAA durch die herausfordernden Daten ging, gestand danach ein, dass die hastig entfernten Webseiten tatsächlich Dutzende von Temperaturaufzeichnungen gezeigt hatten, die drei bis vier Mal höher lagen als nach der Jahreszeit üblich. NOAA lehnte es ab, irgendeinen Kommentar dazu abzugeben, ob eine solche Panne die Mittelwerte im gesamten Nordosten der USA um etwa 10 bis 15 Fahrenheit [5 bis 8 K] nach oben getrieben haben könnte, weil der Fehler über längere Zeiträume unentdeckt geblieben war.

Um einiges zerknirschter machte sich Pistis später an die Schadensbegrenzung und versuchte es mit Entschuldigungen: 

„Wir müssen bessere Arbeit bei der Kontrolle leisten, was in den Archiven landet oder gepostet wird. ‚Coastwatch‘ ist komplett automatisiert, so dass man leicht einsehen kann, dass so etwas durchrutschen konnte“.

In seiner Verlautbarung stimmte Pistis zu, die Satellitendaten von NOAA “herabzustufen”. Und weiter, dass die Regierung „noch mehr in dieses Desaster schauen“ muss. Tatsächlich findet man auf der Michigan Sea Grant Site die folgende offizielle Mitteilung:

“BEMERKUNG”: Wegen eines fehlerhaften Sensors im Satelliten, dessen Werte für diese Kartendarstellung genutzt wurden, haben einige Bilder extrem hohe und niedrige Temperaturdaten gezeigt. Bitte betrachten Sie diese Daten als nicht realistisch. Künftige Bilder werden diese Daten nicht mehr enthalten, und Bilder, die mit Daten des fehlerhaften Sensors erstellt wurden, wurden und werden aus dem Bilderarchiv entfernt“.

Schieb es auf die Wolken, nicht auf uns, meint NOAA

NOAA erklärte weiter, dass die Bewölkung die Satellitendaten beeinflussen und sie anfällig für Falschmessungen machen könnte. Aber Pistis konnte nicht erklären, wie viel Bewölkung signifikant wäre oder an welchem Punkt die Messungen für die Klimamodellierung unbrauchbar werden.

Wie es ein verärgerter Beobachter ausdrückt:

 „Was ist mit dunstigen Tagen? Was an Tagen mit dünner Bewölkung? Was an Tagen mit teilweise bewölktem Himmel? Selbst an heißen, klaren Tagen sorgt die Verdunstung für eine substantielle Menge Wasserdampf in der Atmosphäre, besonders über Gewässern. Wie können diese Satellitendaten nur halbwegs brauchbar sein, wenn der Satellit nicht durch die Wolken ‚sehen‘ kann?“

Ein führender Klimatologe verurteilt den Mangel von echter Sorgfalt

Die ernsten Konsequenzen dieser Vorkommnisse waren für Dr. Ball nicht von ungefähr. Er erklärte, dass diese Zahlen mit ungewöhnlich hohen oder niedrigen Werten von der Regierung für politische Zwecke ausgebeutet wurden, bereits jetzt unter den Rekorden gelistet werden und in Reportagen durch den gesamten medialen Blätterwald der Mainstream–Medien gingen, was ein weithin gewünschtes Ziel war.

Der Klimatologe, der das Militär in Klimafragen berät, bedauerte, dass solche fehlerhaften Datensätze „ausnahmslos unbereinigt bleiben. Der gescheiterte Versuch zu belegen, wie oft die Temperatur an der Wolkenoberfläche ‚sehr nahe‘ den Werten der Wassertemperatur lag, ist unakzeptabel. Wenn die Genauigkeit der Daten fraglich ist, sollten sie nicht genutzt werden. Ich würde sagen, dass das nach meinem Wissen über Inversionen sehr selten ist, besonders über Wasser“.

Wie viele andere Wettersatelliten wurden ebenfalls „herabgestuft”?

Eine Schlüsselangelegenheit für die Regierung war, dass sie es ablehnte zu sagen, wie viele andere Satelliten ebenfalls herabgestuft werden könnten. ‚NOAA-16‘ ist kein alter Satellit – also warum braucht es jemanden aus der Öffentlichkeit, um eine so große Fehlerhaftigkeit zu finden?

Klimaprofessor Tim Ball wies darauf hin, dass er dieses systematische Scheitern vorhergesehen hat und warnt die Öffentlichkeit, dass sie keinen Rückzug und auch kein Ende der düsteren, den Untergang beschreienden Klimaprognosen erwarten sollte: 

„Seit McIntyre Hansen und NASA GISS mit den falschen Daten aus den USA erwischte, habe ich noch nie gesehen, dass irgendeine Bereinigung der Daten der Welt stattgefunden hat, die aber nach den Änderungen der Aufzeichnungen in den USA unabdingbar sind. Die Aufzeichnungen aus den USA dominieren diejenigen speziell in den kritischen Mittleren Breiten. Sie so zu verändern, dass es von den neun wärmsten Jahren in den Neunziger Jahren zu vier davon in den Dreißiger Jahren des vorigen Jahrhunderts kommt, ist eine sehr signifikante Veränderung und muss die globalen Mittelwerte [der Temperatur] beeinflussen“. 

An jedem Tag gibt es neue Entdeckungen von großen Fehlern und Auslassungen. Ein kluger Kommentator auf www.climatechangefraud.com stellte fest: „Es ist allgemein bekannt, dass sich das Land schneller erwärmt als das Wasser, das sich auch langsamer abkühlt. Jedoch haben wir in den Zahlen von NOAA mindestens zwei Datensätze gefunden , die das Gegenteil dieser bekannten physikalischen Tatsache aussagen.“

Der geschickte Kommentator fügte hinzu: „Zwei Punkte, deren Daten fraglich sind, liegen in Charlevoix, wo die Temperatur bei 43,5° [F? C? Im Original stehen nur diese und die folgenden Zahlen. A. d. Übers.] liegen soll – während in der Umgebung (± 30 Meilen) 59,2° herrschen sollen; und in der Bucht östlich der Halbinsel von Leland, die mit 37,2° gelistet wird. Diese Werte wurden vermutlich um 18:38 Ortszeit gewonnen. Beide stammen aus Gebieten mit größeren Lücken in der Bewölkung.

Fehlende weitere präzise Angaben von NOAA über diese sensationelle Geschichte überlassen es der Öffentlichkeit, weiter zu spekulieren und ‚bürgerlichen Wissenschaftlern‘ [‚citizen scientists‘], zu bestimmen, ob Datensätze über zehn oder mehr Jahre von Satelliten wie NOAA-16 unzuverässig und wertlos sind. 

John O´Sullivan für Climate Fraud 11 August 2010 Originalartikel:

John O’Sullivan ist erfahrener Analyst, Autor und Journalist. Als akkreditierter Akademiker lehrte er über zwanzig Jahre lang an Schulen und Universitäten in Ostengland, bevor er in die USA übersiedelte. Als analytischer Kommentator hat er über 100 grundlegende Artikel weltweit verfasst.

Übersetzt von Chris Frey. Alle Einschübe in eckigen Klammern vom Übersetzer.  Fett Hervorhebungen EIKE Redaktion; Alle anderen Hervorhebungen einschl. runder Klammern im Original!