1

NASA und NOAA „PASSEN“ Temperaturdaten an: Die Rohdaten zeigen, dass die USA sich ggü. den 30er Jahren abgekühlt haben

Das (im Original GIF animierte) Diagramm zeigt klar die historischen US Klimatologie Netzwerk -Stationen  mit Rohdaten und danach mit offiziellen Anpassungen durch NASA und NOAA .

Hier sehen Sie die offiziell „adjusted“  maximalen Temperaturdaten über die Jahre 1920  – 2020, die einen Erwärmungstrend zeigen.

Und hier sind es die tatsächlichen „gemessenen“ Daten, die einen unverkennbaren Abkühlungstrend aufzeigen.

Unten sehen Sie eine vergrößerte Ansicht der US-Thermometerdaten, bevor die NASA / NOAA ihre schmuddeligen „adjustments“ vornahm.

Durchschnittliches Temperaturmaximum 1901 – 2019 ,  Rote Linie gleitendes 5 Jahres Mittel

Die Grafik zeigt, dass die Temperaturen von 1920 bis 1960 tatsächlich wärmer waren als heute. Es war angenehm wärmer,  oft mit 2 bis 3 Grad Fahrenheit. (~ 1,5 bis 2 °C)

Der gleiche Trend ist in der vorstehenden Grafik zu erkennen, in der der Prozentsatz der Tage über 32,2 ° C (90 ° F) in den Jahren zwischen 1901 und 2019 erneut an allen Stationen des US-amerikanischen Netzwerks für historische Klimatologie angegeben ist (beachten Sie auch, dass die Grafik bis 2019 läuft und daher die Rekordkälte der letzten anderthalb Jahre ausschließt) Quelle: [Climate Science Special Report]

Die Daten zur Nationalen Klimabewertung stützen den Trend weiter und zeigen, dass die Sommer in den Vereinigten Staaten von 1910 bis 1960 viel heißer waren.

Darüber hinaus zeigen die jüngsten Beobachtungen [Observations] der Meeresoberflächentemperatur – selbst die von den Erwärmungsaktivisten kontrollierten – deutlich, dass sich die Projektionen katastrophaler Klimaentwicklungen als weit von der Realität entfernt erweisen:

Mehr zum Thema finden Sie HIER.

Wenn Sie sich noch nicht darauf eingelassen haben, dass Regierungen ihre Bevölkerung routinemäßig anlügen, sollten Ihnen die obigen Diagramme einen Einblick dazu bieten. Die globale Erwärmung ist kaum „global“, wenn die Vereinigten Staaten – das viertgrößte Land der Erde – sich abkühlen seit dem Ende von „the dust bowl“ [Katastrophenfilm von 2012, über die schlimmen Auswirkungen von Sandstürmen, durch Klimawandel und natürlich Menschen verursacht]. Und ich denke, es ist auch vernünftig anzunehmen, dass nicht nur die USA seit Mitte der 1930er Jahre einen Abkühlungstrend erleben. Der nordamerikanische Kontinent ist geografisch nicht einzigartig – und diese Beobachtungen stimmen gut mit der beobachteten Sonnenaktivität überein,  nachdem die zwischen 1930 und 1960 zunehmende Aktivität allmählich nachgelassen hat:

Sonnenzyklen und Sonnenflecken

Die Daten können leicht manipuliert werden und manipulierte Statistiken werden verwendet, um die Aussagen der Politik zu beweisen und Richtlinien zu erlassen. Und heute scheinen Regierungsbehörden – gespielt von den unsichtbaren Strippenziehern über ihnen – ein glänzendes und mächtiges neues Werkzeug gefunden zu haben, um ihr Angst- und Kontrollarsenal durchzusetzen: „den Klimanotfall “.

Ein letzter Hinweis zu diesem Thema:

Die durch „Feuerbrünste“ betroffene Landfläche war von 1910 bis 1960 viel höher als heute, was nicht verwunderlich ist, da Hitzewellen normalerweise mit Dürre verbunden sind, betont Tony Heller. Es besteht eine enge Korrelation zwischen Hitzewellen und Brandfläche, wie in der obigen Tabelle dargestellt, die die offiziellen Daten von Hitzewellen (rote Linie) mit denen der Verbrennungsfläche (blaue und grüne Linien) überlappt.

Die Klimaaktivisten möchten, dass Sie glauben, dass Waldbrände eine direkte Folge steigender Temperaturen sind, aber wie Tony Heller gezeigt hat: Die Temperaturen steigen nicht und die Brandflächen nehmen auch nicht zu.

Die tatsächlichen Daten zerstören die Einpeitschungen eines „Klimanotfalls“  und so hat die Biden-Regierung kürzlich die Branddaten vor 1983 gelöscht, mit der glanzlose Begründung, dass „es nicht offiziell war“ ( hier verlinkt ).

Total Wildland Fires and Acres (1983-2020)

Vor 1983 verfolgten die föderalen Waldbrandbehörden die offiziellen Waldbranddaten nicht unter Verwendung der aktuellen Meldeverfahren. Infolgedessen werden auf dieser Website keine offiziellen Daten von vor 1983 veröffentlicht.

Wenn man etwas tiefer gräbt,  wird einem der wahre Grund klar, warum sie die Daten vor 1983 gelöscht haben. Das Jahr 1983 registrierte die geringste Brandfläche. Ab 1983 konnten sie es so aussehen lassen, als würde die Brandfläche zunehmen.

In der Realität besteht keine Korrelation zwischen steigendem CO2 und der verbrannten Fläche. Die Brandfläche in den USA ist tatsächlich um 90 Prozent gesunken, als der CO2 Anteil noch auf vorindustriellem Niveau lag – aber die Behörde hat kürzlich auch dieses Dokument gelöscht:

Übersetzung des rot markierten Textteiles:

In den heutigem Gebieten der USA brannten in der vorindustriellen Zeit (1500 – 1800) durchschnittlich 145 Millionen Acres pro Jahr [~ 586.000 km², zum Vergleich Deutschland: 357,386 km²]. Heute werden jährlich nur 14 Millionen Acres  (Bundes- und Nicht-Bundesland) verbrannt

 

Fallen Sie nicht auf die täglichen Lügen herein, die von machtgierigen Politikern, willfährigen Wissenschaftlern und fremdfinanzierten Aktivisten verbreitet werden .

Die Beobachtungen zeigen, dass die KALTEN ZEITEN zurückkehren, dass die mittleren Breiten sich ABKÜHLEN,  im Einklang mit  der großen Konjunktion , der historisch geringen Sonnenaktivität , den  wolkenkeimbildenden kosmischen Strahlen und einem  meridionalen Jetstream-Fluss (neben anderen Einflüssen).

Sowohl NOAA als auch NASA scheinen sich jedoch einig zu sein – wenn Sie zwischen den Zeilen lesen. NOAA sagt, dass wir  Ende der 2020er Jahre ein  „ausgewachsenes“ Grand Solar Minimum erreichen  und die NASA sieht diesen bevorstehenden Sonnenzyklus  (25)  als “ das schwächste der letzten 200 Jahre “.

NASA veröffentlichte früher Artikel mit Überschriften wie:

Niedrige Temperaturen während des Maunder-Minimums

…. Von 1650 bis 1710 sanken die Temperaturen in weiten Teilen der nördlichen Hemisphäre, als die Sonne in eine ruhige Phase eintrat, die jetzt als Maunder-Minimum bezeichnet wird. Während dieser Zeit traten nur sehr wenige Sonnenflecken auf der Sonnenoberfläche auf, und die Gesamthelligkeit der Sonne nahm leicht ab. Bereits mitten in einer überdurchschnittlich kälteren Zeit, der kleinen Eiszeit, gerieten Europa und Nordamerika in einen Tiefkühlzustand: Alpengletscher erstreckten sich über Ackerland bis ins Tal; Meereis kroch südlich von der Arktis; und die berühmten Kanäle in den Niederlanden froren regelmäßig ein – ein Ereignis, das heute selten ist.

… Der Einfluss des Sonnenminimums ist in diesem Bild deutlich zu sehen, das den Temperaturunterschied zwischen 1680, einem Jahr im Zentrum des Maunder-Minimums, und 1780, einem Jahr normaler Sonnenaktivität. Tiefes Blau in Ost- und Mittel-Nordamerika sowie in Nord-Eurasien zeigt, wo der Temperaturabfall am größten war. Fast alle anderen Landflächen waren 1680 ebenfalls kühler, was durch die unterschiedlichen Blautöne angezeigt wird. Die wenigen Regionen, die 1680 wärmer zu sein scheinen, sind Alaska und der östliche Pazifik (links), der Nordatlantik südlich von Grönland (links von der Mitte) und nördlich von Island (oben in der Mitte).

Darüber hinaus können wir die Vielzahl neuer wissenschaftlicher Arbeiten nicht ignorieren, in denen die immensen Auswirkungen  des Beaufort Gyre  auf den Golfstrom und damit auf das Klima insgesamt dargelegt werden.

https://electroverse.net/u-s-has-been-cooling-since-the-1930s/

Übersetzt durch Andreas Demmig

Nachsatz:

Über „Manipulation“ berichteten wir auf Eike schon häufig. Nutzen Sie die Suchfunktion um die Beiträge zu finden.

 

 




49 NASA-Wissenschaftler sagen, wie es ist

28. März 2012

The Honorable Charles Bolden, Jr.
NASA Administrator
NASA Headquarters
Washington, D.C. 20546-0001

Dear Charlie,

Wir, die Unterzeichnenden, fordern die NASA und das Goddard-Institut für Weltraumstudien (GISS) respektvoll auf, von der Aufnahme unbewiesener Aussagen in öffentlichen Mitteilungen und Websites abzusehen. Wir glauben, dass die Behauptungen der NASA und des GISS, dass das vom Menschen erzeugte Kohlendioxid katastrophale Auswirkungen auf den globalen Klimawandel hat, nicht belegt sind, insbesondere wenn man die empirischen Daten aus Tausenden von Jahren berücksichtigt. Angesichts der Tatsache, dass Hunderte von bekannten Klimawissenschaftlern und Zehntausende anderer Wissenschaftler ihren Unglauben in die katastrophalen Vorhersagen bekunden, insbesondere in die von der GISS-Führung, ist es klar, dass die Wissenschaft NICHT settled ist.

Das ungebremste Eintreten für CO2 als Hauptursache des Klimawandels ist unangemessen und hinsichtlich ihrer Historie der NASA unwürdig, wenn man dennoch ohne eine objektive Bewertung aller verfügbaren wissenschaftlichen Daten Entscheidungen trifft oder öffentliche Erklärungen abgibt.

Als ehemalige NASA-Mitarbeiter sind wir der Meinung, dass das Eintreten der NASA für eine extreme Position vor einer gründlichen Untersuchung der möglichen erdrückenden Auswirkungen der natürlichen Klimafaktoren unangemessen ist. Wir fordern, dass die NASA davon Abstand nimmt, unbewiesene und nicht unterstützte Bemerkungen in ihre zukünftigen Veröffentlichungen und Websites zu diesem Thema aufzunehmen. Es besteht die Gefahr, dass der beispielhafte Ruf der NASA, die gegenwärtigen oder ehemaligen Wissenschaftler und Mitarbeiter der NASA und sogar der Ruf der Wissenschaft selbst beschädigt wird.

Für weitere Informationen über die Wissenschaft, die hinter unserem Anliegen steht, empfehlen wir Ihnen, sich mit Harrison Schmitt oder Walter Cunningham oder anderen, die sie Ihnen empfehlen können, in Verbindung zu setzen.

Vielen Dank, dass Sie diesen Brief zur Kenntnis nehmen.

Sincerely,

(Liste der Unterzeichner)

CC: Mr. John Grunsfeld, Associate Administrator for Science

CC: Ass Mr. Chris Scolese, Director, Goddard Space Flight Center

Ref: Letter to NASA Administrator Charles Bolden, dated 3-26-12, regarding a request for NASA to refrain from making unsubstantiated claims that human produced CO2 is having a catastrophic impact on climate change.

/s/ Jack Barneburg, Jack – JSC, Space Shuttle Structures, Engineering Directorate, 34 years

/s/ Larry Bell – JSC, Mgr. Crew Systems Div., Engineering Directorate, 32 years

/s/ Dr. Donald Bogard – JSC, Principal Investigator, Science Directorate, 41 years

/s/ Jerry C. Bostick – JSC, Principal Investigator, Science Directorate, 23 years

/s/ Dr. Phillip K. Chapman – JSC, Scientist – astronaut, 5 years

/s/ Michael F. Collins, JSC, Chief, Flight Design and Dynamics Division, MOD, 41 years

5/s/ Dr. Kenneth Cox – JSC, Chief Flight Dynamics Div., Engr. Directorate, 40 years

/s/ Walter Cunningham – JSC, Astronaut, Apollo 7, 8 years

/s/ Dr. Donald M. Curry – JSC, Mgr. Shuttle Leading Edge, Thermal Protection Sys., Engr. Dir., 44 years

/s/ Leroy Day – Hdq. Deputy Director, Space Shuttle Program, 19 years

/s/ Dr. Henry P. Decell, Jr. – JSC, Chief, Theory & Analysis Office, 5 years

/s/Charles F. Deiterich – JSC, Mgr., Flight Operations Integration, MOD, 30 years

/s/ Dr. Harold Doiron – JSC, Chairman, Shuttle Pogo Prevention Panel, 16 years

/s/ Charles Duke – JSC, Astronaut, Apollo 16, 10 years

/s/ Anita Gale

/s/ Grace Germany – JSC, Program Analyst, 35 years

/s/ Ed Gibson – JSC, Astronaut Skylab 4, 14 years

/s/ Richard Gordon – JSC, Astronaut, Gemini Xi, Apollo 12, 9 years

/s/ Gerald C. Griffin – JSC, Apollo Flight Director, and Director of Johnson Space Center, 22 years

/s/ Thomas M. Grubbs – JSC, Chief, Aircraft Maintenance and Engineering Branch, 31 years

/s/ Thomas J. Harmon

/s/ David W. Heath – JSC, Reentry Specialist, MOD, 30 years

/s/ Miguel A. Hernandez, Jr. – JSC, Flight crew training and operations, 3 years

/s/ James R. Roundtree – JSC Branch Chief, 26 years

/s/ Enoch Jones – JSC, Mgr. SE&I, Shuttle Program Office, 26 years

/s/ Dr. Joseph Kerwin – JSC, Astronaut, Skylab 2, Director of Space and Life Sciences, 22 years

/s/ Jack Knight – JSC, Chief, Advanced Operations and Development Division, MOD, 40 years

/s/ Dr. Christopher C. Kraft – JSC, Apollo Flight Director and Director of Johnson Space Center, 24 years

/s/ Paul C. Kramer – JSC, Ass.t for Planning Aeroscience and Flight Mechanics Div., Egr. Dir., 34 years

/s/ Alex (Skip) Larsen

/s/ Dr. Lubert Leger – JSC, Ass’t. Chief Materials Division, Engr. Directorate, 30 years

/s/ Dr. Humbolt C. Mandell – JSC, Mgr. Shuttle Program Control and Advance Programs, 40 years

/s/ Donald K. McCutchen – JSC, Project Engineer – Space Shuttle and ISS Program Offices, 33 years

/s/ Thomas L. (Tom) Moser – Hdq. Dep. Assoc. Admin. & Director, Space Station Program, 28 years

/s/ Dr. George Mueller – Hdq., Assoc. Adm., Office of Space Flight, 6 years

/s/ Tom Ohesorge

/s/ James Peacock – JSC, Apollo and Shuttle Program Office, 21 years

/s/ Richard McFarland – JSC, Mgr. Motion Simulators, 28 years

/s/ Joseph E. Rogers – JSC, Chief, Structures and Dynamics Branch, Engr. Directorate,40 years

/s/ Bernard J. Rosenbaum – JSC, Chief Engineer, Propulsion and Power Division, Engr. Dir., 48 years

/s/ Dr. Harrison (Jack) Schmitt – JSC, Astronaut Apollo 17, 10 years

/s/ Gerard C. Shows – JSC, Asst. Manager, Quality Assurance, 30 years

/s/ Kenneth Suit – JSC, Ass’t Mgr., Systems Integration, Space Shuttle, 37 years

/s/ Robert F. Thompson – JSC, Program Manager, Space Shuttle, 44 years/s/ Frank Van Renesselaer – Hdq., Mgr. Shuttle Solid Rocket Boosters, 15 years

/s/ Dr. James Visentine – JSC Materials Branch, Engineering Directorate, 30 years

/s/ Manfred (Dutch) von Ehrenfried – JSC, Flight Controller; Mercury, Gemini & Apollo, MOD, 10 years

/s/ George Weisskopf – JSC, Avionics Systems Division, Engineering Dir., 40 years

/s/ Al Worden – JSC, Astronaut, Apollo 15, 9 years

/s/ Thomas (Tom) Wysmuller – JSC, Meteorologist, 5 years

Link: https://wattsupwiththat.com/2020/09/10/49-nasa-scientists-call-bs/

Übersetzt von Chris Frey EIKE




Ein amerikanischer Drachen – Bewährung im gnadenlosen Weltraum

Physik

Lassen Sie uns zunächst einen Blick auf die Physik dieser Reise werfen.

Die ISS umkreist die Erde in 400 km Höhe; das ist auch etwa die Distanz München-Frankfurt. Ist da oben denn die Schwerkraft schon so schwach, dass die Station nicht mehr runterfällt? Keineswegs. Die Erdanziehung da oben ist kaum schwächer als hier unten, und die ISS, so wie jeder andere Satellit, fällt auch andauernd runter. Allerdings hat sie eine so große Geschwindigkeit vorwärts, dass sie an der Erde vorbei fällt. Würde man ihre Geschwindigkeit drosseln, dann fiele sie weiter, so wie vorher, allerdings würde sie jetzt auf die Erde auftreffen.

Genau das passiert, wenn ein Raumschiff zur Landung zurückgeholt wird. Es fällt Richtung Erde, taucht in die Atmosphäre ein, wo es weiter abgebremst wird, und landet schließlich an Fallschirmen baumelnd im Ozean oder in der Steppe.

Damit ein Objekt da oben im Kreis – genannt Orbit – kontinuierlich um die Erde „fällt“, braucht es eine Geschwindigkeit von 27.500 km/h, das ist etwa 30 mal so schnell wie eine Boeing und 1000-mal so schnell wie ein (sportlicher) Radler. Das geht nur im luftleeren Raum. Denn dass die Luft bremst, das merken wir ja schon auf dem Fahrrad.

Die Technik des Drachen

Um also in den Orbit zu kommen, geht es erst einmal senkrecht nach oben, um so schnell wie möglich der hinderlichen Atmosphäre zu entfliehen. Dann geht es horizontal weiter, das Gaspedal am Anschlag, bis die gewünschte Speed erreicht ist. Genau so startete die Dragon 2.

Die Dragon 2 ist die von SPACEX gebaute Raumkapsel mit Platz für sieben Astronauten. In unserem Fall waren nur drei an Bord, wenn man den kleinen Dino mit zählt. Sie wurde von einer Rakete namens „Falcon 9“ in den Himmel geschossen.

Den senkrechten Teil der Reise besorgt die erste Stufe des Falken, die sich nach 3 Minuten vom Rest der Gruppe verabschiedet, nachdem sie ihren Job getan hat. Sie fällt jetzt aber nicht antriebslos zurück auf die Erde und zerschellt, sondern landet, wie von Geisterhand gesteuert, auf einer Plattform, die im Meer auf sie wartet.

FAST AM ZIEL

Nach weiteren neun Minuten hat die zweite Raketenstufe ihre Arbeit erledigt und trennt sich vom Drachen. Auf sie aber wartet kein freundlicher Empfang im Ozean. Sie wird noch einige Orbits hinter sich bringen, bis sie an Höhe verliert und in der Atmosphäre verglüht. Undank ist der Welt Lohn.

Nun ist die Kapsel allein in ihrem Orbit, aber nicht antriebslos. Sie wird jetzt einen halben Tag damit verbringen, sich der ISS zu nähern und bei ihr anzudocken. Es dauert so lange, einerseits weil das Weltall so groß ist, andererseits weil beide Objekte mit acht Kilometer pro Sekunde durch den Raum schießen. Da muss man sich ganz vorsichtig annähern, wenn man Blechschäden vermeiden will.

All das klappte am Samstag, dem 30. Mai 2020 ganz reibungslos und wurde live übertragen. Auch das Ankoppeln ging glatt, voll automatisch, wenn auch einer der Audiokanäle Probleme mit dem Mikro hatte. Das kennen Sie vielleicht aus eigener Erfahrung: Sie bekommen einen Skype-Anruf, stöpseln hektisch mit dem Headset herum, aber der andere hört Sie trotzdem nicht.

Inzwischen schweben die Neuankömmlinge gemeinsam mit denen, die schon länger da oben sind, durchs All, und überlegen, was sie am Abend machen wollen.

VERGLEICH ZUM SHUTTLE

Die Frage liegt nahe, wie sich das Falcon-Dragon Gespann vom Spaceshuttle unterscheidet, dem anderen Vehikel, das bis 2011 die USA mit dem Weltraum verbunden hatte.

Da sind zunächst die Ausmaße. Dragon verhält sich zum Shuttle wie ein VW Polo zu einem Tieflader. So brachte das Shuttle „Discovery“ 1980 das Teleskop „Hubble“ in den Weltraum, welches in der Folge sensationelle astronomische Beobachtungen machte. Mit seinen 13 Metern Länge hätte Hubble nicht in die Dragon Kapsel gepaßt.

Dann sind da die offensichtlichen Unterschiede in der Architektur der beiden Raumschiffe, sowie im Einsatz von Automation. Dem Shuttle, in den 7oer-Jahren entworfen, stand nur ein Bruchteil der Rechenleistung an Hardware und Software zur Verfügung, wie sie SpaceX bei Dragon und Falcon einsetzen konnte.

Die Landung der ersten Falcon-Stufe nach getaner Arbeit auf ihrem eigenen Hinterteil ist ein Zeugnis für den perfekten Einsatz moderner IT. Es ist eine epochale Leistung, sowohl in Automation als auch hinsichtlich Regelungstechnik, die in Millisekunden hunderte Tonnen Schub regeln, bis hin zum finalen „MECO“ – dem “Main Engine Cut Off”.

NEUE GENERATION

Aber nicht nur in der Technologie gibt es Unterschiede, sondern auch in der Kultur der beiden Programme.

Nach Apollo war die NASA von der Regierung beauftragt worden ein Raumfahrzeug zu bauen, das wiederverwendbar sein müsste. Es war nicht mehr akzeptabel, dass die 100 Meter hohe Saturn Rakete wie eine Einmalspritze nach jedem Start entsorgt würde. Man brauchte etwas, das wie ein Flugzeug landet, aufgetankt wird und fertig ist zum nächsten Einsatz.

Daraus wurde dann das Shuttle, das zwar landete wie ein (Segel)Flugzeug, aber keine der anderen Anforderungen erfüllte. Nach der Landung musste die Maschine zerlegt werden, Komponenten wurden überarbeitet oder ausgetauscht, sodaß am Ende oft nur der Name des Schiffes der gleiche war. Zwischen 1981 und 2011 absolvierten sechs Shuttles 136 Flüge. Im Durchschnitt musste also jedes Shuttle mehr als zwölf Monate lang überholt werden, bis es wieder starten konnte (siehe auch hier)

Die NASA hatte damals die Anforderungen der Regierung akzeptiert, wissend, dass sie unerfüllbar waren. Zugegeben, im Shuttle sind geniale technische Lösungen zu finden, aber das Gesamtkonzept war falsch.

Dieser Schwindel hat die Tugenden der NASA vergiftet, welche einst die grandiose Leistung der Mondlandung möglich gemacht hatten. Die Welt der reinen Wissenschaft und Technik war durch Politik kontaminiert worden.

Für die Entwicklung einer völlig neuen Generation von Raumfahrzeugen brauchte man jetzt eine neue Generation von Managern und Ingenieuren. Da waren SpaceX und Elon Musk die richtige Wahl.

Es scheint, dass hier niemand dem Auftragnehmer unmögliche Anforderungen stellte. Es scheint umgekehrt, dass SpaceX freie Hand hatte, alle verfügbare Technologie einzusetzen, um damit das optimale Raumschiff zu konstruieren. Das Ziel wurde von Experten gesetzt, die wussten, was möglich war, nicht von Geldgebern, die eine Wunschliste an den Weihnachtsmann schrieben.

Dazu kam der charismatische Elon Musk – ähnlich wie 50 Jahre früher Wernher von Braun – und man hatte die richtige Mischung.

AMERCA, GREAT AGAIN?

Das Jahrzehnt der Kooperation mit Rußland bei den Flügen zur ISS war zwar gut verlaufen, aber die Abhängigkeit von fremder Technologie war eine Demütigung für die USA. Man machte gute Miene, zahlte 50 Millionen Dollar für jeden „Round-Trip out of Kasachstan“ in der Sojus-Kapsel und knirschte mit den Zähnen.

So war es eine ersehnte Erlösung für die Amerikaner, die den Flug des Drachen am Fernseher verfolgten wie einst Apollo. Endlich hat wieder eine US-Firma eine epochale Leistung vollbracht, auf welche die Welt schaut. Es ist nicht mehr das Versagen ehemaliger industrieller Giganten wie Boeing oder General Motors, das im Rampenlicht steht. Man kann einen Erfolg feiern, der durch technologische Brillanz und charismatische Leadership möglich wurde, und der nicht von Medien künstlich konstruiert ist, sondern der sich im gnadenlosen Weltraum bewährt hat.

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“




Warum sind die höchsten CO2 Konzentrationen nicht dort, wo die Industrien sind?

Die These der Klimaschützer lautet, dass „der Mensch“, vorzugsweise der in den wohlhabenden Industrieländern schuld am Klimawandel (Vorher Klimaerwärmung, gewesene Klimaabkühlung) ist. Der CO2 Anteil ist von rd. 300ppm auf nun über 400 ppm gestiegen. Das bedeutet, bei 3 zu 10.000 Moleküle in der Atmosphäre war die Welt noch in Ordnung. Bei nun 4:10.000 geht sie der Katastrophe entgegen.

Die NASA betreibt das Orbiting Carbon Observatory 2, kurz OCO-2. Das ist ein US-amerikanischer Satellit, der am 2. Juli 2014 in eine Umlaufbahn gebracht wurde. Der Satellit misst u.a. die Kohlendioxid-Konzentration der Atmosphäre mit hoher Präzision. Von diesen Daten stammt die folgende Karte:

NASA mainco2mappia18934

Globale atmosphärische Kohlendioxidkonzentrationen vom 1. Oktober bis 11. November, aufgezeichnet vom Orbiting Carbon Observatory-2 der NASA. Die Kohlendioxidkonzentrationen sind über Nordaustralien, dem südlichen Afrika und Ostbrasilien am höchsten. Die vorläufige Analyse der afrikanischen Daten zeigt, dass die hohen Werte dort hauptsächlich durch das Verbrennen von Savannen und Wäldern verursacht werden. Erhöhtes Kohlendioxid ist auch über den industrialisierten Regionen der nördlichen Hemisphäre in China, Europa und Nordamerika zu beobachten. – Editor: Tony Greicius vom 7. Aug.  2017

Bildnachweis: NASA / JPL-Caltec,  https://www.nasa.gov/jpl/oco2/pia18934

 

Bewusst habe ich eine Grafik zum Okt.- Nov. gewählt.

Es ist Winterzeit auf der Nordhalbkugel. Es ist anzunehmen, dass geheizt wird, die Industrie und die Kraftwerke, vor allem Kohle stoßen CO2 aus. Im Winter insgesamt sicherlich mehr CO2 als  im Sommer.

Dafür ist es Frühsommer auf der Südhalbkugel. Dort gibt es mehr Wasser-, aber weniger Landflächen als im Norden und vor allem auch weniger CO2 imitierende Industrie und Heizungen. Ebenso fahren dort bestimmt auch weniger Autos als oben im Nordbereich.

Wieso sind die CO2 Anteile dann dort höher als in den Industrieländern der Nordhalbkugel?

gefragt von Andreas Demmig

 

In den zu diesem Beitrag von WordPress angezeigten „ähnliche Beiträge“ finden Sie frühere Berichte auf Eike, welche mir nicht geläufig waren. Interessant jedoch, das bereits früher geschriebene zu lesen. Besonders hier wird auf die Grafiken der NASA ausführlich eingegangen:

Endlich: Visualisierte CO2-Satellitendaten, die die globalen CO2-Konzentrationen zeigen

Veröffentlicht wurde obige Grafik Anfang 2015. Offenbar war aber in dem Kommentar zum Bild noch etwas zu ändern, letztmalig im August 2017.

***

Die Nasa bietet noch viele weitere Informationen, obiges ist aus der Abteilung zur Untersuchung der Erde, deren Budget Präsident Trump verkleinern will. NASA soll sich mehr um das Weltall und Raumfahrt kümmern. Mein persönlicher Eindruck ist es, dass noch viele der dortigen Wissenschaftler*innen überzeugte Anhänger der CO2 Erwärmungshypothese sind. Wahrscheinlich alle noch aus der Clinton / Obama Ära. Wie schon geschrieben – mein Eindruck.




Das Ozonloch schrumpft im Oktober 2019 auf die kleinste Größe seit 1982

Das „Loch“ in der Ozonschicht, befindet sich in etwa über der Antarktis, erfuhr wegen „abnormal“ Wetters in der oberen Atmosphäre eine massive Verkleinerung im September und Oktober.  was zu seiner kleinen Ausdehnung führte. Nach den seit 1982 begonnenen Beobachtungen , war dies jetzt die geringste Ausdehnung, wie Wissenschaftler der  NASA und NOAA berichteten.

Die Satellitenmessungen ergaben, dass das Ozonloch am 8. September eine Spitzengröße von 6,3 Millionen Quadratmeilen [~ 16 Mio qkm] erreichte, für den Rest des Monats September und Oktober jedoch auf weniger als 3,9 Millionen Quadratmeilen [~10 Mio qkm] abnahm. Wissenschaftler, die das Ozonloch beobachten, wiesen darauf hin, dass die Veränderungen zumeist auf atypischen Wettermustern beruhen und nicht auf einer dramatischen Erholung.

„Es sind großartige Neuigkeiten vom Ozon in der südlichen Hemisphäre“, sagte Paul Newman, Chefwissenschaftler für Geowissenschaften am Goddard Space Flight Center in Greenbelt, Maryland, in einer Erklärung. „Aber es ist wichtig zu erkennen, dass das, was wir in diesem Jahr sehen, auf wärmere Temperaturen in der Stratosphäre zurückzuführen ist. Es ist kein Zeichen dafür, dass sich das Ozon in der Atmosphäre plötzlich auf dem schnellsten Weg zur Erholung befindet. “

Scientists from NASA and NOAA work together to track the ozone layer throughout the year and determine when the hole reaches its annual maximum extent. This year, unusually strong weather patterns caused warm temperatures in the upper atmosphere above the South Pole region of Antarctic, which resulted in a small ozone hole.
Credits: NASA Goddard/ Katy Mersmann

 

Wie ein Sonnenschutz oberhalb der Erde, bildet die Ozonschicht einen Teil der Erdatmosphäre und absorbiert nahezu die gesamte ultraviolette Strahlung der Sonne, sodass gerade genug [Strahlung] für das Gedeihen des Lebens bleibt. Die Ozonschicht selbst ist ein dünner Abschnitt der Stratosphäre, in der laut National Geographic das Verhältnis von Ozongasmolekülen zu Luftmolekülen etwa 3 zu 10 Millionen beträgt. Trotzdem schützt diese dünne Schicht den Menschen vor Hautkrebs, grauem Star und anderen Krankheiten.

Das Loch in der Ozonschicht schwankt das ganze Jahr über. Das Loch bildet sich in der Regel von Ende September bis Anfang Oktober auf eine maximale Größe von rund 8 Millionen Quadratmeilen. Insbesondere bildet sich das Loch, wenn Sonnenstrahlen im späten Winter auf der südlichen Hemisphäre mit den Ozonmolekülen und menschen-verursachten Verbindungen interagieren.

[Hier gemeint: FCKW – Mehr auf einer Schulungswebseite]

Solche Ereignisse können jedoch bei gewöhnlich wärmeren Temperaturen gemildert werden.

„Bei wärmeren Temperaturen bilden sich weniger polare Wolken in der Stratosphäre und sie halten nicht so lange an, was den Prozess des Ozonabbaus einschränkt“, heißt es in einer gemeinsamen Erklärung von NASA und NOAA.

„Es ist ein seltenes Ereignis, das wir immer noch zu verstehen versuchen“, sagte Susan Strahan, Atmosphärenforscherin bei der Universities Space Research Association, in einer Erklärung am Montag. „Wenn die Erwärmung nicht stattgefunden hätte, würden wir wahrscheinlich ein viel typischeres [größeres] Ozonloch feststellen.“ Strahan stellte fest, dass solche üblichen Wettermuster in der Vergangenheit z.Bsp. in 1988 und 2002 kleine Ozonschichten erzeugt haben.

Das rekord-kleine Ozonloch war eine Folge des warmen Wetters; Wissenschaftler der NASA stellten jedoch fest, dass das Loch tatsächlich langsam kleiner wird – ein Ergebnis des Montrealer Protokolls von 1987, mit dem Fluorchlorkohlenwasserstoffe weltweit aus dem Verkehr gezogen wurden.

Gefunden auf

https://dailycaller.com/2019/10/22/ozone-layer-hole/

Übersetzt durch Andreas Demmig




NASA: Brände im Amazonas-Becken im 15-Jahresdurchschnitt

»Feuer. Überall Feuer.« Die »Zeit« gerät regelrecht in Panik. »Nicht nur in Brasilien, sondern in ganz Südamerika brennt es im Wald.«

Auch Greta Thunberg ist über die Feuer im Amazonasbecken erschrocken. Mitten auf dem Atlantik auf ihrer Segelyacht, die sich gerade durch flaue Winde nach New York kämpft, erfährt sie, wie schlimm es um unsere gute alte Erde doch bestellt ist, wo jetzt auch noch Südamerika brennt.

So stark hat der Amazonas noch nie gebrannt, berichten die Medien. Die Brände brechen alle Rekorde – und CO2 allüberall. National Geographic schreit »Der Amazonas brennt in Rekordraten«. Das peinliche Panik-Portal »Weather.com« von Burda brüllt: »Die Welt scheint entflammt zu sein.«

Der britische Premierminister Boris Johnson ist »zutiefst besorgt«, Bundeskanzlerin Angela Merkel hat mal wieder nichts weniger als die gesamte Welt im Auge. Sie hat die Feuer als »akuten Notfall« sowie »schockierend und bedrohlich nicht nur für Brasilien und die anderen betroffenen Länder, sondern auch für die ganze Welt« bezeichnet.

Doch Brasiliens Präsident Bolsonaro will »Kapitän Kettensäge« sein, wenn die Schreckensmeldungen alle wahr sein sollten, und entlässt wegen Panikmache gleich mal den Chef des brasilianischen Weltraumforschungsinstitutes.

Also: Was ist diesmal dran am Weltuntergang?

Ein Blick auf die Ergebnisse der amerikanischen Weltraumbehörde NASA erhellt. Deren Satelliten beobachten die Erde schon seit langem. Die NASA erklärt, dass die gesamte Brandaktivität im Amazonasbecken in diesem Jahr im Vergleich zu den vergangenen 15 Jahren nahe am Durchschnitt liegt, eher leicht unterdurchschnittlich einzustufen ist. Die Brände hätten im Amazonas-Gebiet und Rondonia zugenommen, dagegen in den Staaten Mato Grosso und Pará abgenommen.

Bilder sind hier zu finden.

Kein Wunder: Es herrscht Trockenzeit, Brände auch im Amazonaswald und in der Savannenlandschaft sind in dieser Jahreszeit nicht ungewöhnlich – wie in allen anderen Teilen der Erde auch.

Ein eindrucksvoller kurzer Film der NASA zeigt, wo es überall auf der Erde regelmäßig brennt, nämlich überall dort, wo es trocken ist, feuchte Regenwälder brennen eher selten.

Die Brände entstehen einmal durch natürliche Selbstentzündung. Sie werden aber auch häufig von Farmern gelegt, die damit Büsche und unerwünschte Pflanzen niederbrennen lassen. Aus der sehr mineralreichen Asche wächst rasch wieder verstärkt Grünland für die Viehhaltung. Viehzüchter roden den Wald häufig mit Feuer, das ist einfacher, als mit Motorsägen Bäume zu fällen. Illegal ist es in Brasilien, die Feuer während der Trockenzeit zu legen, weil sie dann leicht außer Kontrolle geraten. Präsident Bolsonaro wirft Umweltgruppen vor, Feuer absichtlich gelegt zu haben, weil er ihnen die staatlichen Mittel gekürzt habe.

Zwei wesentliche Quellen liefern derzeit Übersichten über die Brände in Südamerika: Das Instituto Nacional de Pesquisas Espaciais INPE und das brasilianische Institut für Weltraumforschung. Mit ihrem Programm DETER kann das Institut mit Hilfe von Satellitenbildern den brasilianischen Regenwald beobachten und Veränderungen auswerten. Doch diese Daten, so schränkt DETER selbst ein, dürfen nicht als nicht verlässlich eingestuft werden. Sie liefern nur Hinweise.

Das Programm DETER ist als Schnellwarnsystem für Brände und nicht als System zur Zählung von Feuerstellen konzipiert worden. Es kann Feuer schon mal mehrfach zählen und es kann zudem nicht durch Wolken sehen. Das bedeutet weiterhin, wenn das System eine gerodete Waldfläche erkennt, »weiß« es nicht, ob diese Fläche schon lange zuvor gerodet wurde oder erst vor kurzem.

Es zeichnet die Daten zudem nur für vier Wochen auf. Erst die genaue Validierung mit einem anderen Programm – PRODES – gibt genaue Auskunft. Das basiert auf Daten der LANDSAT und anderer Satelliten und kann Vorher-Nachher-Bilder vergleichen. PRODES allerdings kann erst zu Beginn des jeweils nächsten Jahres die Ergebnisse liefern.

Aktuell geriet das INPE-Institut in die Kritik, als es ziemlich vorzeitig warnte, dass im ersten halben Jahr bereits 50 Prozent mehr Amazonas-Regenwald abgeholzt worden seien als im Vorjahreszeitraum. Präsident Bolsonaro wütete über den INPE-Chef, er würde für eine NGO arbeiten. INPE-Chef Galvão bezeichnete daraufhin den Präsidenten als »Feigling« und dürfte sich wohl nicht allzusehr gewundert haben, dass er entlassen wurde.

Eine durchschnittliche Brände-Saison zu erwarten

Dann liefert die amerikanische NASA genaue Informationen über den Zustand der Erde. Laut dem Earth Observatory der NASA vom 16. August 2019 ergab eine Analyse der NASA-Satellitendaten, dass alle Brandaktivitäten im Amazonasbecken in diesem Jahr im Vergleich zu den letzten 15 Jahren nahezu dem Durchschnitt entsprechen.

Eine Grafik zeigt auf den ersten Blick, dass die Brandsaison in Südamerika in diesem Jahr erst am Anfang steht, doch die bisherigen Daten erkennen lassen, dass sich eine ganz durchschnittliche Saison erwarten lässt.Es ist nicht so einfach, den Verlauf der Feuer zu verfolgen. Die Satelliten liefern Bilder im sichtbaren und Infrarot-Bereich, Wolkendecken können die freie Sicht des Satelliten blockieren; die Programme müssen die Bilder kombinieren und mit denen vergangener Jahre vergleichen. Denn das Betrachten aktueller Bilder sagt nicht viel aus. Erst der Vergleich mit vergangenen Jahren erhellt, ob es mehr oder weniger brennt.

Feuer gehören zur Entwicklung der Natur. Brände beeinflussen die Vegetation und die Atmosphäre der Erde seit 350 Millionen Jahren. Ein Video der NASA zeigt eindrucksvoll, in welcher Regelmäßigkeit es rund um den Globus immer wieder brennt.

Update vom 28.8.19 (Daten von INPE & NASA aufgeschrieben von Kolja Zydatiss am 27.8.19 in ACHGUT)

Wie das INPE und die nationale amerikanische Raumfahrtagentur NASA mit Bezug auf Satellitendaten melden, sind die Brände im brasilianischen Amazonasgebiet so zahlreich und intensiv wie seit dem Jahr 2010 nicht mehr. Die bisherige Anzahl der Brände liegt 79 Prozent über dem Vorjahreszeitraum und sieben Prozent über dem Durchschnitt der letzten zehn Jahre. Vor 2010 gab es allerdings mehrere Jahre, in denen erheblich mehr Brände im Amazonasgebiet gewütet haben als heute. Tatsächlich fielen die schlimmsten Jahre in die Amtszeit des sozialdemokratischen Präsidenten Lula da Silva, der Brasilien von 2003 bis 2010 regierte.

Feuerökologie

Die Bedeutung des Feuers für die Evolution der Lebewesen wie auch für das Klima ist jedoch weitgehend ungeklärt. »Feuerökologie« ist ein relativ junges Fachgebiet und liefert nicht besonders viele Erklärungen. Eine ist erstaunlich: Es gab in den Graslandschaften der Prärien Nordamerikas einen Rückgang der Artenvielfalt, weil der Mensch jahrzehntelange keine Brände mehr ausgelöst hat.

»Savannen-, Wald- und andere Vegetationsfeuer sind ein weltweites Phänomen«, betonen Wissenschaftler vom Max-Planck-Institut für Chemie in Mainz. »Sie sind integraler Bestandteil verschiedenster Ökosysteme, in denen sich die Feuer in Abständen von einem Jahr bis zu einigen Jahrhunderten wiederholen. Vegetationsbrände treten natürlich auf, und können mit versteinerten Holzkohlefunden bis zum Devon zurückverfolgt werden.«

Sie verweisen auch auf die erheblichen Unsicherheiten in der Abschätzung der Vegetationsfeuer und in der Frage, wieviel und welche Emissionen sie produzieren. »Dies drückt sich zum Beispiel in der Streuung der mit verschiedenen Methoden berechneten regionalen Emissionen um bis zu einer Größenordnung aus. Die Analyse von Feuerbeobachtungen weiterer, insbesondere geostationärer, Satelliten wird die Unsicherheit in Zukunft verringern.«

Die Mainzer haben eine Kurve »Global Biomass consumption in Vegetation fires« für die vergangenen Jahre erstellt. Ergebnis: Die Kurve verläuft relativ sehr gleichmäßig. Dies bedeutet: Es handelt sich um regelmäßig wiederkehrende Ereignisse.

Und sie stellen fest: »Die regionale Variabilität ist deutlich ausgeprägter als die globale. So wurde 2014 eine zweifach überdurchschnittliche Feueraktivität in Nordamerika und im tropischen Asien durch circa 15 Prozent weniger Feuer in Afrika und Südamerika ausgeglichen.«

Weltweite Brände – nichts Ungewöhnliches also, jedenfalls überhaupt keine Rechtfertigung, um mit Panik Stimmung zu machen und Geschäfte mit wilder Panik anzuheizen. Das bedeutet natürlich nicht, die teilweise illegalen Brandrodungen in Südamerika gut zu heißen. Nicht umsonst schickt Präsident Bolsonaro Militär in die Regionen.

Panik ungerechtfertigt

Er hat es bisher allerdings vermieden, den Marktschreiern den Spiegel vor die Nase zu halten. Denn nicht vergessen werden darf, dass ebenso in Europa Brandrodung das Mittel der Wahl war, um Flächen für Ackerbau und Viehzucht nutzbar zu machen. Heute werden riesige Waldgebiete in Europa für Windräder abgeholzt, in Norwegen wird gerade eine Fläche so groß wie Belgien gerodet. Tausende von Windrädern sollen in dieser unberührten Landschaft entstehen – unter anderem für die Stadtwerke München, die ihren ökobeflissenen Kunden teuer »grünen« Strom verkaufen wollen. Sie müssen nur noch den Elektronen aus den Generatoren der Windräder sagen, dass sie nicht in Norwegen bleiben, sondern nach München sollen.

Mit den weit entfernten Bränden in Brasilien kann der französische Präsident Macron so schön von den wirklichen Gefahren in Europa ablenken, wenn er fordert »diesen Notfall« als ersten Punkt beim Gipfeltreffen in Biarritz zu besprechen.

Zur Beruhigung bleibt schließlich die Einsicht: Nicht nur Wälder, sondern auch das Plankton in den Meeren produziert Sauerstoff. Und zwar einen wesentlich größeren Anteil als Wälder. Die sind nicht die einzigen »Lungen des Planeten«.

Was, um dies klar hervorzuheben, keinerlei Freibrief für hemmungsloses Abholzen von Regenwäldern bedeuten kann. Auch nicht, um beispielsweise Palmölplantagen anzulegen. Die liefern Palmöl für »Biodiesel« – von Bundesregierung und EU ausdrücklich mit Nachhaltigkeitssiegel versehen.

Der Beitrag erschien zuerst bei TE hier



Adjustierte „unad­justierte“ Daten: NASA nutzt den „Zauberstab“ des Frisierens und erzeugt Erwär­mung dort, wo es nie eine gab

Diese Praxis hat zur Erstellung neuer Datensätze geführt mit der Bezeichnung „adjustierte“ Daten, während die alten Datensätze mit der Bezeichnung „V3 unadjustiert“ versehen wurden. Das Problem der Gobale-Erwärmung-Aktivisten bestand jedoch darin, dass ein Blick auf die alten „unadjustierten“ V3-Daten – d. h. unverfälschte Daten – oftmals einen abwärts gerichteten Temperaturtrend zeigte. Derartige negative Trends waren natürlich für die Alarmisten unerträglich, behaupten diese doch unablässig, dass sich der Planet rapide erwärmt.

Die adjustierten „unadjustierten“ Daten

Was also war zu tun? Nun, es sieht so aus, als hätte sich die NASA entschlossen, seine „V3 unadjustierten Datensätze“ zu adjustieren und sie umzubenennen in „V4 unadjustiert“. Das stimmt – die adjustierten Daten wurden zu V4 „unadjustiert“.

Und welchen Trend zeigen nun die neuen „V4 unadjustierten“ Daten?

Richtig geraten! Die neuen V4 unadjustierten Daten zeigen Erwärmungstrends, und das sogar an Stellen, an denen einst ein Abkühlungstrend aufgetreten war.

Die NASA schwingt ihren Zauberstab des Frisierens, um eine Abkühlung in eine (Fake-)Erwärmung zu verwandeln, folgendermaßen:

6 Beispiele skandalösen Unfugs der NASA

Hier folgen 6 Beispiele aus verschiedenen Gegenden des Globus‘ und über Jahrzehnte zurückreichend. Sie demonstrieren eindrucksvoll diese skandalöse, willkürliche Veränderung von Daten:

Nr. 1

Punta Arenas, Chile: Hier sehen wir, wie ein eindeutiger Abkühlungstrend von der NASA so erwärmt wurde, dass nur noch ein sehr geringer derartiger Trend übrig blieb:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 2

Marquette, Michigan: Hier hat die NASA einen leichten Abkühlungstrend in einen robusten Erwärmungstrend verwandelt. Kein Wunder, dass der japanische Klimawissenschaftler Dr. Mototaka Nakamura [auf Deutsch beim EIKE hier] jüngst die globale Erwärmung zeigenden Daten der Experten als „nicht vertrauenswürdig“ und „gefälscht“ charakterisiert hat:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 3

Port Elizabeth, Südafrika: Hier wurde ein 109 Jahre zurück reichender Datensatz so verändert, dass ein fehlender Erwärmungstrend in einen Erwärmungstrend verwandelt wurde:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 4

Davis, Antarktis: Daten der Japan Meteorological Agency beispielsweise zeigen, dass diese Station keinen Trend aufweist, genau wie die nicht adjustierten V3-Daten der NASA. Aber die neuen V4 „unadjustierten“ Daten der NASA zeigen, dass jene Erwärmung endlich auch die Antarktis erreicht hat:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 5

Hachijojima, Japan: Die unadjustierten V3-Daten von dieser abgelegenen Inselstation zeigten keinen Trend – bevor die NASA beschloss, einen neuen, „unadjustierten“ Datensatz zu erzeugen. Und siehe da – jetzt gibt es einen Erwärmungstrend dort, wo nie einer aufgetreten war:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Nr. 6

Valentia, Irland: Hier sieht man, wie Abschnitte in der Vergangenheit kühler und jüngere Temperaturdaten wärmer gemacht worden waren. Keine Überraschung – das Ergebnis ist eine stärkere Erwärmung:

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v3

giss.nasa.gov/cgi-bin/gistemp/stdata_show_v4

Bei der NASA scheint es so, als ob die Sonne, Ozeane, Wasserdampf usw. keine Rolle zu spielen scheinen, wenn es um globale Temperaturtrends geht. Der Nummer 1-Faktor hinter der „Erwärmung“ bei der NASA scheint nicht einmal CO2 zu sein, sondern vielmehr deren Orwell’sche Fälschung von Daten. Falls bei der NASA die Daten nicht mit den (erfundenen) Modellen übereinstimmen, dann verändere man sie einfach, bis sie passen.

Legt diesen NASA-Sumpf endlich trocken!

Link: https://notrickszone.com/2019/06/25/adjusted-unadjusted-data-nasa-uses-the-magic-wand-of-fudging-produces-warming-where-there-never-was/

Übersetzt von Chris Frey EIKE




Publico Dossier: Die Psychologie des grünen Erfolgs

Das Wahlergebnis der Grünen in Deutschland lässt sich nicht verstehen ohne drei Begriffe, die in der US-amerikanischen Politik seit Jahrzehnten eingeführt, hierzulande allerdings – zumindest zwei von ihnen –  als Begriff noch weitgehend unbekannt sind. Als Technik selbst allerdings nicht.

Die Grünen und ihr organisatorische wie mediales Umfeld bedienen seit etwa einem Jahr dreier Instrumente in Perfektion, während die anderen Parteien die Praxis noch nicht einmal begreifen: Astroturfing, Framing und gezielte Beeinflussung des Overton Windows.
Um mit dem ersten zu beginnen: Bei Astroturf handelte es sich ursprünglich um einen Begriff für Kunstrasen in Stadien. Schon in den 90er Jahren benutzten Politiker und Politanalysten das Wort für öffentlichkeitswirksame Aktionen, die koordiniert und gewissermaßen im Ganzen ausgerollt werden, aber den Eindruck einer spontanen, an vielen Stellen gleichzeitig entstehenden Aktivität erwecken sollen. Also das Gegenteil eines Kunstrasens, nämlich eine urwüchsige Graswurzelbewegung. Der Begriff geht wahrscheinlich auf den texanischen Senator Lloyd Bentsen zurück, der 1985 plötzlich sehr viele Briefe und Postkarten bekam, scheinbar von normalen, unabhängig voneinander agierenden Bürgern, die ihn beknieten, sich besser um die Interessen der Versicherungswirtschaft zu kümmern. “A fellow from Texas“, meinte Bentsen, „can tell the difference between grass roots and AstroTurf… this is generated mail.”

Mit simpler Briefpost betreibt heute niemand mehr Astroturfing. Die Instrumente sind unendlich wirkungsvoller, und die Praxis zielt auf die breite Öffentlichkeit: Mit vorgeblich von unten gewachsenen Bewegungen wie den „Schulstreiks für das Klima“, mit Youtube-Videos und mit Veröffentlichungswellen von Appellen.Mit dem Begriff Framing immerhin kann spätestens seit dem „ARD-Framing-Manual“ der Publizistin Elisabeth Wehling schon eine etwas größere Öffentlichkeit in Deutschland etwas anfangen. Zur kurzen Erinnerung: Wehling, eine mit wohlklingendem eigenen Institut selbstnobilitierten Psychologin, hatte für die ARD 2017 ein so genanntes Framing-Manual verfasst, in dem sie dem Senderverbund riet, für eine höhere Akzeptanz des Gebührensystems moralisch aufgeladene Begriffe in Umlauf zu bringen. Etwa „Gemeinwohl-Funk“ für den öffentlich-rechtlichen Rundfunk. Kritiker sollten folglich als Gemeinwohl-Feinde, Gebührenverweigerer als „vertragsbrüchig“ stigmatisiert werden.

Theoretiker und Praktiker des Framing (von Frame, Rahmen) erklären Sachverhalte als praktisch beliebig dekonstruierbar. Für sie gibt es keine Objektivität, selbst in der Naturwissenschaft nicht, sondern nur „Deutungsrahmen“, die, je nachdem, wie sie gesetzt werden, die öffentliche Diskussion leiten. Was ja auch zu einem gewissen Grad zutrifft. Es lenkt die Wahrnehmung vieler Medienkonsumenten erheblich, wenn etwa Demonstranten in Chemnitz als „Mob“ bezeichnet werden, gewalttätige Besetzer im Hambacher Forst dagegen als „Aktivisten“. Oder ob ein Medium von „Klimaentwicklung“ und „Klimawandel“ schreibt – oder von „Klimakrise“.

Beides, scheinbar spontane Bewegungen wie Begriffsprägung beeinflussen wiederum das Overton-Window. Den Begriff des „Wahrnehmungsfensters“ prägte der amerikanische Politikwissenschaftler Joseph P. Overton (1960 -2003). Nach seinem Modell existiert ein Fenster der Wahrnehmung für gesellschaftliche Themen, das jedenfalls für die große Bevölkerungsmehrheit definiert, was als akzeptabel, umkämpft und außenseiterisch gilt. Overton entwarf folgende Skala:
Geltende Politik, populäre Ansicht, zunehmende Vernunft, noch akzeptable Ansichten, Radikalität und „undenkbare“ Ansichten („Policy, Popular, Sensible, Acceptable, Radical, Unthinkable“).

Wie ein Blick in die Geschichte zeigt, ändert sich die Bewertung vieler Ansichten in diesem Fenster von Generation zu Generation, und zwar nicht selten grundlegend. Massenverfolgung, die im Dritten Reich oder in der stalinistischen Sowjetunion als „normal“ galt, gehört heute zu Recht zu den Schreckensvorstellungen. Aber auch etwas kleinere und abgegrenzte Themen gleiten auf die Skala. Zu DDR-Zeiten hatten sich beispielsweise mit der Stabilisierung der SED-Herrschaft die meisten im Land mit Enteignung und Kollektivierung abgefunden. Im Westen galt dieses Gesellschaftsmodell spätestens seit dem Erfolg des Wirtschaftswunders als undenkbar, mindestens als radikal.
Unmittelbar nach dem Zusammenbruch der DDR 1989 überlebten Enteignungsphantasien bestenfalls noch im härtesten SED- und DKP-Funktionärsmilieu. Heute gleitet die Wahrnehmung gerade wieder in Richtung „empfindlich“ bis „akzeptabel“, wenn etwa Kevin Kühnert Kollektivierungspläne für BMW entwirft, und der Grünenvorsitzende Robert Habeck meint, über die Enteignung von Immobilien sollte ruhig einmal nachgedacht werden. Begriffe und Themen driften nicht nur einfach in dem Wahrnehmungsfenster. Sie lassen sich mit Geschick und Anstrengung auch ganz gezielt verschieben.

Als klassisches Astroturf-und-Framing-Unternehmen dürfte das Unternehmen Greta einmal in Psychologielehrbücher eingehen. Der Blogger Don Alphonso hatte schon im März 2019 ein nicht für die Öffentlichkeit bestimmtes Strategiepapier veröffentlicht, das zeigt, wie straff und professionell die „Fridays for Future“-Bewegung tatsächlich organisiert wird – vor allem von den Grünen.

Bei deutschen Demo-Auftritten Thunbergs weichen zwei Personen der 16-Jährigen so gut wie nie von der Seite: Luisa Neubauer, eine Art Klimajugend-Beauftragte der Grünen, und Jakob Blasel, Greenpeace-Aktivist und Mitglied der Grünen Jugend. Zwei gutaussehende und mediengewandte junge Grüne, ein praktisch unkritisierbares Kind im Rang einer „Prophetin“ (Göring-Eckardt) –  das Trio wirkt so smart zusammengecastet wie eine der notorischen Neunziger-Jahre-Boybands.
Zu den Schülerdemonstrationen kommt nicht nur eine fast durchgehend wohlwollende Begleitung durch die etablierten Medien, wo wiederum das Herz der Journalistenmehrheit für die Grünen schlägt. Dazu kommt, wie eine Recherche von Tichys Einblick zeigte, im Hintergrund eine NGO. Wichtiger Verstärker für die Öffentlichkeit: das fast gleichzeitig entstandene Parallelnetzwerk der „Scientists for Future“, das für die nötige argumentative Unterfütterung sorgen soll und behauptet, „16 000 namhafte Wissenschaftler“ aus Deutschland, Österreichs und der Schweiz zu vertreten”. Als Initiatoren treten unter anderen der aktivistische Chef des Potsdam-Instituts für Klimafolgenforschung Hans-Joachim Schellnhuber auf, dessen Stellvertreter Johan Rockström sich gerade in einem Interview mit frei erfundenen Behauptungen und Zahlensalat („Ein Steak enthält 70 Liter Erdöl“) blamierte und seine Behauptungen zurücknehmen musste.

 

Außerdem dabei: Der TV-Moderator Ranga Yogeshwar, der Medizinpublizist Eckart von Hirschhausen und die für ihre Falschprognosen bekannte Ökonomin Claudia Kemfert (die 2011 prophezeite, die EEG-Umlage werde bis 2020 nicht über 3,59 Cent pro Kilowattstunde steigen, und andererseits einen schon bald fälligen Ölpreis von bis zu 200 Dollar pro Barrel vorhersagte). Dass die „Scientists for Future“ nicht‚ die „Klimawissenschaft” repräsentieren, sondern ihren hoch aktivistischen Teil, kann jeder erkennen, der beispielsweise das Buch „Die Klimafalle. Die gefährliche Nähe von Politik und Klimaforschung“
von Hans von Storch zur Hand nimmt. Der renommierte Meteorologe und Küstenforscher warnt darin seine Kollegen, sich als Ersatzpolitiker und Chefapokalyptiker aufzuspielen.

Die Netzwerke von grüner Partei, „Fridays for Future“-Schülern, journalistischen und institutionellen Unterstützern bilden das Kunstrasen-Geflecht, erstaunlich schnell ausgerollt und bemerkenswert solide gearbeitet. Wie wenig Spontanität darin steckt, zeigt sich beim Studium der Theorie-Texte dieser Bewegung, den schon mehrere Jahre alten Publikationen der US-amerikanischen Psychologin Margaret Klein Salamon:  The Transformative Power of Climate Truth und Leading the Public into Emergency Mode. In „Die Öffentlichkeit in den Notfallmodus führen“ empfiehlt Klein ein Vorgehen, das sich wie ein Drehbuch der „Fridays for Future“-Bewegung liest. Dort heißt es:
„Das Akzeptieren der Klimawahrheit kann nicht nur dein bürgerliches und politisches Engagement beeinflussen, sondern auch deine Prioritäten, Ziele und dein Identitätsgefühl. Üblicherweise heißt es in der Argumentation der Klimapolitik dass ‘Furcht nicht funktioniert’: der Öffentlichkeit die erschreckende Wahrheit zu erklären würde nur vor Klimaaktionen abschrecken, und die Aufgabe der Klimabewegung bestünde darin, den Klimawandel als handhabbares Problem mit handhabbaren Lösungen darzustellen. Aber Verzweiflung, Panik und Angst sind nicht nur die einzigen Antworten auf die Klima-Wahrheit.
Der Notfall-Modus ist der Modus der humanen psychologischen Funktion, der eintritt, wenn Individuen oder Gruppen optimal auf existenzielle oder moralische Notfälle reagieren. Dieser Modus des humanen Funktionierens, der sich von dem ‚normalen’ funktionieren unterscheidet, ist von einer extremen Konzentration von Aufmerksamkeit und Ressourcen geprägt, um produktiv zusammenzuarbeiten und den Notfall zu lösen. Um diesen Weg zu beschreiten, müssen die Menschen erkennen, dass sie mit einem Notfall-Problem konfrontiert sind, das Notfall-Lösungen erfordert.“

(Accepting climate truth can affect not only your civic and political engagement, but also your priorities, goals, and sense of identity. Common climate communications wisdom argues that “fear doesn’t work:” telling the public the terrifying truth will only deter action, and it’s the climate movement’s job to present climate change as a manageable problem, with manageable solutions. But despair, panic and anxiety are not the only responses to the knowledge of climate truth.
Emergency mode is the mode of human psychological functioning that occurs when individuals or groups respond optimally to existential or moral emergencies. This mode of human functioning, markedly different from “normal” functioning— is characterized by an extreme focus of attention and resources on working productively to solve the emergency. To go into it, people must recognize that they are facing an emergency problem, that requires an emergency solution.)

Genau dieser Empfehlung, bewusst im Panik-Modus zu sprechen, folgt das gesamte Netzwerk, dessen Zentrum die Grünen und die Greta-Bewegen bilden. Die Protagonisten arbeiten die Gebrauchsanweisung mit entsprechendem Framing und Wording regelrecht ab.
Greta Thunbergs emblematischer Spruch lautet bekanntlich: „Ich möchte nicht, dass ihr hoffnungsvoll seid. Ich will, dass ihr in Panik geratet.“
Bei Luisa Neubauer klingt das so (in einem Beitrag für den WWF-Blog im Januar 2019): „Denn es fühlt sich tatsächlich so an, als würden wir in einem Auto sitzen, das auf einen Abgrund zusteuert. Doch anstatt zu bremsen, wird beschleunigt. Wir wurden in dieses Auto gesetzt, ohne dass wir gefragt wurden. Es gibt diesen Abgrund wirklich.“

Bei der Mikrobiologin Antje Boetius, Mitglied bei den „Scientists for Future“ hört es sich so an (in der Sendung „Maybritt Illner“):
„Die Zukunft ist kaputt, die Zeit ist um, wir haben jetzt noch zehn oder zwölf Jahre, um wirklich etwas zu ändern – und das wird den Bürgern verheimlicht.“

Oder in einem Artikel des Spiegel Online-Autors Theodor Ziemßen, der das beschreibt, was er für das Schicksal seiner Söhne im Alter von zwei und sechs Jahren hält:
„Wir haben sie in diese Welt geboren, ohne vorher genau auf das Haltbarkeitsdatum der Menschheit, wie wir sie kennen, zu gucken. Und jetzt? Tun wir nicht genug, schauen nicht genau genug hin, sind nicht laut genug und rufen nicht oft genug ‚Nein!’, um das Unglück aufzuhalten.“

Der Wechsel in den Panik-Modus vollzieht sich nicht nur in Deutschland. Der britische Guardian kündigte kürzlich an, statt „Klimawandel“ bevorzugt von „Klimanotfall“, „Klimakrise“ oder „Klimakollaps“ zu schreiben („Instead of ‚climate change‘ the preferred terms are ‚climate emergency, crisis or breakdown‘ ”).

Es handelt sich um geradezu mustergültiges Framing: Meinungslenkung durch suggestive Wortwahl.
In den Panik-Modus passt auch, dass auf Druck von Grünen verschiedene Städte – etwa Konstanz – den „Klimanotstand“ für die Kommune ausriefen.

In der Angst-und-Schreckens-Rhetorik kommt kaum noch eine konkrete Zahl, ein Faktum, ein Argument vor. Und wenn, dann nur als groteske Verzerrung. Ziemßen etwa suggeriert auf Spiegel Online, seine Kinder würden es noch erleben, dass Hamburg „im Meer versinkt“. In Wirklichkeit geht selbst das katastrophengestimmte IPCC nicht einmal in seiner pessimistischsten Prognose von einem derartigen Meeresspiegelanstieg an der Nordseeküste innerhalb nur einer Generation aus. Ganz abgesehen davon, dass kein Küstenstadt eine Pegelerhöhung einfach tatenlos hinnehmen würde.

Nirgends gibt es eine solche Zunahme der Erwärmung, eine Beschleunigung des Klimawandels, die einen globalen Notfallmodus tatsächlich rechtfertigen würde. Der Meeresspiegelanstieg lag in den letzten Jahren laut NASA bei 3,3 Millimeter jährlich, nach anderen Daten, etwa der University of Colorado, bei 3,1 Millimeter. Es gibt durchaus renommierte Ozeanologen wie Nils-Axel Mörner, die den Anstieg nicht als alarmierend ansehen, und dem IPCC Panikmache vorwerfen.

Auch die globale Durchschnittstemperatur steigt mitnichten von Jahr zu Jahr, erst recht nicht immer stärker. Laut Nasa war 2018 nicht das wärmste, sondern nur das viertwärmste Jahr seit 1880. Der Winter 2018/2019 in den USA und Kanada gehörte mit Temperaturen von bis zu minus 40 Grad Celsius und komplett gefrorenen Niagarafällen sogar zu den kältesten seit längerer Zeit.

Seine Ankündigung der Notfall-Rhetorik illustrierte der „Guardian“ mit einem Foto von Eisbären. Seit Jahren suggerieren Bilder des polaren Fleischfressers, wegen des fortschreitenden Klimawandels verliere er seinen Lebensraum und sei vom Aussterben bedroht.


In Wirklichkeit nimmt der Eisbärenbestand zu, in Kanada etwa von 2005 bis 2017 von 22 500 auf 30 000.

Neu sind also nicht die Erwärmungsdaten, sie zeigen keine sensationelle Beschleunigung. Neu ist auch nicht, was grüne Politiker oder Wissenschafts-Aktivisten wie Schellnhuber zu Thema Klimaentwicklung sagen: Sie wählen seit Jahren grundsätzlich die höchsten Prognosen, die pessimistischsten Annahmen, und leiten daraus die radikalsten Forderungen ab. Neu ist tatsächlich der von einem vorgeblich spontan gewachsenen Netzwerk vorgetragene Panik-Ton. Dessen Botschaft lautet: Es bleibt keine Zeit mehr, die Katastrophe steht unmittelbar bevor, es darf nicht mehr diskutiert werden.

Das propagandistische Trommelfeuer – flankiert von der empörten Reaktion, wenn jemand Greta Thunberg und schulstreikende Kinder kritisiert – verschiebt die gesellschaftliche Wahrnehmung im Overton-Window. Bis vor kurzem galt es noch als weithin unakzeptabel oder mindestens radikal zu behaupten, ausgerechnet kollektive Panik und Unterdrückung jedes Zweifels könnte die Lösung eines Problems befördern. Mittlerweile scheint vielen Politikern und auch Bürgern bis weit in die Mittelschicht gerade diese Sichtweise akzeptabel. Oder sie wagen ihre Zweifel nicht mehr öffentlich auszusprechen. Denn wer das tut, kommt in diesem Meinungsklima schnell in den Ruch eines Menschenfeindes, der die Weltrettung sabotiert.

Unter diesen Bedingungen gewinnen die Grünen vor allem in Deutschland, wo protestantisches Schuldbewusstsein und Weltbelehrungsmission Hand in Hand gehen, innerhalb eines ohnehin schon dominanten Themas die absolute Meinungsherrschaft. Wie sehr, das machte die Europawahl deutlich: Der CDU-Politiker Armin Laschet bekannte nach der Europawahl bei „Anne Will“ schuldbewusst, seine Partei habe das Klimathema unterschätzt. In der Sendung schaffte er es nicht, eigene Argumente vorzubringen und irgendwie gegen die Definitionshoheit von Grünenchefin Annalena Baerbock anzukommen. Der völlig tapsig-hilflose Umgang der CDU (und auch der SPD) mit dem Video des Youtubers Rezo („Die Zerstörung der CDU“), der schon seit langem kursierende grüne Legenden und Talking Points (etwa die absurde Behauptung, die Bundesregierung sei am Untergang der deutschen Solarindustrie schuld) noch einmal in den Durchlauferhitzer geschickt hatte, drängte die nichtgrünen Politiker noch weiter in die Ecke. Übrigens: Auch die „spontane“ Zustimmung von >70 Youtubern zu Rezos Werk kann als herausragendes Exempel für Astroturfing gelten.

Die Grünen gewinnen mit Astroturf und Framing deshalb so leicht, weil ihre Konkurrenten gar nicht wissen, wie ihnen geschieht. Ihnen fehlen die Vorfeldorganisationen wie „Fridays for Future“, die mediale Begleitmusik, die Fähigkeit, Meinungen und Fakten im Netz zu verbreiten. Die politische Schlacht wirkt wie ein Zusammenprall von lanzenbewehrten Rittern mit einer Armee von taktisch agilen Musketenschützen.

Wer genauer hinsieht, der erkennt beispielsweise am deutschen Europawahlergebnis: Es vollzieht sich eben keine linke Revolution, sondern überwiegend ein Stimmentausch innerhalb des linken Lagers zugunsten der Grünen – wobei das Lager per Saldo noch leicht schrumpft. Die Verluste von SPD und Linkspartei lagen insgesamt über dem Zugewinn der Grünen.

Da die Grünen inzwischen mit Ausnahme der AfD an jede andere politische Kraft andocken können (beziehungsweise: die anderen an sie), liegt ein Kanzler Robert Habeck nicht nur auf dem Stern-Cover in Reichweite, sondern auch in der Realität. Es sei denn, viele Deutsche setzen sich wesentlich mehr als bisher mit den Mitteln der psychologischen Politkampagnenführung auseinander.

Eine wesentliche Schwäche hat das Konzept der Panik-Rhetorik: sie lässt sich nicht mehr steigern.

Und auch nicht ewig durchhalten, ohne ihre Wirkung zu verschleißen.

Der Beitrag erschien zuerst auf dem Blog Publico hier.




GISS-Institut mit andert­halb Millionen US$ an ungeneh­migten Ausgaben ertappt

Nun fanden Inspektoren zu allem Überfluss noch heraus, dass das GISS-Institut in den letzten Jahren knapp anderthalb Millionen US-Dollar nichtgenehmigter Gelder ausgegeben hat. Daily Caller am 6. April 2018:

Untersuchung: Missmanagement am Globale-Erwärmung-Arm der NASA führte zu einer nicht genehmigten Geldverschwendung von 1,6 Millionen Dollar

Der Forschungsbereich globale Erwärmung bei der NASA verschwendete zweckwidrig 1,63 Millionen Dollar während der letzten sechs Jahre infolge mangelnder Aufsicht. Dies meldete ein Ermittlungsbüro des General-Inspekteurs (IG). Der Bericht des IG deckte „zahlreiche Fälle unsachgemäßer Verwendung von Geldern der NASA auf seitens Mitarbeitern des Goddard Institute for Space Studies (GISS), Zahlungsempfängern und Kontraktoren für Forschungsausgaben, Unterverträge und Computerausrüstung“. Die Auditoren fanden im Einzelnen: „1,47 Millionen Dollar unsachgemäßer Ausgaben bei Kooperativ-Verträgen mit Bezug zu NASA GISS mit der Columbia-University sowie 147.138 Dollar unsachgemäßer Ausgaben für die IT-Firma Trinnovium LLC „für rechtswidrige Zuwendungen“. Columbia University beispielsweise gab 1.219.491,41 Dollar für Verträge, finanzielle Hilfen und Zuwendungen an Studenten sowie Kurzzeit-Mitarbeiter – wobei alle Vorgänge nicht im cooperative agreement enthalten waren. Außerdem fand man über 633.000 Dollar, welche als Schulgeld geflossen waren.

Weiterlesen beim Daily Caller und bei WUWT.

Übersetzt von Chris Frey EIKE

Anmerkung: Es handelt sich hier um einen Auszug einer Zusammenstellung von Meldungen auf dem Blog „Die Kalte Sonne“. Der Link dahin: http://www.kaltesonne.de/giss-institut-mit-us1-5-millionen-an-ungenehmigten-ausgaben-ertappt/




Der neue “Konsens” über globale Erwärmung

Eine neue Studie(*), angeführt von Klimawissenschaftler Benjamin Santer, ergänzt das ständig wachsende Volumen der „Hiatus“ -Literatur, die populäre Argumente von Skeptikern einbezieht und sogar Satelliten-Temperatur-Datensätze verwendet, die eine reduzierte atmosphärische Erwärmung zu zeigen.

(*) Hier der Link zur o.g. Studie in Klartext, als Hyperlink funktioniert er seltsamerweise nicht:

https://www.nature.com/ngeo/journal/v10/n7/full/ngeo2973.html

Noch wichtiger – Die Studie („Paper“) bespricht das Versagen der Klimamodelle, die „Verlangsamung“ der globalen Temperaturen im frühen 21. Jahrhundert vorherzusagen oder zu replizieren, was eine weitere oft verspottete skeptische Beobachtung war.

„Im frühen einundzwanzigsten Jahrhundert, waren die von Satelliten abgeleiteten troposphärischen Erwärmungstrends im Allgemeinen kleiner als die Trends, die aus einem großen Multimodell-Ensemble geschätzt wurden“, liest sich die Zusammenfassung von Santers Studie, die am Montag veröffentlicht wurde.

Die von den Modellen berechnete [vorhergesagte] troposphärische Erwärmung ist wesentlich größer als in der Realität beobachtet. Die Überschätzung der troposphärischen Erwärmung im frühen einundzwanzigsten Jahrhundert [durch die Modelle] ist teilweise auf systematische Mängel, der in den Modellsimulationen verwendeten externen Antriebe, ab dem Jahr 2000 [post-2000 external forcings]

Die Studie kam für einige prominente Kritiker der globalen Klimamodelle überraschend. Dr. Roger Pielke, Sr. postete auf Twitter: „WOW!“, nachdem er die Zusammenfassung gelesen hatte, die einräumte, das die „modellierte troposphärische Erwärmung wesentlich größer ist als beobachtet“.

Es ist mehr als nur ein wenig schockierend.

Antwort der Leser des Daily Caller

Santer hat dazu vor kurzem als Co-Autor ein separates Paper mit verfasst, das zum Inhalt hat, die Aussagen von EPA-Administrator Scott Pruitt zu entlarven, der die globale Erwärmung für „abgehakt“ hält. Aber Santers Paper beurteilte nur einen selektiv bearbeiteten und aus dem Zusammenhang genommenen Teil von Pruitts Aussage, indem er den Begriff „Hiatus“ beseitigte.

Letztendlich wurde die Aussage von Scott Pruit: „ in den letzten zwei Jahrzehnten gibt es eine Erwärmungspause“ bestätigt.

Darüber hinaus zogen Klimawissenschaftler über den Texas Senator Ted Cruz her, der während einer Kongress-Anhörung in 2015 über den globalen „Hiatus“ gesprochen hatte. Stattdessen arbeiteten Aktivisten hart daran, die Verlangsamung der globalen Erwärmung in den Datensätzen zu überdecken und gegenüber den Medien zu behaupten, dass der „Hiatus“ ein „Mythos“ sei.

Santer und Carl Mears, die den Temperatur-Datensatz des Satelliten-Mess-System betreuen, schrieben im Januar 2016 einen längeren kritischen Blog-Post gegen Ted Cruz Aussage, der meinte dass es eine 18-jährige „Hiatus“ Erwärmungspause gäbe, die die Klimamodelle nicht vorhersagten.

Sie argumentierten, dass es eine schlechte statistische Praxis wäre und nur eine begrenzte Nützlichkeit hätte, eine „einzelne 18-jährige Periode zu prüfen“, bei der Bewertung der globalen Erwärmung.

„Picken sie nicht die Rosinen heraus“, schauen Sie sich alle Beweise an, nicht nur die sorgfältig ausgewählten Dinge, die einen bestimmten Blickwinkel unterstützen „, so Santers und Mears.

Cruzs Anhörung, war natürlich im gleichen Jahr als die National Oceanic und Atmospheric Administration (NOAA) ihre „Hiatus-Zerschlagungs-Studie“ veröffentlichte. Die Studie von Lead-Autor Tom Karl beabsichtigte, den „Hiatus“ aus dem globalen Oberflächentemperatur Aufzeichnungen zu beseitigen, indem man die Ozean-Daten nach oben korrigierte, um den „Bias“ in den Daten zu korrigieren.

Demokraten und Umweltschützer lobten die Arbeit von Karl, die gerade herauskam, kurz bevor die Obama-Regierung ihre Kohlendioxid-Vorschriften für Kraftwerke enthüllte. Karl’s Studie kam auch Monate bevor die die Pariser Vereinbarung über den Klimawandel bei den U.N. Delegierten behandelt wurde.

Karls Studie wurde im Jahr 2016 in einem Paper unter der Leitung von Klima-Wissenschaftler Zeke Hausfather, der University of California-Berkeley „verifiziert“, aber selbst dann gab es anhaltende Zweifel unter Klima-Wissenschaftlern.

Dann, Anfang 2016, haben die Mainstream-Wissenschaftler eingestanden, dass die Trends der Klimamodelle nicht mit den Beobachtungen übereinstimmen – ein Befreiungsschlag für Wissenschaftler wie Patrick Michaels und Chip Knappenberger, die seit Jahren auf Fehlerprobleme hinweisen.

John Christy, der Satellitentemperaturdaten der Universität von Alabama-Huntsville sammelt, hat vor dem Kongress das Versagen von Modellen bezeugt, die jüngste globale Erwärmung vorherzusagen.

Christys Forschung hat gezeigt, dass Klimamodelle 2,5 mal höhere Erwärmung der Atmosphäre errechnen, als über Satelliten und Wetterballons zu beobachten ist.

Nun scheinen er und Santer auf der gleichen Seite zu sein – die globale Erwärmungspause „Hiatus“ ist real und die Modelle haben es nicht vorher gesagt.

Santers Paper argumentiert, der „Hiatus“ oder „Verlangsamung“ der Erwärmung hat der wissenschaftlichen Gemeinschaft eine wertvolle Gelegenheit gegeben, das Verständnis des Klimasystems voranzutreiben und zu modellieren.

Was aber interessant ist, das Santer und seine Co-Autoren schreiben, dass es unwahrscheinlich ist, dass ihre Arbeit die abweichenden Denkrichtungen über die Ursachen der Unterschiede zwischen modellierten und beobachteten Erwärmungsraten zu versöhnen“.

Mit anderen Worten, das „Ungewissheitsmonster“ ist noch immer ein Problem.

Sehen Sie TRUMP versus OBAMA zum Klimawechsel:

Die 100 sec Zusammenschnitt von Obamas Apokalypse und Gegenüberstellung von Trumps Zukunft für Amerika sind verständlich und hörenswert.

Ryan Maue ist PhD-Meteorologe bei WeatherBELL Analytics und ein „adjunct scholar“ [~ Assistent Professor] am Cato Institut.

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/06/19/take-a-look-at-the-new-consensus-on-global-warming/

 




Temperaturdatenmanipulation von GISS (NASA) erneut nachgewiesen

Dass das zur NASA gehörende Goddard Institute for Space Sciences (GISS) die weltweiten Temperaturdaten ausschließlich in Richtung stärkerer Erwärmung manipuliert, ist seit langem bekannt. Doch selten konnten diese Manipulationen so eindeutig und vor allem so einprägsam und daher auch für Laien überzeugend gezeigt werden, wie in diesem Ausschnitt aus dem Recherche-Video „Schulbuch belegt Schwindel mit Globaler Erwärmung | AddOn #03“ von ‚Klima Manifest Heiligenroth‘ , bei YouTube am 09.06.2017 hochgeladen

Weitere Erläuterungen dazu auf der Website von Klimamanifest von Heiligenroth hier
Das Video in voller Länge gibt es hier

Video nicht mehr verfügbar

Videoausschnitt über die umfangreiche und andauernde direkte Daten-Manipulation weltweiter lokaler Temperaturdaten durch das Goddard Institute for Space Sciences (GISS) das zur US Raumfahrtbehörde NASA gehört.

Mit Dank an den Videokanal FMDsTVChannel

‚Klima Manifest Heiligenroth‘ schreibt dazu:

Dann zeigen wir mit Hilfe der sog. „WAYBACK-MACHINE„, dieser sehr interessanten ARCHIV-Webseite im Internet,  wie die globalen Temperaturdaten nahezu täglich von NASA-GISS manipuliert werden, denn auf der „WAYBACK-MACHINE“ werden auch die .txt-Dateien der globalen Temperaturdaten archiviert.


Wer die EXCEL-Tabelle haben möchte, mit der wir die im Video gezeigten Analyse mittels „bedingter Formatierung“ mit EXCEL durchgeführt haben, kann sich gerne bei uns per Mail melden.

EIKE hat bereits selber des öfteren ausführlich darüber berichtet. zB.

EIKE 9. IKEK: Prof. Ewert – Erderwärmung- Was wurde gemessen und wie wurde ausgewertet?

Manipulierte Temperatur-Daten? Erderwärmung – was wurde gemessen und wie wurde ausgewertet ?

Zwei Wissenschaftspublikationen der EIKE Autoren Lüdecke, Link und Ewert auf dem Blog der bekannten US Klimaprofessorin Judith Curry

Korrigiert wurde das bisher nicht, ebensowenig wie Gründe dafür angegeben wurden.

Das vollständige Recherche Video „Schulbuch belegt Schwindel mit Globaler Erwärmung | AddOn #03“ werden wir hier in Kürze vorstellen.




Ehemaliger Obama-Funktionär: Büro­kraten manipu­lieren Klima-Statistiken, um Politik zu beein­flussen

Unterstaatssekretär Steven Koonin im Energieministerium sagte dem Wall Street Journal, dass Funktionäre innerhalb der Regierung von Präsident Barack Obama wissenschaftliche Daten verfälscht haben, um die öffentliche Meinung zu manipulieren.

Was man zu den Presseerklärungen bzgl. Klimadaten und Klima-Analysen sagen kann ist, dass sie irreführend, manchmal einfach falsch waren“, sagte Koonin unter Verweis auf Elemente innerhalb der Obama-Regierung, welche für die Manipulation von Klimadaten verantwortlich waren.

[Ob das jemals in einer Zeitung hierzulande gemeldet wird? Der „Süddeutschen Zeitung“ vielleicht? Anm. d. Übers.]

Er verwies auf eine Nationale Klima-Einschätzung aus dem Jahr 2014, welche eine Zunahme der Hurrikan-Aktivität seit 1980 als Illustration heranzieht, wie öffentliche Agenturen Klimadaten verfälscht haben. Koonin sagte, dass die Einschätzung fachlich falsch war.

Was man Ihnen nicht gesagt hat und was Sie nicht erfahren werden, wenn Sie nicht vollständig das Kleingedruckte lesen ist, dass die Aktivität in den Jahrzehnten zuvor abgenommen hat“, sagte er. Die UN veröffentlichten im Jahre 2014 Berichte, die Koonins Aussagen im Wesentlichen spiegelten.

Das IPCC der UN berichtete:

…es gibt einige Beweise von Änderungen hinsichtlich der Extreme in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts“, und aktuelle Daten zeigen „keine signifikanten beobachteten Trends hinsichtlich der Häufigkeit tropischer Zyklone während des vorigen Jahrhunderts“.

Pressefunktionäre arbeiten mit Wissenschaftlern zusammen innerhalb von Organisationen wie NOAA und NASA. Sie sind verantwortlich für irreführende Presseerklärungen über das Thema Klima, fügte er hinzu.

Koonin ist nicht der einzige, der von Fehlverhalten spricht. Das Committee on Science, Space and Technology beispielsweise leitete ein Ermittlungsverfahren gegen die NOAA ein, nachdem ein Whistleblower bekannt gemacht hatte, dass die Wissenschaftler der Agentur mit Hochdruck eine Studie zur globalen Erwärmung verfälscht haben, um politische Entscheidungsträger zu beeinflussen.

Der Abgeordnete der Republikaner Lamar Smith (Texas), der Vorsitzende des Komitees, wird „so bald wie möglich“ anordnen, dass die NOAA Dokumente übergibt, welche in einer Vorladung zu potentiellen Klimadaten-Verfälschungen enthalten waren.

Koonin, der von 2009 bis 2011 unter Obama bedienstet war, fuhr fort, sich über die Politisierung der Wissenschaft zu beklagen und sagte, dass es der Ethos gebiete, „zu sagen, wie es ist. Sie sind ein Wissenschaftler, und es liegt in Ihrer Verantwortung, die Fakten auf den Tisch zu legen“.

Die Aktivitäten von NASA und NOAA, sagte er, sind problematisch, weil „sich die öffentliche Meinung mittels der Daten bildet, welche diese Organisationen zusammenstellen und welche in den Zeitungen erscheinen“.

Keine der Agenturen war vom Daily Caller für eine Stellungnahme erreichbar.

Mehr: http://dailycaller.com/2017/04/24/former-obama-official-says-climate-data-was-often-misleading-and-wrong/#ixzz4fGS3GICc

Link: https://wattsupwiththat.com/2017/04/25/former-obama-official-bureaucrats-manipulate-climate-stats-to-influence-policy/

Übersetzt von Chris Frey EIKE




Das jahrelange Missmanagement der NASA mit Klimadaten begann bereits lange vor Trump

Die New York Times berichtet, dass Wissenschaftler fürchten, dass Trumps Budget eine „Datenlücke“ in der langfristigen Klimaüberwachung der globalen Erwärmung verursachen wird, da die Administration daran denkt, vier der Satellitenprogramme zu beschneiden [… der mit den vorhandenen Satelliten durchgeführten Programme…; der Übersetzer]

Ein Wissenschaftler, dessen Aufgabengebiet die Betreuung der NASA-Satelliten ist, sagte gegenüber der NYT, dass Trumps Budget „meinen Kollegen und mir Herzklopfen verursacht“, dass Daten aufgrund von Ausgabenkürzungen verloren gehen könnten.

Trumps Budget Vorschlag ist „sowohl eine politische Absichtserklärung als auch ein Finanzplan“, berichtet NYT, „um eine Botschaft zu senden, dass die Administration beabsichtigt, ein lang gesehntes Ziel einiger Konservativen verfolgt: Dass die NASA sich lieber um den Weltraum anstatt um die Erde kümmert“

Nicht erwähnt wird jedoch, was die Trump-Administration tatsächlich vorgeschlagen hat.

Der Haushaltsplan des Weißen Hauses, der im März veröffentlicht wurde, fordert, 102 Millionen Dollar aus dem Erdwissenschaftlichen Programm der NASA zu beschneiden, welches die globale Erwärmungsforschung durchführt. NYT berichtet das und bemerkt, das Gesamtbudget der NASA liegt bei 19,1 Milliarden US-Dollar.

Was die NYT nicht erwähnt ist, dass das Budget für die „Erdwissenschaft“ nur um fünf Prozent von $ 1,9 Milliarden auf $ 1,8 Milliarden gekürzt wird. Budgetkürzungen waren definitiv nie im Gespräch, was jedoch viele Aktivisten behaupteten, die es rechtfertigen würden, Ängste vor „Datenlöschung“ und Satelliten, die vom Himmel fallen zu rechtfertigen. (Zum Thema: Ängste, Trump würde die Klimaagenturen demontieren, sind übertrieben)

Das Budget „beendet vier erdwissenschaftliche Missionen … und reduziert die Finanzierung für Forschungsstipendien in der Erdwissenschaft“, so das Weiße Haus. Der Himmel fällt nicht runter!

Die NYT hält auch ein weiteres interessantes kleines Teilchen zu den „Datenlücken“ der besorgten Wissenschaftler zurück – Mögliche Datenlücken sind die Ergebnisse von Entscheidungen, die Jahre zuvor gemacht wurden, bevor Trump das Amt übernahm.

Die NASA weiß, dass ihre Satellitenprogramme nur begrenzte Lebensspannen haben, aber es war nicht geplant, damit die Klimaüberwachung zu ersetzen.

Die Calipso- und Cloudsat-Satelliten der NASA wurden vor etwa zehn Jahren ins Leben gerufen. Die Satellitenprogramme haben seit 2006 Wolken und atmosphärische Partikel untersucht. Die NASA startete 1999 ihren Terra-Satellit und dieser könnte bis die 2020er Jahre betrieben werden. Der Aqua-Satellit, der den Wasserkreislauf der Erde untersucht, startete 2002.

Die NYT stellte sogar fest, dass „lange bevor Präsident Trump gewählt wurde, Klimaforscher gewarnt haben, dass die Fähigkeiten für Klima-Monitoring-… weniger als ausreichend sind und sie (die Wissenschaftler) mit Lücken in der Datenerhebung und anderen Unsicherheiten konfrontiert sind.“

Die New York Times stellte auch fest, dass „die Nationale Akademie der Wissenschaften an Empfehlungen, für neue Überwachungsmissionen für die Weltraumagentur für die nächsten 10 Jahre arbeitet“. Diese werden voraussichtlich im Laufe dieses Jahres veröffentlicht.

Quelle: Kim Shiflett / NASA

Das „Deep Space Climate Observatory“ DSCOVR Raumfahrzeug, bevor es im Jahr 2015 gestartet wurde. Die Budgetkürzung würde den Klima-bezogenen Aspekt der Mission beenden.

Die NASA erweitert das Leben der vorhandenen Satellitenprogramme, um irgendwelche Datenlücken abzuwehren und die Trump-Regierung will die Finanzierung für NOAA-Wetter-Satelliten beibehalten, „um Meteorologen mit kritischen Wetterdaten versorgen zu können, um damit zu helfen, das Leben und das Eigentum zu schützen.“

Das Weiße Haus schlug auch $ 1 Milliarde für den nationalen Wetterdienst vor, um seine „Prognosemöglichkeiten … beizubehalten … während es fortfährt, effiziente und wirkungsvolle Methoden [zur Wettervorhersage] zu fördern.“

Erschienen auf The Daily Caller am 11.04.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/04/11/nyt-somehow-ties-trump-to-years-of-nasa-mismanagement-on-climate-data/




Drastische Reduzierung der NASA Global Warming Programme

Es wird erwartet, dass das Repräsentantenhaus dieser Gesetzvorlage zustimmt, und Präsident Trump wird es wahrscheinlich unterzeichnen. Die Befürworter sagen, dass das Budget der NASA wieder in die Weltraumforschung gesteckt werden sollte und weg von der globalen Erwärmung und der Erdforschung. Die Republikaner planen, die mehr als $ 2 Milliarden Budgets der NASA für die Abteilung Erdwissenschaft zu beenden.

„Durch Ausgleich der Budgets, würde ich gerne mehr Geld für die Weltraumforschung ausgeben; Wir werden die Erdwissenschaften nicht auf Null setzen“, so Lamar Smith, der Vorsitzende des Komitees für Wissenschaft, Raumfahrt und Technologie. „Ich möchte, dass wir uns daran erinnern, was unsere Prioritäten sind und es gibt noch ein Dutzend Agenturen, die die Erdwissenschaft und den Klimawandel studieren und das können sie auch weiterhin tun.“

Die NASA-Ausgaben für die Erde und die globale Erwärmungswissenschaft stiegen in den letzten acht Jahren um 63 Prozent und machten damit das größte und am schnellsten wachsende Budget des NASA-Wissenschaftsprogramms aus. Die Agentur gab für die Umweltforschung mehr Geld aus als für viele andere wissenschaftliche Funktionen, darunter Astrophysik und Raumfahrttechnik. Diese Programme erhalten nur $ 781,5 Millionen bzw. $ 826,7 Millionen.

„Wir haben nur eine Agentur, die sich in der Weltraumforschung engagiert und diese braucht jeden Dollar, den sie für die Weltraumforschung aufbringen können“, fuhr Smith fort.

Trump schlug den ehemaligen republikanischen Abgeordneten von Pennsylvania Rep. Bob Walker als Senior Berater seines NASA-Übergangsteams vor – ein Mann, der denkt, dass die NASA weniger „politisch korrekte Umweltüberwachung“ und mehr Raumforschung tun sollte.

„Die NASA sollte sich in erster Linie auf größere Weltraum – Aktivitäten konzentrieren, anstatt auf die Erdgebundene Forschung, die besser von anderen Agenturen behandelt wird“, schrieben Robert Walker und Peter Navarro, weitere Senior Berater im Trump-Team, in einem Kommentar im Oktober. „Die menschliche Erforschung unseres gesamten Sonnensystems bis zum Ende dieses Jahrhunderts sollte der Fokus und das Ziel der NASA sein.“

Republikaner sind nicht die einzigen, die danach schauen, die Ausgaben für Umweltwissenschaft zu beschneiden.

Experten beschuldigen Präsident Obama für die Verzögerung von Plänen, Astronauten bis 2030 zum Mars zu schicken. Bereits 2007 forderte der damalige Senator Obama die Verzögerung des Entwicklungsprogramms, die Space Shuttles der NASA in fünf Jahren zu ersetzen, um Geld für sein Bildungsprogramm zu bekommen.

Soll der Kongress die Finanzierung von Global Warming Programmen drastisch reduzieren?

 

„Eine bemannte Mars-Mission bleibt noch zwei Jahrzehnte entfernt“, schrieb Alexandra Witze, eine Kolumnistin des Wissenschaftsmagazins Nature News. „Der Zeitplan ist durch die zur Verfügung gestellten Mittel bestimmt, um die notwendige Hardware zu entwickeln – eine neue Schwerlast-Rakete und Mannschaftskapsel, um das Leben der Astronauten im Weltraum zu erhalten.

Das ist fast genau die Situation der NASA von vor acht Jahren, bis auf ein Detail: Obama verwarf den Mond als ersten Stützpunkt für Astronauten auf dem Weg zum Mars“.

Sogar Bill Nye „der Wissenschaftler“, ein berüchtigter Kritiker der Globalen Erwärmung und CEO der Planetary Society [ist eine gemeinnützige, nichtstaatliche Organisation, die die Erforschung des Sonnensystems und die Suche nach außerirdischem Leben unterstützen und vorantreiben will] , hat die Versuche von Obama kritisiert, die Weltraumforschung und die Planetenwissenschaft der NASA zugunsten der globalen Erwärmung zu beschneiden. Die NASA-Planetenwissenschaftler haben einen Verkaufsmarkt mit Milchstraßentassen, Saturnkuchen und Glückskeksen organisiert, um politische Unterstützung für die Finanzierung ihrer Arbeit zu erhalten.

Erschienen auf The Daily Caller am 20.02.2017

Übersetzt von Andreas Demmig

http://dailycaller.com/2017/02/20/congress-slashes-funding-for-nasas-global-warming-research/

 




Wegen der Pressekonferenz von GISS und NOAA über die globalen Oberflächentemperaturen 2016

EINFÜHRUNG

Die Ozeane decken etwa 70% der Erdoberfläche ab, doch Klimamodelle sind in den vergangenen drei Jahrzehnten weit davon entfernt, die Oberflächentemperaturen dieser Ozeane auf globalen, hemisphärischen und individuellen Ozeanbeckenbasen zu simulieren. In den vergangenen jährlichen Modelldatenvergleichen haben wir das multimodale Mittel aller im CMIP5-Archiv gespeicherten Klimamodelle verwendet, für diesen Beitrag jedoch nur den Mittelwert der Outputs der drei CMIP5-archivierten Klima-Modell-Simulationen des Goddard Institute of Space Studies (GISS) [NASA] mit dem Ozeanmodell „Russell“. In den vergangenen Modelldatenvergleichen nutzen wir den ursprünglichen satellitengestützten Reynolds OI.v2 Seeoberflächen-Temperatur-Datensatz. In diesen Fall verwenden wir jedoch die „Extended Reconstructed Sea Surface Temperature Version 4“ [Erweiterte Rekonstruierte Seeoberflächen Temperatur] (ERSST.v4) von NOAA [National Oceanic and Atmospheric Administration  – Wetter- und Ozeanografiebehörde der Vereinigten Staaten]

Warum sind die Modellierungen und Daten unterschiedlich?

Sowohl NASA GISS als auch die NOAA NCEI verwenden NOAA’s ERSST.v4 „Pause Buster“ [~Beseitigung der Erwärmungspause…] -Daten für die Ozean-Oberflächentemperaturkomponenten ihrer kombinierten Land-Ozean-Oberflächentemperatur-Datensätze und heute halten beide Agenturen eine multiaktive Pressekonferenz, um ihre „in 2016 jemals Wärmsten überhaupt“ globalen Oberflächentemperaturentdeckungen. (Pressekonferenz startet um 11 Uhr Eastern – in deutschen Medien wurde davon berichtet) Und wir nutzen die GISS-Klimamodell-Outputs, weil GISS Teil dieser Pressekonferenz ist und ich vermute, dass GISS nicht aufzeigen wird, wie sehr daneben ihre Klimamodelle diese kritische globale Erwärmung simulieren.

 

Einführende Information

Der Meeresoberflächentemperatur-Datensatz, der in diesem Beitrag verwendet wird, ist das erweiterte Rekonstruierte Sea Surface Temperature-Datenblatt der NOAA, Version 4 (ERSST.v4), a.k.a. ihre „Pause-Buster“ -Daten. Wie oben erwähnt, bilden die ERSST.v4 Daten den Ozeananteil der NOAA und GISS globalen Land + Ozean Oberflächentemperatur. Die in diesem Beitrag präsentierten Daten stammen vom KNMI Climate Explorer, [Holländischer Think Tank] wo sie bei den „Monatsbeobachtungen“ unter der Überschrift „SST“ zu finden sind.

Die präsentierten GISS Klimamodelle sind diejenigen, die im Coupled Model Intercomparison Project, Phase 5 (CMIP5) Archiv gespeichert sind. Sie sind eine der jüngsten Generationen von Klimamodellen von GISS und wurden vom IPCC für ihren 5. Evaluierungsbericht (AR5) verwendet. Die GISS-Klimamodelle von Meeresoberflächentemperaturen sind über den KNMI Climate Explorer verfügbar und zwar über ihre monatliche CMIP5-Szenario-Webseite unter der Überschrift Ocean, ice und upper air variables. Die Meeresoberflächentemperatur wird als „TOS“ (Temperatur-Ocean-Surface ; – Meeresoberfläche) bezeichnet. Ich präsentiere den GISS-E2-R p1, GISS-E2-R p2 und GISS-E2-R p3, wobei das „R“ für Russell Ozean steht. (Ich präsentiere die GISS Modelle mit HYCOM Ozean Modell in einem bevorstehenden Post.) Die Historic / RCP8.5 Szenarien werden verwendet. Das RCP8.5-Szenario ist das Worst-Case-Szenario, das der IPCC für seinen 5. Evaluierungsbericht verwendet. Und wieder verwenden wir das Modellmittel, weil es die erzwungene Komponente der Klimamodelle darstellt; Das heißt, wenn die von den Klimamodellen verwendeten Forcierungen die Oberflächen der Ozeane zum Erwärmen veranlassten, stellt das Modell am besten dar, wie sich die Ozeanoberflächen durch diese Forcings erwärmen würden. Eine weitere Diskussion finden Sie im Beitrag über die Verwendung des Multi-Modells, das ein Zitat von Dr. Gavin Schmidt von GISS zu dem Modellmittel enthält.

Die Modell-Daten-Vergleiche sind absolut, keine Anomalien, so dass jährliche Daten präsentiert werden. Und die Modelle und Daten reichen zurück in der Zeit für die letzten 30 Jahre, 1987 bis 2016.

Die linearen Trends in den Grafiken sind berechnet mit EXCEL.

 

WARUM ABSOLUTE MEERES OBERFLÄCHENTEMPERATUREN ANSTATT VON ANOMALIEN?

Die Klima-Wissenschaftsgemeinde neigt dazu, ihre Modell-Daten-Vergleiche mit Temperatur-Anomalien [Abweichungen] und nicht in absoluten Temperaturen zu präsentieren. Warum?

Wie Dr. Gavin Schmidt von GISS erklärt: „… keine bestimmte absolute globale Temperatur stellt ein Risiko für die Gesellschaft dar, es ist die Veränderung der Temperatur im Vergleich zu dem, was wir bisher gewöhnt waren“. (Siehe: den interessanten Post bei RealClimate über modellierte absolute globale Oberflächentemperaturen.)

Aber wie Sie entdecken werden, sind die GISS Klimamodellsimulationen der Meeresoberflächentemperaturen zu warm. Betrachten wir nun, dass die Ozeanoberflächen die primären Quellen von atmosphärischem Wasserdampf sind, dem am meisten verbreiteten natürlichen Treibhausgas. Wenn die Modelle die Beziehung zwischen Meeresoberflächentemperaturen und atmosphärischem Wasserdampf richtig simulieren, haben die Modelle zu viel Wasserdampf (natürliches Treibhausgas) in ihren Atmosphären. Das kann helfen, zu erklären, warum die GISS-Modelle zu viel Erwärmung in den letzten 3 Jahrzehnten simulieren.

WARUM DIE VERGANGENEN DREI DEKADEN?

Die klassische Definition des Klimas durch die Weltmeteorologische Organisation (WMO) ist das gemittelte Wetter über einen Zeitraum von 30 Jahren. Auf der Homepage der WMO: Häufig gefragt:

Was ist das Klima?

Das Klima, das manchmal als das „durchschnittliche Wetter“ verstanden wird, ist definiert als die Messung des Mittelwerts und der Variabilität der relevanten Größen bestimmter Variablen (wie Temperatur, Niederschlag oder Wind) über einen Zeitraum von Monaten bis zu Tausenden oder Millionen Jahre. Die klassische Periode ist 30 Jahre, wie von der WMO definiert. Das Klima im weiteren Sinne (is the state)] [m.e. gemeint: die jeweilige Klimazone, der Übersetzer], einschließlich einer statistischen Beschreibung des Klimasystems.

Durch die Präsentation von Modellen und Daten für die letzten 3 Jahrzehnte, kann niemand behaupten, ich habe den Zeitrahmen „cherry-picked“. Wir vergleichen Modelle und Daten über die jüngste klimarelevante Periode.

HINWEIS ZU DEN ABSOLUTEN WERTEN DER NOAA ERSST.v4 DATEN

Die Revisionen der NOAA-Langzeit-Oberflächentemperatur-Datensätze wurden in Karl et al. (2015) Ausarbeitung veröffentlich: Mögliche Artefakte von Daten-Bias in der jüngsten globalen Oberfläche Erwärmungspause. Dort stellten Tom Karl und andere fest:

Erstens haben mehrere Studien die Unterschiede zwischen boje- und schiffbasierten Daten untersucht, wobei festgestellt wurde, dass die Schiffsdaten systematisch wärmer sind als die Bojendaten (15-17). Dies ist besonders wichtig, da ein Großteil der Meeresoberfläche nun von beiden Beobachtungssystemen erfasst wird und oberflächentreibende und verankerte Bojen die globale Abdeckung um bis zu 15% (Ergänzungsdaten) erhöht haben. Diese Änderungen führten zu einem zeitabhängigen Bias im globalen SST-Datensatz und verschiedene Korrekturen wurden entwickelt, um die Vorausrichtung (18) zu berücksichtigen. Vor kurzem wurde eine neue Korrektur (13) entwickelt und im ERSST Datensatz Version 4, den wir in unserer Analyse verwendet haben, angewendet. Im Wesentlichen beinhaltet die Bias-Korrektur die Berechnung der durchschnittlichen Differenz zwischen den kollokierten Bojen und Schiff SSTs [~nebeneinanderliegenden Datensätze]. Die durchschnittliche Differenz war -0,12 ° C, eine Korrektur, die auf die Bojen-SSTs in jeder Rasterzelle in ERSST Version 4 angewendet wird.

Für Modell-Daten-Vergleiche, bei denen Anomalien präsentiert werden, ist die Verlagerung [~Anpassung] der genaueren boje basierten Daten um 0,12°C auf die schiffsbasierten Daten gleichgültig. Diese Vereinfachung war eine Frage der Bequemlichkeit für NOAA, da es für mehr Jahre Schiffsdaten als bojen basierte Daten gibt. Allerdings, wenn Modelle und Daten auf einer absoluten Basis verglichen werden, verschieben die genaueren bojen basierten Daten die Schiff-basierten Daten um 0,12 °C und machen daher einen Unterschied beim Vergleich. Da die Modell-simulierten Oberflächentemperaturen weltweit zu warm sind, hilft diese Verknüpfung, die Daten besser an die Modelle anzupassen. Und das klingt typisch für die Klimawissenschaft bei der NOAA.

Mit anderen Worten, die Unterschiede zwischen Modellen und Daten sind wahrscheinlich größer als in allen Beispielen in diesem Beitrag gezeigt, wobei die modellierten Meeresoberflächentemperaturen wärmer als beobachtet sind … und umgekehrt, wenn die Modelle zu cool sind.

Genug der Einführung …

GLOBALE ZEITREIHE

Abbildung 1 zeigt zwei Modelldatenvergleiche für globale Meeresoberflächentemperaturen, nicht Anomalien, für die letzten 30 Jahre. Ich habe einen Vergleich für die globalen Ozeane (90S-90N) in der oberen Grafik und einen Vergleich für die globalen Ozeane, mit Ausnahme der polaren Ozeane (60S-60N), in der unteren Grafik. Ein Ausschluss der polaren Ozeane scheint keinen signifikanten Unterschied zu machen. Es ist offensichtlich, dass globale Meeresoberflächen, die durch das GISS-Klimamodell simuliert wurden, wärmer waren als beobachtet und dass die GISS-Modell-Erwärmungsrate in den letzten 3 Jahrzehnten zu hoch war. Der Unterschied zwischen modellierten und beobachteten Erwärmungsraten liegt bei etwa 0,07 bis 0,08 °C / Jahrzehnt, mehr als 60% höher als die beobachtete Geschwindigkeit. Und in beiden Fällen ist die von den GISS-Modellen simulierte 30-jährige durchschnittliche Meeresoberflächentemperatur um etwa 0,6 °C zu hoch.

 

Abbildung 1 – Globale Ozeane

 

ZEITREIHE – TROPISCHE UND EXTRATROPISCHE MEERESOBERFLÄCHEN TEMPERATUREN

Im Juni 2013 präsentierte Roy Spencer Modell-Daten Vergleiche der Erwärmung der tropischen Mittel-Troposphäre, vorbereitet von John Christy. Siehe Roy’s Beiträge EPIC FAIL: 73 Klimamodelle vs. Beobachtungen für tropische troposphärische Temperaturen und STILL Epic Fail: 73 Klimamodelle vs Messungen, 5-Jahres-Mittel. Die Modelle haben die Erwärmungsraten der Mittel-Troposphäre in den Tropen stark überschätzt. Ich dachte, es wäre sinnvoll, da die tropischen Ozeane (24S-24N) 76% der Tropen und etwa 46% der Weltmeere abdecken, um zu bestätigen, dass die Modelle auch die Erwärmung der Meeresoberflächentemperaturen der tropischen Ozeane stark überschätzen .

Es sollte nicht überraschen, dass die Modelle in den vergangenen 30 Jahren die Erwärmung der Meeresoberflächentemperaturen der tropischen Ozeane überschätzten. Siehe Abbildung 2. Tatsächlich überschätzen die Modelle die Erwärmung mit einer großen Bandbreite. Die Daten zeigen die Meeresoberflächentemperaturen der tropischen Ozeane an, die mit einer nicht sehr alarmierenden Rate von 0,11° C / Jahrzehnt erwärmt wurden, während die Modelle zeigen, dass, wenn die Oberflächen der tropischen Ozeane durch menschliche Treibhausgase erwärmt würden, sollten sich auf fast das zweifache dieser Rate mit 0,22 °C / Jahrzehnt erwärmen. Für 46% der Oberfläche der globalen Ozeane (ca. 33% der Oberfläche des Planeten) verdoppelten die Modelle die beobachtete Erwärmungsrate.

Abbildung 2 – Tropische Ozeane

Und natürlich sind für die tropischen Ozeane die Modell-simulierten Meeresoberflächentemperaturen um etwa 0,9 ° C zu warm.

Für die außertropischen Ozeane der südlichen Hemisphäre (90S-24S), Abbildung 3, ist die beobachtete Erwärmungsrate ebenfalls extrem niedrig bei 0,06 °C / Jahrzehnt. Andererseits deuten die Klimamodelle darauf hin, dass die Ozeane sich mit einer Rate von 0,14 °C / Jahrzehnt erwärmt hätten, wenn menschliche Treibhausgase für die Erwärmung der Meeresoberflächentemperaturen in dieser Region verantwortlich wären, was die beobachtete Tendenz mehr als verdoppeln würde. Die außertropischen Ozeane der südlichen Hemisphäre decken etwa 33% der Oberfläche der globalen Ozeane (ca. 23% der Oberfläche des Planeten) und die Modelle verdoppeln die Geschwindigkeit der Erwärmung.

Abbildung 3 – Extratropische südliche Hemisphäre

Die Modelle sind in den außertropischen Ozeanen der südlichen Hemisphäre zu warm, um etwa 0,6 ° C.

Und die Klimamodelle scheinen die Erwärmungsrate der Meeresoberflächentemperaturen genau für den kleinsten Teil der globalen Ozeane, der extratropischen Nordhalbkugel (24N-90N) zu treffen. Siehe Abbildung 4. Die außertropischen Ozeane der Nordhalbkugel bedecken nur etwa 21% der Oberfläche der globalen Ozeane (ca. 15% der Erdoberfläche).

Abbildung 4 – Extratropische Nordhemisphäre

Seltsamerweise sind die modell-simulierten Oberflächentemperaturen in den außertropischen Ozeanen der nördlichen Hemisphäre zu kühl. Das wird bei den Simulationen von Meereis nicht helfen.

ZEITREIHE – OZEAN BECKEN

Die Abbildungen 5 bis 11 zeigen Vergleiche von modellierten und beobachteten Meeresoberflächentemperaturen für die einzelnen Ozeanbecken … ohne Kommentar. Ich würde die Vergleiche der arktischen und südlichen Ozeane (Figuren 10 und 11) mit etwas Skepsis betrachten … weil die Modelle und Daten das Meereis unterschiedlich rechnen.

Abbildung 5 – Nord Atlantik

# # #

Abbildung 6 – Süd Atlantik

# # #

Abbildung 7 – Nord Pazifik

# # #

Abbildung 8 – Süd Pazifik

# # #

Abbildung 9 – Indischer Ozean

# # #

Abbildung 10 – Arktis

# # #

Abbildung 11 – Südlicher Ozean

 

Schlusssatz

Es wäre schön zu wissen, welchen Planeten die Klimamodelle von GISS simulieren. Es ist sicher nicht die Erde.

Wir leben auf einem mit Ozean bedeckten Planeten, doch irgendwie scheinen das Wann, das Wo und die Ausdehnung der Erwärmung der Oberflächen unserer Ozeane, den Klimamodellierern bei GISS entgangen zu sein. In diesem Beitrag haben wir für die vergangenen drei Jahrzehnte Meeroberflächentemperaturen und keine Anomalien vorgestellt und dies hat auch auf andere Klimamodellversagen hingewiesen, die darauf hindeuten, dass Simulationen der grundlegenden Ozeanzirkulationsprozesse in den Modellen fehlerhaft sind.

Je nach Ozeanbecken gibt es große Unterschiede zwischen den modellierten und beobachteten Oberflächentemperaturen. Die tatsächlichen Meeresoberflächen-temperaturen bestimmen zusammen mit zahlreichen anderen Faktoren, wieviel Feuchtigkeit von den Ozeanoberflächen verdampft wird und wie viel Feuchtigkeit in der Atmosphäre vorhanden ist … was die vorhandene Feuchtigkeit (1) für die Niederschlagsbelastung (2) beeinflusst ), für den wasserdampfbedingten Treibhauseffekt und (3) für die negativen Rückkopplungen aus der Wolkendecke. Mit anderen Worten, die fehlerhafte Simulation der Meeresoberflächentemperaturen beeinflusst die atmosphärische Komponente der tödlich fehlerhaften gekoppelten Ozeanatmosphärenmodelle von GISS.

Erschienen auf WUWT am 18.01.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/01/18/because-of-the-giss-and-noaa-press-conference-about-2016-global-surface-temperatures/