1

Klima-Fakten 2015/16

Die Meßreihen zu verschiedenen Parametern wie Temperaturen, Stürmen, Sturmfluten, Meeresanstieg  … zeigen auch in den aktualisierten Reihen bis Ende 2015 keine "Klima-Katastrophen-Signale".

(1)  Globale Temperatur – alle Meßreihen

                    Bild 1 : Alle international verwendeten Temperatur-Meßreihen

Die Meßreihen zeigen – weiterhin andauernd – den vom Klimarat IPCC in seinem jüngsten Bericht von 2013/14 aufgezeigten Stillstand der Global-Temperatur seit 1998 [1]: "… Fifteen-year-long hiatus periods are common in both the observed and CMIP5 historical GMST time series." Auffallend und nach oben herausragend sind die beiden Jahre 1998 und 2015 – geschuldet so genannten Super-El-Nino-Ereignissen.

(2)  El-Nino

El-Nino und erweitert ENSO ist eine unperiodisch und bisher in Zeit und Intensität unvorhersagbar auftretende Schwingung im chaotisch gekoppelten Zirkulations-System <Atmosphäre-Ozean> über einem breiten äquatorialen Gürtel im Pazifik (s. Bild 2)  – von Chile über Australien bis nach Afrika [2]:

"Bei El Niño kommt es zu einem geringeren Auftrieb durch die schwächeren Passatwinde und somit wird der kalte Humboldtstrom allmählich schwächer und kommt zum Erliegen. Das Oberflächenwasser vor der Küste Perus erwärmt sich so sehr, dass die obere Wasserschicht nicht mehr mit dem kühlen und nährstoffreichen Tiefenwasser durchmischt wird…"…

"Bedingungen für das Auftreten von El Niño stellten sich innerhalb der letzten 300 Jahre in Zeitabschnitten von zwei bis sieben (oder acht) Jahren ein. Jedoch sind die meisten Niños eher schwach ausgeprägt. Es gibt Hinweise auf sehr starke El-Niño-Ereignisse zu Beginn des Holozäns vor etwa 11.700 Jahren."

                                              Bild 2 : El-Nino 2015

Etwa alle 10-50 Jahre (s.Bild 3) treten so genannte "Super-El-Nino-Jahre" auf, welche dann in langjährigen Temperatur-Reihen als sehr warme Jahre erkennbar sind – siehe in Bild 1 die Jahre 1998 und 2015. Nun wird derzeit das sehr warme Super-El-Nino-Jahr 2015 – gegen alle langjährige wissenschaftliche Erkenntnis – von den Medien und den Klima-Alarmisten zum "Klimasignal" hoch gejubelt; offensichtlich eine nahezu letzte(?) verzweifelte Aktion, um nach 18 Jahren der Temperatur-Stagnation die Hypothese einer angeblich anthropogen verursachten Klima-Katastrophen zu retten. Dabei handelt es sich weitgehend um die selben Wissenschaftler der etablierten Klima-Forschung, die 2013/14 nach der Feststellung der 15-jährigen(!) Erwärmungs-Pause durch den Klimarat IPCC [1] nicht müde wurden darauf hinzuweisen, daß es mindestens der 30-jährigen WMO-Festlegung bedarf, um von einem Klimasignal zu sprechen. Nun plötzlich reicht angeblich ein einziges Jahr für eine Klima-Trend-Diagnose – was für eine erbärmliche Wissenschaft ist das geworden.

Selbst das häufig grün gesteuerte WIKIPEDIA [2] ist da vorsichtig:

"Ob dies im Zusammenhang mit dem anthropogenen Treibhauseffekt oder mit längerfristigen natürlichen Schwankungen des Pazifiks steht, der bei El Niño von einer warmen in eine kalte Phase umschwenkt, ist bisher nicht geklärt."

                                 Bild 3 : El-Nino-Ereignisse 1950-2015

Ganz aktuell gibt es nun Hinweise, daß der El-Nino 2015/16 bereits kollabiert [3]:

 

                                  Bild 4 : Beginnender El-Nino-Kollaps ?

"El Nino collapse appears to be underway ; This naturally occurring oceanic cycle that produces warmer-than-normal sea surface temperatures (SSTs) in the equatorial region of the Pacific Ocean began in earnest early in 2015 and strengthened throughout the year to comparable intensity levels of the strong El Nino episodes of 1982-1983 and 1997-1998 although the warmest region relative-to-normal set up in somewhat different locations.  El Nino has had widespread consequences around the world and will continue to do so in the near future.  By later this year, colder-than-normal sea surface temperatures are quite likely to appear in the tropical Pacific Ocean as predicted by multiple computer forecast models and this flip to La Nina will also have extensive consequences around the world."

Ein Super-El-Nino vom Format des Jahres 2015 hat weitreichende Auswirkungen auf die Witterung in vielen Regionen der Erde, so auch bis hin in das äquatoriale Afrika [4]:

"Rekord-Dürre bedroht Äthiopiens Wirtschaftswunder"… "Das ostafrikanische Land leidet seit Monaten unter einer extremen Trockenheit. Im Sommer 2015 fiel der Regen in Äthiopien fast ganz aus."Die Meldungen über den Sommer ohne Regen weckten schreckliche Erinnerungen: Von 1983 bis 1985 erlebte Äthiopien das größte Hungersterben Afrikas der vergangenen Jahrzehnte…".

Was in dem SPON-Artikel nicht zu lesen ist: Auch 1983/84 gab es einen sehr starken ElNino, wie Bild 3 zeigt! Die El-Nino-Dürren dieser Art verabschieden sich dann meist genau so schnell wieder wie sie gekommen sind – mit La-Nina [2] :

"Im Gegensatz zu El Niño ist La Niña eine außergewöhnlich kalte Strömung im äquatorialen Pazifik, also sozusagen ein Anti-El-Niño, worauf auch die Namensgebung (…) beruht. Durch diese kalte Strömung entwickelt sich über Indonesien ein besonders starkes Tiefdruckgebiet. Die Passatwinde wehen stark und lang anhaltend. Dadurch kühlt sich der östliche Pazifik weiter ab und es gibt (z.B.) in Indonesien besonders viel Regen."

Ein El-Nino wie 2015 überlagert zwar kurzfristig alle anderen Witterungs-Phänomene in den betroffenen Regionen, ändert aber in aller Regel nichts an übergreifend länger andauernden Witterungs- oder gar Klima-Trends – so auch kaum an dem seit 30 Jahren anhaltenden Trend zu mehr Niederschlag im SAHEL (s. Bild 5), wo am südöstlichen Rand auch Äthiopien liegt :

                                   Bild 5 : Regen-Trend im SAHEL

In diesem Zusammenhang ist auch die Erkenntnis wichtig, daß die CO2-Zunahme seit Jahrzehnten zu einem "Global Greening" in der Vegetation und in den Ernteerträgen führt, auch im SAHEL, auch in Äthiopien (s. Bild 6):

                                           Bild 6 : "Global Greening"

(3)  Temperatur Deutschland

In Deutschland waren die Jahre 2014 und 2015 sehr warm (s. Bild 7), insbesondere wegen einer sehr stark ausgeprägten atlantischen Zirkulation in beiden Winterhalbjahren und einer starken lang anhaltenden Zirkulations-Blockierung im Sommer 2015. Das ändert jedoch nichts daran, daß in Übereinstimmung mit dem Stillstand der globalen Erwärmung auch in Deutschland ein Stillstand eingetreten ist –  wobei es wohl müßig ist, sich über einige Hundertstel Grad zu "streiten":

                            Bild 7 : Temperaturen Deutschland 2000-2015

(4)  Stürme und Sturmfluten an der Nordsee

Die Sturmfluten an der deutschen Nordseeküste sind logischerweise kausal mit den Stürmen über dem Atlantik und der Nordsee verknüpft – einen Klimatrend gibt es weiterhin nicht, wie Bild 8 zeigt:

                                                 Bild 8 : Stürme und Sturmfluten

(5) Meeres-Anstieg an der Nordsee

Eine bevorstehende oder sogar schon begonnene Überflutung von Küsten und Städten, wie sie ständig im Verbund von Klima-Alarmisten und Medien in die Welt geblasen wird, ist nirgendwo zu finden. Dazu wurde an dieser Stelle jüngst eine Übersicht peer-reviewter Literatur publiziert [5], mit dem Ergebnis:

"Z u s a m m e n f a s s u n g : Die ständigen Alarm-Meldungen zu angeblich dramatischen Meeres-Spiegel-Anstiegen in Gegenwart und Zukunft können durch Messungen nicht bestätigt werden, sondern werden durch die Meß-Daten sogar widerlegt. Weltweit zeigen weder die Pegel-Daten (200 Jahre) noch die Satelliten-Daten (20 Jahre) eine Beschleunigung des Meeres-Anstieges. Dazu in krassem Widerspruch stehen alle bisherigen und derzeitigen Aussagen vom Klimarat IPCC, von einigen Klima-Instituten sowie die der Klima-Modelle. Darüber hinaus gibt es Anhalts-Punkte dafür, daß die Satelliten-Daten zu höheren Beträgen hin erheblich "über-korrigiert" wurden."

Allmählich spricht es sich sogar in manchen Medien herum [6]:

"Sea levels are rising slower than expected: Parched land has soaked up trillions of tons of water from melting glaciers, stopping it from ending up in the oceans …

Scientists led by a team at NASA’s Jet propulsion Laboratory used satellite measurements to show the rate of sea level rise has slowed by 22 per cent."

Nun hat das Bundesamt für Seeschiffahrt und Hydrographie in Hamburg soeben die neusten Pegel-Daten für Cuxhaven ausgewertet, und das sieht so aus (s. Bild 9) :

                           

                               Bild 9 : Verlangsamung des Meeres-Anstieges

                                       am Pegel Cuxhaven (1845-2015)

Ergebnis: Der seit der letzten Eiszeit auch an der Nordseeküste beobachtete Meeres-Anstieg schwächt sich immer weiter ab!

F a z i t :
Das Jahr 2015 war ein sehr warmes Jahr, geschuldet einem "Super-El-Nino". Nie kann ein einzelnes Jahr ein "Klimasignal" sein, La-Nina wird das in den kommenden Jahren gerade rücken. Auch alle anderen Wetter- und Klima-Parameter zeigen kein Signal: Weder mehr Stürme, noch mehr Sturmfluten, noch Beschleunigung des Meeres-Anstieges – letzterer schwächt sich an der Nordsee sogar weiter ab.

Q u e l l e n :

[1] IPCC, AR5, Climate Change 2013: Technical Summary, p.61;  http://tinyurl.com/oxtcp4j

[2] https://de.wikipedia.org/wiki/El_Ni%C3%B1o

[3] http://wattsupwiththat.com/2016/02/10/el-nino-collapse-appears-to-be-underway/  10.02.2016

[4] http://www.spiegel.de/politik/ausland/aethiopien-afrikas-wirtschaftswunderland-kaempft-mit-der-duerre-a-1075934.html

[5] http://www.eike-klima-energie.eu/climategate-anzeige/globale-ueberschwemmung-vor-paris-oder-eben-200-jahre-spaeter-oder-eben-nie/

[6]..http://www.dailymail.co.uk/sciencetech/article-3443906/Sea-levels-rising-slower-expected-Parched-land-soaked-trillions-tons-water-melting-glaciers-stopping-ending-oceans.html

=================================================================

Anmerkung:

Der vorstehende Artikel ist als PDF zum Download im Anhang verfügbar, mit dabei besserer Abbildungs-Qualität.

Weitere aktuelle Graphiken und Fakten sind im PDF-A n h a n g  eines Übersichts-Vortrages zu finden.

=================================================================


Related Files




Lehren aus der Hysterie über Peak Oil (2005-2013)

Wo waren Sie während der Peak-Oil-Hysterie? Sie begann im Jahr 2005 und starb im Jahr 2013, markiert durch das installieren und schließen der Ölfass Website. Trotz ihrer Analysen und Prognosen, die meist bewiesen falsch zu sein, sind die meisten ihrer Autoren noch immer "Experten", die an anderer Stelle veröffentlichen (siehe dieses bizarre Beispiel). Das folgt dem Muster der modernen amerikanischen Schwarzmaler, wie diejenigen, die in den 1970er Jahren globale Katastrophen wegen Verschmutzung und Hungersnot vorhergesagten. Vielleicht werden die Aktivisten, die eine Klimakatastrophe vorhersagen, ihre Namen zu dieser Liste in der nächsten Dekade hinzuzufügen.

Es ist nicht nur eine historische Belanglosigkeit. Wir müssen aus diesen Anfällen von Irrationalität lernen, wenn wir noch Hoffnung haben, unsere Fähigkeit, uns selbst zu regieren, wieder zu erlangen.

Prognosen der maximalen Weltölproduktion

Die Erinnerungen sind verblasst, aber vor zehn Jahren waren die Vorhersagen zum Ende des Öls heiß in den Nachrichten. Kommentar-Threads liefen über mit Menschen die vor der Zukunft Angst hatten. Konferenzen wurden abgehalten und es wurden Bücher verkauft die Katastrophen trompeten, wenn der Lebensnerv unserer industriellen Zivilisation austrocknet. Viele der folgenden Namen wurden in den Rolodexes der Journalisten [Rollkartei für Visitenkarten; Schreibtisch-Adressenständer] als Ansprechpartner [Insider] für heiße Tipps hervorgehoben. Damals wie heute, die Leute die am wenigsten konsultiert werden, haben die genaueren Prognosen.

Die häufigsten Quellen

  • 2005 – Pickens, T. Boone (Oil & gas investor).
  • 2007 – Bakhitari, A.M.S. Oil Executive ((Iranian National Oil Co. planner).
  • 2007+ – Groppe, H. (Oil / gas expert & businessman).
  • 2007 – Herrera, R. (Retired BP geologist).
  • 2008+ – Westervelt, E.T. et al (US Army Corps of Engineers).
  • 2009 – Deffeyes, K. (retired Princeton professor & retired Shell geologist).
  • 2009 – Simmons, M.R. (Investment banker; see the posts about his work).
  • 2010 – Goodstein, D. (Vice Provost, Cal Tech).
  • 2010 – Wrobel, S. (Investment fund manager).
  • 2010 – Bentley, R. (University energy analyst).
  • 2010 – Campbell, C.  (Retired oil company geologist; see the posts about his work).
  • 2010 – Skrebowski, C. (Editor of Petroleum Review).
  • 2011 – Meling, L.M.  (Statoil oil company geologist).
  • 2012 – Koppelaar, R.H.E.M. (Dutch oil analyst).
  • 2012 – Pang Xiongqi (Petroleum Executive, China).
  • 2015 – Husseini, S. (retired Saudi Aramco).
  • 2020 – Laherrere, J. (Oil geologist , France).
  • 2020+ – CERA Energy (consultants).
  • 2020+ – Wood Mackenzie (consultants).
  • 2025+ – Shell.
  • 2030+ – EIA and IEA.
  • No visible peak – Lynch, M.C. (Energy economist).

Diese Prognosen wurden zwischen 2003 – 2008 gemacht (zusammengestellt von Robert Hirsch, die häufigsten Quellen sind hier aufgelistet). Die meisten Prognosen wurden mit qualifizierter Sprache, mit Unsicherheit über den Zeitpunkt, ausdrückt. Einige dieser Menschen, insbesondere diejenigen die der Bewegung Peak Oil verbunden sind, hatten unterschiedliche Zeitpunkte angegeben – im Lauf der Zeit waren sie ausgeschieden. Die meisten [Prognosen] sind dokumentiert, aber Details gingen im Laufe der Zeit verloren.

Ein Jahrzehnt später sehen die Prognosen der großen Energieagenturen gut aus. Ähnlich wie mit dem Klimawandel, setzen Aktivisten (oft verächtlich) die Analyse der Berufsverbände herab – aber im Nachhinein ist es klar, wem wir zuhören sollten.

Lassen Sie uns im Rahmen der Historie der Ölförderung diese Vorhersagen ansehen.

Die Prognosen der Ölproduktion  im Jahr 2008

Die folgende Tabelle zeigt die aktuelle Produktion von Rohöl und flüssigen Brennstoffen – und der IEA Prognose für die Produktion im Jahr 2015 aus ihrem World Energy Outlook 2008, veröffentlicht als die Energiepreise auf ihrem Weg zu einem Rekordhoch waren? Acht Jahre später, wie genau war die IEA-Prognose? Es war unheimlich präzise – etwas zufällig, dass die IEA nicht die 2008-09 globale Rezession vorausgesehen hat und so das BIP-Wachstum überschätzte.

Die IEA und EIA verwenden ähnliche Definitionen für "flüssige Brennstoffe".

Weltproduktion  vs. WEO Prognose 2008 (in Millionen Barrel / Tag)

Historische Daten von der EIA website.
* 2015 total is for Q3. [2015 Insgesamt ist für das 3. Quartal]

Die Quintessenz: Die Produktion von Flüssigbrennstoff stieg nach 2005 um 15% in zehn Jahren, so dass die Preise abstürzten (durch den Preiskampf der Saudis verschärft). Die Preise werden weiter unter Druck bleiben, es sei denn die OPEC stellt erneut die Kontrolle her, die Produktion kommt durch Investitionen aus dem riesigen Gebiet von Iran und Irak, die Verbreitung von Fracking in anderen Nationen und neue Technologie (beispielsweise  Hybrid- und Elektroautos ).

Beachten Sie auch die zunehmende Differenz zwischen der Produktion von Rohöl und allen flüssigen Brennstoffen. Der Anstieg des Rohöls und im weiteren Sinne, flüssiger Brennstoffe durch neue Quellen, deren Potential meist von den Peak Oil Schwarzmalern ignoriert wurde. Die Produktion von Rohöl stieg an aus Tiefwasser [offshore] und Fracking Bohrungen, sowie Bitumen aus Bergbau (auch bekannt als Ölsand, der technisch kein Rohöl produziert). Die Produktion flüssiger Brennstoffe stieg an, aus der Produktion von flüssigem Erdgas, Biodiesel, Ethanol und diejenigen, die aus Kohle und Gas umgewandelt werden. Die meisten Zahlen, die Sie für "Weltölproduktion" sehen, sind alle für flüssige Brennstoffe.

Während im Jahr 2008 die IEA für 2015 die Flüssigbrennstoff Produktion genau geschätzt hatte, überschätzt sie die Nachfrage. Infolgedessen war die Preisprognose in 2008 der WEO für 2015 zu hoch.

"Die Ära des billigen Öls ist vorbei … Der durchschnittliche IEA Rohöl-Einfuhrpreis, ein Proxy für internationale Preise, wird im Referenzszenario angenommen mit durchschnittlich $100 pro Barrel in aktuellen Jahr – in 2007er Dollarwerten im Berichtszeitraum 2008 bis 2015, um dann beinahe linear zu steigen auf $122 im Jahr 2030. "

Schlussfolgerungen

Wie es viele von uns während der Peak-Oil-Hysterie vorher gesagt haben, hatten die hohen Ölpreise drei tolle Effekte – alle vorhersehbar…

•        Erhöhung der Effizienz der Energienutzung – das Verbraucher und Unternehmen investieren, um die Effizienz der teureren Energie zu erhöhen (und R&D produziert mehr Möglichkeiten, dies zu tun). [Research & Development; Forschung und Entwicklung]

•        Erhöhung der Produktion von Öl (durch R & D verstärkt mehr "Ressourcen" in nutzbare "Reserven" zu wandeln. Die heutige $30 für Öl zeigen, dass das Produktionswachstum die Nachfrage überschritten hat.

•        Neue Quellen für flüssige Brennstoffe – einschließlich der beiden neuen Kohlenwasserstoffbasis Lieferungen (Bitumen in Kanada und Venezuela), neue kohlenstoffbasierte Brennstoffe (z.B. Kohle zu Öl, obwohl die Ölpreise nie so ansteigen werden, um das wirtschaftlich zu machen), und neue Versorgung auf Kohlenhydratbasis (z.B. Ethanol aus Mais).

Nur die Zeit wird etwas über die Prognose der IEA für 2030 von $122 für Öl (in 2007er Dollarwert) erzählen. Aber die heutige Ölschwemme gibt uns die Möglichkeit, alternative Quellen kostengünstig und ordnungsgemäß vorzubereiten, nicht nur das Risiko von Energiepreisschocks zu reduzieren, sondern auch eine Verringerung der Verschmutzung und der Gefahr eines unangenehmen anthropogenen Klimawandels. Nutzen wir das Geschenk.

Ebenso wichtig ist, dass wir aus dieser Erfahrung mit der Peak-Oil-Bewegung lernen. Aktivisten und Enthusiasten haben eine schreckliche Bilanz bei langfristigen Prognosen, trotz ihres Vertrauens auf laute Vorhersagen des Untergangs – mit Widerhall durch Anklickköder-suchende Journalisten. Das bedeutet nicht, dass wir blind den großen Institutionen vertrauen sollten (wie der Skandal um Flints Wasserversorgung zeigt) [Flusswasser anstatt Seewasser war billiger (mehr Gewinn), enthielt aber viel Blei]. Aber Skepsis zahlt sich aus und ermöglicht sich mehr rational auf die Zukunft vorzubereiten.

Für mehr Informationen

Einen tiefen Einblick auf diese Fragen finden Sie in Exxons neuen Bericht “The Outlook for Energy: A View to 2040“.

Sehen Sie auch diese…

  1. Important: Recovering lost knowledge about exhaustion of the Earth’s resources (such as Peak Oil).
    Wichtig: Wiederherstellen von verlorenem Wissen über Erschöpfung der Ressourcen der Erde (so wie Peak Oil).
  2. When will global oil production peak? Here is the answer!
    Wann wird die globale Ölproduktion ihren Peak erreicht haben? Hier ist die Antwort!
  3. The three forms of Peak Oil (let’s hope for the benign form).
    Die drei Formen des Peak Oil (lassen Sie auf die gutartige Form hoffen).
  4. Peak Oil Doomsters debunked, end of civilization called off!
    Peak Oil Schwarzmaler entlarvt, das Ende der Zivilisation ist abgesagt!
  5. Prepare now, for oil prices will rise again.
    Präparieren sie sich jetzt, die Ölpreise werden wieder steigen.

Um mehr über die Mineralien zu lernen, die unsere Welt antreiben und das für viele Jahre mehr, empfehle ich den IEA-Bericht zu lesen: Resources to Reserves 2013. [freies PDF, rd. 9MB]. Für einen tieferen Blick finden Sie in der IIASA Global Energy Assessment (ein weithin zitiertes Quelldokument, unter anderem in den AR% des IPCC). Hier ist eine 113seitige Zusammenfassung.

Erschienen auf WUWT am 15.Feb. 2016

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2016/02/15/lessons-from-the-hysteria-about-peak-oil-2005-2013/




Wärmer, noch wärmer, am wärmsten – NOAA und NASA erwischt mit der Manipulation der Aufzeichnungen

Zusammenfassung

·        Nach den Daten der NOAA Website war 1997 war wirklich das heißeste Jahr der Aufzeichnung mit 16,9°C (62.45°F). Die globale Durchschnittstemperatur in 2015 betrug 14,78°C (58.62°F) oder 2,12K (3.83F) unter der Temperatur von 1997.

·        Nach den Daten der NOAA Website, haben die Temperaturen, wie beispielsweise die Durchschnittstemperatur des 20. Jahrhunderts und jährliche Temperaturanomalien, die festgelegt [fixed] werden mussten, unterschiedliche Werte in den jährlichen globalen Analysen.

·        NOAA und NASA korrigierten historische Temperaturdaten und stellten Temperaturdaten in Gebieten ohne Temperaturaufzeichnung systematisch her, unidirektional in Richtung "kühlerer" Vergangenheit, in dem Versuch, einen steigenden Temperaturtrend zu beweisen.

·        NOAA und die NASA haben Anstrengungen unternommen, ihre eigenen Satellitendaten zu diskreditieren – welche im Einklang mit dem Ballon Daten sind – weil diese eine globale Erwärmung Pause seit 1998 zeigen, was im Widerspruch mit der von NOAA und der NASA bevorzugten Erzählung steht.

·        NOAA und NASA haben sich geweigert, die durch das US-Repräsentantenhaus für Wissenschaft, Weltraum und Technologie angeforderten Daten und Informationen heraus zugeben. Es gibt keinen Grund für sie die Daten und Informationen, die öffentlich zugänglich sind, zurückzuhalten, es sei denn, sie haben etwas zu verbergen.

Die Schlagzeile: „letztes Jahr war das heißeste der Aufzeichnungen, dieses Jahr ist heißer als letztes Jahr und nächstes Jahr könnte heißer als dieses Jahr werden” wird Jahr für Jahr widerholt bis die Finanzierung des Klimawechsels aufhört!

Einführung

Wie seit April 2015 [1-9] monatlich behauptet, gaben die Mainstream-Medien heute bekannt, dass: "Es ist offiziell: 2015 war das wärmste Jahr der Aufzeichnung" [10-13]. Dieses "heißen Neuigkeiten" wurde sofort veröffentlicht, nachdem das „National Centers for Environmental Information“ (NCEI) der „National Oceanic and Atmospheric Administration“ (NOAA) seine "Globale Analyse – Annual 2015" [14] geliefert hatte. Nach dieser 2015er globalen Analyse: "… die globale Durchschnittstemperatur der Oberflächenbereiche über Land und Ozean für das Jahr 2015 betrug 0,90° C (1,62 ° F) über dem Durchschnitt von 13,9° C (57,0 ° F) im 20. Jahrhunderts und schlug den bisherigen Wärmerekord von 2014 um 0,16° C (0,29° F)", um das heißeste Jahr der Aufzeichnungen zu werden. "Wir sehen wirklich einen langfristigen Trend und das ist ein Symptom für einen langfristigen Trend" und „wenn 2016 sich als so warm erweist, wie wir erwarten, wäre das beispiellos in unserem Buch der Rekorde", sagte Gavin Schmidt, Direktor des Goddard Institute for Space Studies (GISS) der National Aeronautics and Space Administration (NASA) [10,15]. Das überrascht nicht, weil ein zuvor vom britischen Met Office veröffentlichter Bericht behauptet, dass " nächste Jahr [2016] wird wahrscheinlich das wärmste dank El-Niño und fortschreitenden Klimawandel sein" [16].

Allerdings gibt es Hinweise darauf, dass die von NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen ungenau, unzuverlässig und vor allem nicht mit den Satelliten-Temperaturdaten konsistent zu sein scheinen. Dieser Bericht ist ein Versuch zu verstehen, warum [bereits] seit langer Zeit, die von der NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen durch "skeptische" Wissenschaftler und Meteorologen als Betrug betrachtet werden oder diplomatischer – unwissenschaftlich!

Unbestreitbare Beweise

Bedenken in Bezug auf die Genauigkeit und Zuverlässigkeit der von NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen waren nicht gegeben und erfuhren keine besondere Aufmerksamkeit, bis die NASA erklärte: „dass die Temperatursteigerung des Planeten aus dem langfristigen Durchschnitt von 1,04 Celsius im Oktober [2015] die größte eines Monats überhaupt ist, die von der NASA aufgenommen wurde. Es war das erste Mal das eine monatliche Temperaturanomalie von 1 Grad Celsius in den Aufzeichnungen aus dem Jahr 1880 übertroffen wurde. Die bisherige größte Anomalie betrug 0,97 Celsius im Januar 2007 "[17] Seitdem wurden viele Beweise [, dass das falsch ist,] aufgedeckt und im Internet veröffentlicht.

Welches Jahr war das wärmste Jahr der Aufzeichnungen?

In der NOAA Globalen Analyse – Annual 2015 [14] heißt es "… die globale Durchschnittstemperatur der Oberflächenbereiche über Land und Ozean für das Jahr 2015 betrug 0,90 ° C (1,62 ° F) über dem Durchschnitt von 13,9 ° C (57.0 ° F) im 20. Jahrhundert und schlug den bisherigen Wärmerekord des Jahres 2014 um 0,16K (0.29 F)". Als Folge errechnet sich die globale Durchschnittstemperatur für das Jahr 2015 über Land und Ozean mit 14,80 °C (58.62°F). In der NOAA Global Analysis – Annual 1997 [18] heißt es: "Die globale Durchschnittstemperatur von 62.45 Grad Fahrenheit [16,9°C} im Jahr 1997 war das wärmste Jahr der Aufzeichnung und übertraf damit den bisherigen Rekord im Jahr 1995 um 0.15 Grad Fahrenheit (0,08K)."

Basierend auf diesen globalen Analysen der NOAA, war die globale Durchschnittstemperatur für das Jahr 1997, mit 16,92°C (62.45°F) höher als die für das Jahr 2015, von 14,80°C (58.62°F), mit 2,12K (3.83F). Daher war 1997 eigentlich das wärmste Jahr der Aufzeichnung und übertraf damit alle nachfolgenden Jahre einschließlich 2015!

Konstante Parameter mit unterschiedlichen Werten

Einige Temperaturparameter, die konstant sein müssen, werden mit unterschiedlichen Werten in den NOAA globalen Analysen gezeigt. Ohne besondere Aufmerksamkeit sind sie schwer zu erkennen, da sie in Einzelanalysen versteckt sind.

Der erste Parameter, der direkte Auswirkungen auf die NOAA Einschätzung hat, ist der Durschnitt des 20. Jahrhundert. In den jährlichen globalen Analysen vor 2010, wird der Mittelwert des 20. Jahrhunderts, mit 56,9°F oder 13,9 °C ausgewiesen (eigentlich müsste es 13,83°C sein). Sein Wert wird mit 57,0°F oder 13,9 °C ab dem Jahr 2010 bis jetzt dargestellt [19].

Zusätzlich in der globalen Analyse – August 2015 [20], berichtet NOAA: "Die kombinierte Durchschnittstemperatur über globalen Land- und Ozeanoberflächen für August 2015 betrug 0,88 K (1.58 F) über dem Durchschnitt von 15,6 °C (60.1 °F) des 20. Jahrhunderts und war der höchste Augustwert in der 136-jährigen Aufzeichnung". Die Veränderung des Wertes für den Durchschnitt des 20. Jahrhunderts wird von NOAA und der NASA nicht erklärt.

 

Tabelle 1 – Unterschiedliche Werte von Jahres Anomalien

Der zweite Parameter ist die jährliche Anomalie, das heißt die Differenz zwischen der jährlichen globalen Durchschnittstemperatur und der mittleren des 20. Jahrhunderts. Der Wert dieses Parameters, der eine Konstante sein muss, variiert von Analyse zu Analyse. Zum Beispiel die 2010er-Anomalie – gezeigt mit 0,62K ( 1.12F) in der globalen Analyse – Annual 2010 – steigt auf 0,83K (1.15F) in der 2011 Analyse und 0,66K (1.19F) in den 2012 und 2013 Analysen, verringert sich auf 0,94K (1.17F) in der 2014er Analyse und erhöht sich dann wieder in der 2015er Analyse, wie in Tabelle 1 gezeigt.

Korrigierte und hergestellte Temperaturdaten

Fragen in Bezug auf die Zuverlässigkeit, Genauigkeit und Angemessenheit der Temperaturdaten die von NOAA und der NASA verwendet werden, um die globale Durchschnittstemperatur zu berechnen, wurden von Joseph D’Aleo gestellt, dem ersten Direktor der Meteorologie und Mitbegründer des Kabel-TV Weather Channel und von Anthony Watts, ein 25-Jahre-Broadcast Meteorologie Veteran und derzeit ein Meteorologe für KPAY-AM-Radio und den vom Wissenschaft & Public Policy Institute (SPPI) im Jahr 2010  veröffentlichten Bericht [21].

Im Anschluss an eine integrative Beurteilung der Aufzeichnungen der Oberflächentemperaturen der Climatic Research Unit (CRU) der East Anglia University in Großbritannien und NASA‘s GISS und NOAA National Climatic Data Center (NCDC), schlossen die Autoren, dass "Instrumentale Temperaturdaten für die Vor-Satelliten-Ära (1850-1980) wurden so umfangreich, systematisch und unidirektional verfälscht, dass sie nicht glaubwürdig geltend machen können, dass es eine signifikante "globale Erwärmung" im 20. Jahrhundert gegeben hat … globale terrestrische Temperaturdaten wurden beeinträchtigt, weil mehr als drei Viertel der 6.000 Stationen, die [früher] einmal erfasst wurden, nun nicht mehr in den Trendanalysen verwendet werden … zu den Ozeanen fehlen Daten und die Unsicherheiten sind beträchtlich. Veränderungen in Datensätzen führten zu einer schrittweisen Erwärmung im Jahr 2009. "

Das D’Aleo‘s und Watt‘s Bericht ermutigt zusätzliche Bewertungen durch andere Wissenschaftler, Anpassungen oder Herstellung von Temperaturdaten in den NCDC und CRU-Datenbanken genau zu prüfen. Diese zusätzlichen Bewertungen bestätigen, dass NOAA und der NASA systematisch und umfangreich, historische Daten verändert und Temperaturdaten in Bereichen ohne Messungen hergestellt haben [22-35], um "die Vergangenheit zu kühlen", damit ein zunehmender globaler Temperaturtrend gezeigt werden kann, wie von NOAA und NASA interpretiert (siehe Abbildung 1).

 

Abbildung 1 – NASA "kühlt" die Vergangenheit, um den globalen Erwärmungstrend zu beweisen [22]

Diskreditierung der Satellitendaten

Seit 1978 hat NOAA Wettersatelliten verwendet, um die Temperatur der Erdatmosphäre zu überwachen. Laut einer Studie, die von der NASA im Jahr 1990 [36] durchgeführt wurde, „haben mehrere Regierungs- und Universitäts Meteorologen auf der ganzen Welt festgestellt, dass die durchschnittliche Oberflächentemperatur in den letzten Jahren zugenommen hat“, der Autor dieses Berichts schrieb, dass ihre Satelliten-Analyse der oberen Atmosphäre viel genauer ist und als der normale Weg übernommen werden sollte, um globale Temperaturänderungen zu überwachen."

Abbildung 2 – Satelliten Temperaturanomalien der globalen unteren Atmosphäre [37]

Abbildung 3 – NASA, globale Land und Meer Temperaturanomalien [38]

Satellitendaten von 1979 (Abbildung 2) zeigen, dass die Temperatur der globalen unteren Atmosphäre seit 1998 nicht gestiegen ist, im Widerspruch mit dem steigenden Trend der NASA, wie in Abbildung 3 zu sehen. Aus diesem Grund, haben NOAA und NASA Anstrengungen unternommen, um die durch ihre eigenen Satelliten gesammelten Temperaturdaten zu diskreditieren.

Der erste Versuch war eine Studie von Thomas R. Karl, Direktor des NOAA National Centers for Environmental Information (NCEI), und seinen NOAA Kollegen. Die Studie, online in der Zeitschrift Science [39] veröffentlicht, kommt zu dem Schluss, dass: "Viele Studien wurden den möglichen Ursachen für eine scheinbare Abnahme des Aufwärtstrend der globalen Oberflächentemperatur seit 1998 gewidmet, ein Phänomen, das die globale Erwärmungs- "Pause" überspielt hat. Hier präsentieren wir eine aktualisierte globale Oberflächentemperatur-Analyse, die zeigt, dass globale Trends höher sind als die vom IPCC gemeldeten, vor allem in den letzten Jahrzehnten, und dass die zentrale Schätzung für die Erwärmungsrate während den ersten 15 Jahre des 21. Jahrhunderts mindestens so groß ist wie in der letzten Hälfte des 20. Jahrhunderts [4]. Diese Ergebnisse stützen die Vorstellung von einem "Rückgang" in der Zunahme der globalen Oberflächentemperatur nicht."

Abbildung 4 – NOAA’s globale Temperaturtrend Analysen [Internet]

Die zweite Anstrengung war ein Propaganda-Video, an dem der "berühmte Klimaforscher" Michael Mann (der Autor von "The Hockey Stick") beteiligt war, Kevin Trenberth (zugebend, dass "es ein Hohn ist, dass wir nicht auf die im Moment fehlende Erwärmung zählen können") und Ben Santer. Das Video wurde von einer Stiftung für Klima-Aktivisten finanziert, um Zweifel an den Satellitendaten [40] zu streuen. Aber dieses Video scheint ein Schuss in den Ofen zu sein, weil (1) die Satellitendaten durch die unabhängigen Ballondaten (Abbildung 5) verifiziert werden, während die von NOAA und der NASA berechneten Temperaturdaten nicht bestätigt werden, (2) die Verwendung von Satelliten für Überwachung der globalen Temperaturänderungen war von der NASA empfohlen und (3) Jason-3 – der neueste in den Orbit gestartete Wettersatellit – ist eine internationale Mission, in der NOAA in Partnerschaft ist mit der NASA, dem Centre Nationale de’Études Spatiales (CNES), der Französischen Weltraumorganisation und der Europäischen Organisation für die Nutzung meteorologischer Satelliten (EUMETSAT)) [41].

Abbildung 5 – Satelliten- durch Ballon-Daten verifiziert [40]

Verbergen von Daten und Methoden die für wissenschaftliche Untersuchungen verwendet werden

Im Juli 2015, um die wissenschaftliche Integrität der NOAA-Studie zu "keine Pause in der globalen Erwärmung" zu beweisen, fragten der Republikaner Lamar Smith (R-Texas), der Ausschussvorsitzende im US-Repräsentantenhaus für Wissenschaft, Raumfahrt und Technologie, die NOAA um Daten und Dokumente an, die mit der Studie verbunden sind. Obwohl Rep. Smith Anfrage legitim und die angeforderten Informationen öffentlich sind, weigerte sich NOAA dem Ausschuss die angeforderten Daten und Informationen zu geben, weil "es ist eine langjährige Praxis in der wissenschaftlichen Gemeinschaft, die Vertraulichkeit der beratenden wissenschaftlichen Diskussionen zu schützen" [42]. Warum verweigert NOAA diesen Antrag? "Es gibt absolut keinen Grund für die NOAA, ihre Informationen zurückzuhalten, außer sie haben etwas zu verbergen. Und als Bundesbehörde ist es ihre Pflicht, mit dem Kongress zu kooperieren "[42].

NOAA weigerte sich weiterhin, die angeforderten Daten und Informationen zu geben, bis die Überwachung der Justiz am 2. Dezember 2015 eine Klage eingereichte, zur Vorlage der gleichen Unterlagen, die der Ausschuss anforderte. Das Department of Commerce (DOC) wurde wegen fehlender Reaktion auf die Anfrage nach dem Freedom of Information Act (FOIA) [ist in US Gesetz; der Übers.] verklagt, weil NOAA eine Komponente des DOC ist. Am 15. Dezember 2015 begann NOAA die angeforderten Dokumente an den Kongress [43] zu übermitteln.

Die Tiefe der Probleme in NOAA’s Praktiken wurde wahrscheinlich zum ersten Mal im Jahr 2007 aufgedeckt, als Klimaforscher Roger Pielke und Meteorologe Anthony Watts ernsthafte Probleme mit dem US-Oberflächentemperatur-Messnetz fanden, welches vom National Climatic Data Center (NCDC) verwaltet wurde, ein Zweig der NOAA. Sie bemühten sich, dieses Netzwerk zu validieren, aber ‚das NCDC entfernte alle Website Zugänge zu Stationsstandorten unter Berufung auf  ‚Bedenken hinsichtlich der Privatsphäre.‘ Ohne diese Daten (die seit Jahren öffentlich sind), wurden Validierungsbemühungen blockiert" [44].

FAZIT

Wie so häufig von den Mainstream-Medien seit April 2015 wiederholt, erklärten NOAA und NASA offiziell, dass 2015 heißer als 2014 war, das alte wärmste Jahr der Aufzeichnungen und "versprechen", dass 2016 heißer als 2015 sein könnte! Jedoch, unleugbare Beweise zeigen, dass die von NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen ungenau, unzuverlässig und nicht mit den Satellitendaten konsistent erscheinen.

Laut Daten der NOAA Website, war 1997 wirklich das heißeste Jahr der Aufzeichnung mit 16,9°C (62.45°F). Die globale Durchschnittstemperatur im Jahr 2015 betrug 14,8°C (58.62°F) oder 2,12K (3.83F) von unter der Temperatur 1997.  [… und unter der „Normal“ Temperatur von 15°C gemäß PIK u.ä., der Übersetzer]

Nach den Daten der NOAA Website, haben die Parameter wie beispielsweise die Durchschnittstemperatur des 20. Jahrhunderts und der jährlichen Temperaturanomalien, die konstant sein müssten, unterschiedliche Werte in den jährlichen globalen Analysen.

NOAA und NASA korrigierten historische Temperaturdaten und stellten Temperaturdaten in Gebieten ohne Temperaturaufzeichnung systematisch her, weit verbreitet und unidirektional zum „kühlen“ der Vergangenheit, in dem Versuch, einen steigenden Temperaturtrend zu beweisen.

NOAA und der NASA haben Anstrengungen unternommen, um ihre eigenen Satellitendaten zu diskreditieren – die im Einklang mit dem Ballon Daten sind – weil eine globale Erwärmung Pause seit 1998 im Widerspruch mit der von NOAA und der NASA bevorzugten Behauptung steht.

NOAA und NASA haben sich geweigert, die durch das US-Repräsentantenhaus für Wissenschaft, Weltraum und Technologie angeforderten Daten und Informationen heraus zugeben. Es gibt keinen Grund für sie die Daten und Informationen, die öffentlich zugänglich sind, zurückzuhalten, es sei denn, sie haben etwas zu verbergen.

 Bild WUWT

Die Schlagzeile: „letztes Jahr war das heißeste der Aufzeichnungen, dieses Jahr ist heißer als letztes Jahr und nächstes Jahr könnte heißer als dieses Jahr werden” wird Jahr für Jahr widerholt bis die Finanzierung des Klimawechsels aufhört!

Erschienen auf WUWT am 2. Februar 2016

Übersetzt durch Andreas Demmig

www.wattsupwiththat.com/2016/02/02/2014-was-the-hottest-year-on-record-but-2015-is-hotter-than-2014-and-2016-could-be-hotter-than-2015

Referenzen

[1] Andrea Thompson. April 17, 2015. “2015 Hottest Year to Date, Could Top 2014 Record.” Climate Central. http://www.climatecentral.org/news/2015-hottest-year-to-date-18895

[2] Jay Michaelson. May 16, 2015. “2015 Is the Hottest Year On Record.” The Daily Beast. http://www.thedailybeast.com/articles/2015/05/16/2015-is-the-hottest-year-on-record.html

[3] Jon Edrman. Jun 18, 2015. “2015 Still On Pace as Hottest Year On Record.” The Weather Channel. http://www.weather.com/news/climate/news/earth-warmest-january-may-2015

[4] Brian Clark Howard. July 24, 2015. “See Why 2015 May Be the Hottest Year Ever.” National Geographic. http://news.nationalgeographic.com/2015/07/071524-this-year-may-be-hottest-ever/

[5] Andrea Thompson. August 20, 2015. “2015 May Just Be Hottest Year on record.” Scientific American. http://www.scientificamerican.com/article/2015-may-just-be-hottest-year-on-record/

[6] Adam Vaughan. September 17, 2015. “US science agency says 2015 is 97% likely to be the hottest year on record.” The Guardian. http://www.theguardian.com/us-news/2015/sep/17/2015-hottest-year-on-record-noaa

[7] Justin Gillis. October 21, 2015. “2015 Likely to Be Hottest Year Ever Recorded.” The New York Times. http://www.nytimes.com/2015/10/22/science/2015-likely-to-be-hottest-year-ever-recorded.html?_r=0

[8] WMO. 25 November 2015. “WMO: 2015 likely to be Warmest on Record, 2011-2015 Warmest Five Year Period.” WMO. https://www.wmo.int/media/content/wmo-2015-likely-be-warmest-record-2011-2015-warmest-five-year-period

[9] Tom Randall. December 17, 2015. « A White-Hot Christmas Wraps Up Earth’s Hottest Year on Record.” Bloomberg Business. http://www.bloomberg.com/news/features/2015-12-17/a-white-hot-christmas-wraps-up-earth-s-hottest-year-on-record

[10] Jason Plautz. January 20, 2016. “It’s Official: 2015 Was Hottest Year on Record.” National Journal. http://www.nationaljournal.com/s/399249/its-official-2015-was-hottest-year-record?mref=scroll

[11] Brandon Miller. January 20, 2016. “2015 is warmest year on record, NOAA and NASA say.” CNN. http://www.cnn.com/2016/01/20/us/noaa-2015-warmest-year/

[12] Alyssa Newcomb. January 20, 2016. “Earth Had Its Hottest Year on Record in 2015, Says NASA, NOAA.” ABC News. http://abcnews.go.com/Technology/earth-hottest-year-record-2015-nasa-noaa/story?id=36400929

[13] Justin Gillis. January 20, 2016. “2015 Was Hottest Year in Historical Record, Scientists Say.” The New York Times. http://www.nytimes.com/2016/01/21/science/earth/2015-hottest-year-global-warming.html

[14] National Centers for Environmental Information. Retrieved January 20, 2016. “Global Analysis – Annual 2015.” NOAA. http://www.ncdc.noaa.gov/sotc/global/201513

[15] Deborah Netburn. January 20, 2016. “2015 was the hottest year on record, and the forecast for 2016 is warmer yet.” The Los Angeles Times. http://www.latimes.com/science/sciencenow/la-sci-sn-2015-hottest-year-20160119-story.html

[16] Justin Worland. December 17, 2015. “2016 Expected to Be the Warmest Year on record, Report Says.” Time. http://time.com/4154331/warmest-year-2016-climate-change-el-nino/

[17] Jason Samenow. November 17, 2015. “Record-crushing October keeps Earth on track for hottest year in 2015.” The Washington Post. https://www.washingtonpost.com/news/capital-weather-gang/wp/2015/11/17/record-crushing-october-keeps-earth-on-track-for-hottest-year-in-2015/

[18] NOAA National Climatic Data Center, State of the Climate: Global Analysis for Annual 1997, published online January 1998, retrieved on May 4, 2015 from http://www.ncdc.noaa.gov/sotc/global/199713

[19] National Centers for Environmental Information. “State of the Climate: Global Analysis.” NOAA. http://www.ncdc.noaa.gov/sotc

[20] NOAA National Centers for Environmental Information, State of the Climate: Global Analysis for August 2015, published online September 2015, retrieved on January 22, 2016. http://www.ncdc.noaa.gov/sotc/global/201508

[21] Joseph D’Aleo and Anthony Watts. August 27, 2010. Surface Temperature Records: Policy-Driven Deception? Science & Public Policy Institute.http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf

[22] Paul Homewood. January 29, 2015. “Temperature Adjustments Around the World.” Not A Lot of People Know That. https://notalotofpeopleknowthat.wordpress.com/2015/01/29/temperature-adjustments-around-the-world/

[23] Christopher Booker. February 7, 2015. “The fiddling with temperature data is the biggest science scandal ever.” The Telegraph. http://www.telegraph.co.uk/news/earth/environment/globalwarming/11395516/The-fiddling-with-temperature-data-is-the-biggest-science-scandal-ever.html

[24] Selwyn Duke. February 9, 2015. “Global Conning: temperature Data Cooked in ‘Biggest Science Scandal Ever’.” The New American. http://www.thenewamerican.com/usnews/item/20081-global-conning-temperature-data-cooked-in-biggest-science-scandal-ever?

[25] James Delingpole. February 7, 2015. “’Breathtaking’ Adjustments to Arctic Temperature Record. Is There Any ‘Global Warming’ We Can Trust?” Breitbart. http://www.breitbart.com/london/2015/02/07/breathtaking-adjustments-to-arctic-temperature-record-is-there-any-global-warming-we-can-trust/

[26] John Hinderaker. May 5, 2015. “NOAA Caught Rewriting US Temperature History (Again).” Powerline. http://www.powerlineblog.com/archives/2015/05/noaa-caught-rewriting-us-temperature-history-again.php

[27] Paul Homewood. July 20, 2015. “NOAA Tampering Exposed.” Not A Lot of People Know That. https://notalotofpeopleknowthat.wordpress.com/2015/07/20/noaa-tampering-exposed/

[28] John Hinderaker. September 27, 2015. “Almost All US Temperature Data used in Global Warming Models Is Estimated or Altered.” Powerline. http://www.powerlineblog.com/archives/2015/09/almost-all-us-temperature-data-used-in-global-warming-models-is-estimated-or-altered.php

[29] John Goetz. September 27, 2015. “Approximately 92% (or 99%) of USHCN surface temperature data consists of estimated values.” Watts Up With That. http://wattsupwiththat.com/2015/09/27/approximately-92-or-99-of-ushcn-surface-temperature-data-consists-of-estimated-values/

[30] Larry Bell. November 17, 2015. “Data Tweaking heats up climate hype.” CFACT. http://www.cfact.org/2015/11/17/data-tweaking-heats-up-climate-hype/

[31] Tony Heller. November 19, 2015. “Record Crushing Fraud From NOAA And NASA Ahead of Paris.” The Real Climate Science. http://realclimatescience.com/2015/11/record-crushing-fraud-from-noaa-and-nasa-ahead-of-paris/

[32] Judith Curry. November 5, 2015. “Is the government tinkering with global warming data?” Fox News. http://www.foxnews.com/opinion/2015/11/05/is-government-tinkering-with-global-warming-data.html

[33] Paul Homewood. November 21, 2015. “NOAA’s Fabricated ‘Record Temperatures’.” Not A Lot People Know That. https://notalotofpeopleknowthat.wordpress.com/2015/11/21/noaas-fabricated-record-temperatures/

[34] P Gosselin. November 20, 2015. “’Massive Altered’… German Professor Examines NASA GISS Temperature Datasets.” NoTricksZone. http://notrickszone.com/2015/11/20/german-professor-examines-nasa-giss-temperature-datasets-finds-they-have-been-massively-altered/#sthash.lEDY4hkl.TeBUOeAB.dpbs

[35] Steven Goddard. November 22, 2015. “NOAA Data Tampering – Much Worse Than It Seems.” Real Science. https://stevengoddard.wordpress.com/2015/11/22/noaa-data-tampering-much-worse-than-it-seems/

[36] Steven Goddard. January 7, 2014. “NASA 1990: No Global Warming – Surface Temperature Record Should Be Replaced by More Accurate Satellites.” Real Science. https://stevengoddard.wordpress.com/2014/01/07/nasa-1990-no-global-warming-surface-temperature-record-should-be-replaced-by-more-accurate-satellites/

[37] Barbara Hollingsworth. January 21, 2016. “NASA/NOAA: 2015 ‘Warmest Year on Record’ – Except Earth’s Lower Atmosphere.” CNSNews. http://www.cnsnews.com/news/article/barbara-hollingsworth/nasanoaa-2015-warmest-year-record-except-earths-lower-atmosphere

[38] Goddard Institute for Space Studies. Retrieved on January 23, 2016. “GISS Surface temperature Analysis.” NOAA. http://data.giss.nasa.gov/gistemp/graphs_v3/

[39] Thomas R. Karl, et al. June 26, 2015. ”Possible artifacts of data biases in the recent global surface warming hiatus.” Science, Vol. 348, Issue 6242. http://science.sciencemag.org/content/sci/348/6242/1469.full.pdf

[40] Ronald Bailey. January 15, 2016. “Global Temperature Trend Propaganda Video: Who Needs Pier Review?” Reason.com. http://reason.com/blog/2016/01/15/global-temperature-trend-propaganda-vide

[41] Satellite and Information Service. January 17, 2016. “Jason-3 Officially Reaches Orbit!” NOAA. http://www.nesdis.noaa.gov/jason-3/

[42] Jeff Dunetz. October 28, 2015. “Why Is NOAA Hiding its Climate Data from Congress?” The Lid. http://lidblog.com/why-is-noaa-hiding-its-climate-data-from-congress/#

[43] Judicial Watch. December 22, 2015. “Judicial Watch Sues for Documents Withheld From Congress in New Climate Data Scandal.” Judicial Watch. http://www.judicialwatch.org/press-room/press-releases/judicial-watch-sues-for-documents-withheld-from-congress-in-new-climate-data-scandal/

[44] Michael Asher. August 7, 2007. “New Scandal Erupts over NOAA Climate Data.” Daily Tech. http://www.dailytech.com/New+Scandal+Erupts+over+NOAA+Climate+Data/article8347.htm




Globale Erwärmung ? Die Antarktis kühlt dramatisch ab. Und die Arktis folgt.

Damit wird stets die Geschichte vom harten Schicksal der Eisbären in der Arktis verbunden, die angeblich bald keine Eisschollen mehr vorfinden, auf denen sie leben und jagen können.

Was die Presse nicht berichtet, ist die in Ermangelung von verlässlichen Daten über die Eisbärenpopulationen unklare Situation, die eine Bewertung schwierig macht. Die bedeutende Internationale Union for Conservation of Nature IUCN hat 2014 folgende Zahlen festgestellt: Von den 19 Eisbären-Populationen mit insgesamt ca. 26.000 Tieren sind

·      3 abnehmend,

·      6 stabil,

·      1 zunehmend,

·      und für 9 Populationen gibt es unzureichende Daten.

Die genauesten Daten stammen aus Kanada; in der Russland zugewandten Seite der Arktis leben die Populationen, über die man zu wenig weiß.

Unstrittig ist, dass eine dauerhafte Verringerung der Meereisfläche die Lebensbedingungen der Eisbären verschlechtern würde; ein weiterhin bestehendes Problem ist jedoch auch die Jagd. Was ebenfalls nicht allgemein bekannt ist: Heute leben eindeutig mehr Eisbären als vor 50 Jahren.

Die Entwicklung in der Arktis

Betrachtet man die Entwicklung der Meereisfläche am Nordpol, dann ist eine stetige Abnahme seit dem Beginn der Satellitenmessungen festzustellen, wie es die Abb. 1 zeigt.

(Lit.1).

Abb. 1 (siehe oben rechts): Mittlere monatliche Meereisfläche der Arktis, jeweils für Januar, von 1979 bis 2016.  Blaue Linie: Mittelwert. Die rote Linie wurde von G.Keil eingefügt; sie gibt den Mittelwert der Veränderungen seit 2005 an. Der Januar 2016 zeigte einen erneuten Rückgang; dies führen die NSIDC-Experten auf das El Niño-Ereignis in der 2. Jahreshälfte von 2015 zurück.

Quelle: National Snow and Ice Data Center NSIDC, Univ. of Colorado (Lit.1)

Die Kurve vermittelt den Eindruck, dass diese Entwicklung anscheinend auch künftig so weiter gehen wird. Betrachtet man jedoch das rechte Ende der Kurve, dann wird deutlich, dass eine schlichte Verlängerung der seit 1979 fallenden blauen Mittelwertlinie über 2006 hinaus nicht zwingend ist; vielmehr zeigt sich, dass sich die mittlere Meereisfläche der Arktis in den letzten 10  Jahren nicht mehr verringert hat. Dies kann man durch die eingezeichnete rote Linie darstellen. Der gegenüber 2015 Anfang 2016 eingetretene Rückgang der Eisfläche wird von den Wissenschaftlern auf das in längeren Zeitabständen (zuletzt 1998) eintretende El Niño-Klimaphänomen im östlichen Pazifik zurückgeführt, das weltweit einen kurzen Erwärmungsschub bewirkt. Nach El Niño folgt in wenigen Jahren das wieder mit einer Abkühlung verbundene, ebenfalls natürliche La Niña-Ereignis.

Macht sich auch hier – wie in der Antarktis (s.u.) – der Stopp der globalen Erwärmung bemerkbar ? Erst die Daten der Folgejahre werden diese Frage beantworten; aber die NSIDC-Wissenschaftler verweisen auf eigene Beobachtungen und eine interessante Prognose dazu:

„Bis in die 90er Jahre zeigen die Beobachtungen einen Anstieg in dem Tempo des Eisverlustes im nordatlantischen Sektor der Arktis, dem eine Verlangsamung in den letzten Jahren folgte. Der beobachtete Trend über die Periode 2005 bis 2015 ist tatsächlich positiv (eine Tendenz zu mehr Eis). In einer neuen Veröffentlichung in den Geophysical Research Letters zeigen  Wissenschaftler des National Centre for Atmospheric Research NCAR, dass ihr Community Earth System Model CESM in der Lage ist, diesen Zeitraum des winterlichen Eis-Wachstums im Nordatlantik vorherzusagen. Diese Studie sagt voraus, dass in naher Zukunft das Meereis in diesem Teil der Arktis wahrscheinlich stabil bleibt oder sogar anwächst.“ (Zitat Ende). 

Damit bestätigt sich die sich aus dem jüngsten Teil der Kurve von Abb. 1 ergebende Vermutung, dass es in der Arktis bereits einen Stopp des Meereis-Rückganges gibt und die Voraussagen des NSIDC und des NCAR besagen, dass dieser Stopp anhalten und evtl. wieder in eine Zunahme übergehen wird.

Es ist somit zu erwarten, dass den Klimawarnern, die von dem Verschwinden des arktischen Meereises ausgehen, die Argumente abhandenkommen. Hinzu kommt dann die längst gegenteilige Entwicklung in der Antarktis (siehe unten), die nach jahrzehntelanger Stabilität nun schon seit Jahren eine Abkühlung des Ozeans und eine deutliche Zunahme des Meereises zeigt. 

Die Entwicklung in der Antarktis

Dass man in den Medien von der Entwicklung am Südpol, also der Antarktis, nichts liest und hört, liegt daran, dass sich daraus schon seit mehreren Jahren keine Paniknachrichten über die globale Erwärmung ableiten lassen. Ganz im Gegenteil, wie die Meereis-Daten zeigen. (Die Eisfläche des antarktischen Festlandes ist und bleibt konstant und wird daher in den Betrachtungen der gesamten antarktischen Eisfläche nicht berücksichtigt).

In der folgenden Abbildung 2 werden die Daten der Meereisfläche und der Ozeantemperatur der Antarktis zusammengeführt, um die Korrelation der beiden Kurven aufzuzeigen. Die Daten stammen vom Koninklijk Nederlands Meteorologisch Instituut (KNMI), das zum Ministerium für Infrastruktur und Umwelt gehört. (Lit.3).

 

Abb.2: Jährlich gemittelte Ozeantemperatur in Grad Celsius (blau; rechte Skala) und Veränderungen der Meereisfläche auf der südlichen Halbkugel SH (rot; linke Skala; Satellitenmessungen)  Bei der Eisfläche sind die Abweichungen vom langjährigen Mittelwert 11 Millionen qkm (Null-Linie) dargestellt. Eine Meeresfläche wird als Eisfläche bezeichnet, wenn sie zu mindestens 15% vom Eis bedeckt ist. Zur Verdeutlichung der Korrelation zwischen den beiden Kurven ist die Meerestemperatur „invertiert“ dargestellt, also nach oben abnehmend.                                                                                                                        

Grafik vom NSIDC auf der Grundlage der Daten vom KNMI. (Lit. 2 und 3).

Man sieht, dass die durch Satelliten gemessene Meereisfläche seit 1978 bis 1992 annähernd konstant bleibt – der Anstieg der Globaltemperatur hat am Südpol offenbar keine Wirkung. Ab 1992 beginnt sogar ein Anstieg der Eisfläche, der ab 2003 deutlich zunimmt und schließlich ab 2012 in einen dramatischen Zuwachs übergeht und für 2015 einen Rekordwert erreicht. Dass dies mit der fallenden Ozeantemperatur zusammenhängt ist logisch – und wird auch durch die gute Korrelation mit der Veränderung der Eisfläche bestätigt.

Ed Caryl schreibt dazu, dass der südliche Ozean ähnliche Erwärmungs- und Abkühlungs-Zyklen aufweist wie der Nordatlantik – nur nicht so ausgeprägt. Dieser Zyklus wird jetzt negativ und die Temperaturen an Land und im Meer gehen scharf nach unten, während das Eis anwächst.

Es gibt nun kein warmes Meerwasser, das die Eisfläche von unten zum Abschmelzen bringen kann. Der Ozean kühlt sich ab und befindet sich die meiste Zeit unterhalb des Gefrierpunktes.

Es ist nicht weiter verwunderlich, dass diese Entwicklung den Vertretern der Klimakatastrophen-Theorie nicht gefällt und in den Medien keine Erwähnung fand. 

Quellen:

Lit. 1: National Snow & Ice Data Center (NSIDC), “Arctic Sea Ice News & Analyses”, 4.2.2016, https://nsidc.org/arcticseaicenews/ 

Lit. 2: Ed Caryl: South Polar Ice Age: Stations Show “Dramatic” Antarctic Peninsula Cooling Since 1998, Sea Ice Surge”, NoTricksZone, 8.7.2015,  www.notrickszone.com/wp-content/uploads/2015/07/sea-temp-60-75oS.jpg

Lit. 3: KNMI (NL) Climate Explorer, Time Series, 23.1.2016,

www.climexp.knmi.nl/getindices.cgi?WMO=NSIDCData/S_ice_extent&station=SH_seaice_extent  




Klimamodelle simulieren NICHT das Klima der Erde

Einführung

Die vom IPCC verwendeten Klimamodelle simulieren das Klima nicht so, wie es auf der Erde besteht. Diese Realität der Klimamodelle wird wahrscheinlich für viele Laien in punkto Klima überraschend sein.

Im ersten Teil dieser Reihe zeigten wir, wie die räumliche Verteilung der modellierten Erwärmungsraten der Oberflächen der globalen Ozeane von 1982 bis 2015 (also der Ära mit satellitengestützten Temperaturmessungen) keine Ähnlichkeiten aufweist mit der räumlichen Verteilung der gemessenen, auf Daten basierenden Erwärmung und Abkühlung. Und wir haben besprochen, warum es wichtig ist, dass die vom IPCC verwendeten Modelle in der Lage sind zu simulieren, wann und wo und warum die Temperaturen der Ozeanoberflächen variieren. Das ist relativ leicht zu verstehen. Wo und wann sich die Oberflächen der Ozeane erwärmen, nicht erwärmen oder sich gar aus natürlichen abkühlen und um welchen Betrag – zusammen mit anderen natürlich auftretenden Faktoren – diktiert, wo und wann Landtemperaturen steigen und fallen und wo der Niederschlag zunimmt oder abnimmt – auf jährlicher dekadischer oder multidekadischer Grundlage.

In diesem Teil zeigen wir die Vergleiche zwischen Modellen und Daten in Gestalt von Zeitreihen-Graphiken global und für eine Anzahl von Regionen. Wie schon erwähnt handelt es sich dabei um Darstellungen in absoluter Form anstatt von Anomalien. Damit sollen Additionsprobleme der Modelle illustriert werden.

Warum absolute Temperaturen?

Die tatsächlichen Temperaturen der Ozeanoberfläche bestimmen zusammen mit zahlreichen anderen Faktoren, wie viel Feuchtigkeit aus den Ozeanen verdunstet und daraus folgend, wie viel Feuchtigkeit sich in der Atmosphäre befindet … was die Feuchtevariable (1) für Niederschlag, (2) für den auf Wasserdampf bezogenen Treibhauseffekt und (3) für die negativen Rückkopplungen durch die Wolkenbedeckung diktiert. Mit anderen Worten, die Meeresoberflächen-Temperaturen nicht angemessen zu simulieren bedeutet, dass auch die atmosphärischen Komponenten der gekoppelten Ozean-Atmosphäre-Modelle nicht stimmen können.

Einleitende Information

Der in diesem Beitrag verwendete Datensatz der Ozean-Oberflächentemperatur [sea surface temperature] ist die wöchentliche und monatliche Version von NOAA’s Optimum Interpolation (OI) Sea Surface Temperature (SST) v2 (a.k.a. Reynolds OI.v2). Wir verwenden ihn, weil (1) es der längste verfügbare Datensatz mit satellitengestützten Wasseroberflächen-Temperaturen ist, (2) weil dessen Satellitendaten bias-adjustiert sind auf der Grundlage von Temperaturmessungen von in Schiffe einströmendem Kühlwasser und von Bojen (sowohl treibend als auch fest) und (3) – und das ist am wichtigsten – weil die NOAA-Reynolds OI.v2-Daten „eine gute Schätzung der Wahrheit“ genannt worden sind. Siehe hier. Die Autoren stellten hinsichtlich der Reynolds OI.v2-Daten fest (Hervorhebung von mir):

Obwohl die NOAA OI-Analyse einiges Rauschen enthält infolge deren Verwendung unterschiedlicher Datentypen und Bias-Korrekturen für Satellitendaten, wird sie von den Satellitendaten dominiert und zeigt eine gute Schätzung der Wahrheit.

Dies ist nicht die (übermäßig aufgeblähte und eine extrem hohe Erwärmungsrate zeigende) hoch aufgelöste tägliche Version der NOAA’s Reynolds OI.v2-Daten, welche wir illustriert und diskutiert haben in dem Beitrag mit dem Titel [übersetzt] „Über die monumentalen Differenzen zwischen den Datensätzen der globalen Meeresoberflächentemperatur während der von der NOAA herausgepickten Stillstandsperiode der globalen Erwärmung von 2000 bis 2014“ (hier). Auf der Grundlage jenes Beitrags verwenden wir auch nicht die den „Stillstand zerschlagenden“ [pause buster] Daten von NOAA ERSST.v4, aus welchen der Ozean-Anteil der von NOAA und GISS kombinierten Temperaturprodukte von Land + Wasser besteht. Die NOAA hat die zahlreichen Parameter in ihrem ERSST.v4-Modell adjustiert, so dass die Erwärmungsraten für die von der NOAA gewählten Zeiträume von 1951 bis 2012 und 2000 bis 2014 am extremen oberen Rand der Unsicherheits-Bandbreite für jene Perioden liegen. Und wie wir in jenem Beitrag gezeigt und illustriert haben, weist die originale Version (wöchentlich, monatlich, auf 1°C aufgelöst) der Reynolds OI.v2-Daten, die wir hier zeigen, im Wesentlichen die gleiche Erwärmungsrate auf wie die UKMO HADSST3-Daten der von der NOAA gewählten Stillstandsperiode von 2000 bis 2014.

Die in diesem Beitrag präsentierten Klimamodelle sind diejenigen, die im CMIP5-Archiv gespeichert sind, welcher vom IPCC für dessen 5.Zustandsbericht verwendet worden ist. Die CMIP5-Klimamodell-Ergebnisse der Wasseroberflächentemperatur sind verfügbar über den KNMI Climate Explorer, spezifiziert auf dieser Website unter der Überschrift Ocean, ice and upper air variables. Die Wasseroberflächentemperatur wird als TOS bezeichnet. Um mit vorherigen Beiträgen konsistent zu sein werden das „CMIP5-Mittel“ und das Historic/RCP6.0-Szenario verwendet. Das RCP6.0-Szenario liegt A1B am nächsten, welches in den CMIP3-Modellen verwendet wurde (also für den 4. IPCC-Zustandsbericht). Und wieder benutzen wir das Modellmittel, weil es die erzwungene Komponente der Klimamodelle repräsentiert. Im Wesentlichen repräsentiert das Modellmittel den Konsens der das Klima modellierenden Gruppen darüber, wie sich die Oberflächen der Ozeane erwärmen sollten, falls sie durch anthropogene Treibhausgase und die anderen in den Modellen verwendeten Treiberfaktoren in den Modellen getrieben werden würden. Für weitere Diskussionen siehe hier.

Weil die Vergleiche zwischen Modell und Daten absolut vorgenommen werden, werden jährliche Daten gezeigt. Die Reynolds OI.v2-Daten beginnen im November 1981, so dass sich die Vergleiche über 34 Jahre erstrecken, von 1982 bis 2015.

Die in die Graphiken eingezeichneten linearen Trends wurden mittels EXCEL berechnet (hier).

Globale Zeitreihen

Abbildung 1 zeigt zwei Modelle-Daten-Vergleiche der Oberflächentemperaturen während der Satellitenära, keine Anomalien. Die obere Graphik für die Breiten zwischen 90N und 90S umfasst auch die polaren Ozeane. Die untere Graphik zeigt den Bereich zwischen 60N und 60S, also ohne die polaren Ozeane. Es macht kaum einen Unterschied, ob wir die polaren Ozeane in diesen Modelle-Daten-Vergleich einbeziehen oder nicht. Die Disparität zwischen den Modellen und den Daten ist ohne die polaren Ozeane etwas größer, aber unter dem Strich zeigen die Modelle zu viel Erwärmung.

Abbildung 1

Die Differenzen zwischen Modellen und Daten auf globaler Basis beleuchten ein sehr grundlegendes Problem mit den Modellen. Die Modellierer müssen sich allein auf anthropogene Treibhausgase und andere anthropogene Faktoren konzentrieren, um die Klimamodelle zu treiben, weil die Klimamodelle Timing, Größenordnung und Dauer natürlich auftretender Prozesse nicht angemessen simulieren, die zur Erwärmung der Ozeanoberfläche führen können. Auf der Grundlage jener Modelle (die keinerlei Bezug zur realen Welt haben), wurde erwartet, dass sich die Oberflächen der Ozeane grob mit einer Raten von 0,17°C pro Dekade während der letzten 34 Jahre erwärmt haben müssten. Aber in der realen Welt zeigten sich beobachtete Erwärmungsraten infolge der Kombination der natürlichen Variabilität und Treibhausgasen von lediglich 0,10°C pro Dekade. Das ist eine monumentale Differenz zwischen Hypothese und Realität.

Ein weiteres Faktum muss berücksichtigt werden: Die Daten existierten, während die Modellierer ihre Klimamodelle für das CMIP5-Archiv vorbereitet haben. Mit anderen Worten, die Modellierer kannten ihre Ziele. Und das beste, was die Modellierer tun konnten war, die Erwärmungsrate der Oberfläche der globalen Ozeane fast zu verdoppeln. Das ist eine grauenhafte Modellierungsmaßnahme … selbst mit der jüngsten leichten Erwärmung primär durch The Blob und durch den El Nino 2015/2016.

Man beachte auch, dass von Klimamodellen simulierten Ozeanoberflächen etwas wärmer sind als beobachtet. Für den Bereich zwischen 60N und 60S liegen die mittleren simulierten Temperaturen der Ozeanoberfläche im Zeitraum 1982 bis 2015 um etwa 0,2°C höher als beobachtet. Vielleicht ist das der Grund, warum die Modelle global zu viel Niederschlag simulieren. Siehe Abbildung 2, was in meinem E-Buch On Global Warming and the Illusion of Control die Abbildung Intro-10 ist.

Abbildung 2

Tropische Wasseroberflächen-Temperaturen

Die Modelle überschätzten die Erwärmung der Wasseroberflächen-Temperaturen der tropischen Ozeane (24N bis 24S) während der letzten 34 Jahre … keine Überraschung. Überraschend ist, wie ähnlich die modellierten und die beobachteten Wasseroberflächen-Temperaturen in den Tropen sind. Siehe Abbildung 3. In den tropischen Ozeanen liegt die mittlere simulierte Wasseroberflächentemperatur im Zeitraum 1982 bis 2015 um lediglich etwa 0,02°C über den beobachteten Werten.

Abbildung 3

Während die absoluten Temperaturen sich ziemlich ähnlich sind, haben die Modelle die Erwärmung drastisch überschätzt. Den Daten zufolge hat sich die Oberfläche der tropischen Ozeane mit einer nicht gerade alarmierenden Rate von +0,08°C erwärmt. Die Modelle hingegen zeigen, dass sie sich im Falle der Erwärmung durch anthropogene Treibhausgase um etwa +0,19°C erwärmt haben müssten. Jetzt berücksichtige man, dass die tropischen Ozeane (24N bis 24S) 76% der Tropen und 46% der globalen Ozeane ausmachen.

Diese Disparität zwischen Modellen und Daten stützt die Vergleiche zwischen Modellen und Daten bzgl. der tropischen mittleren Troposphäre von John Christy im Juni 2013. Siehe die Beiträge von Roy Spencer dazu hier und hier. Die Modelle haben die Erwärmungsraten der mittleren Troposphäre über den Tropen gewaltig übertrieben.

Kommen wir zu den tropischen Ozeanen. Wie Abbildung 4 zeigt, beträgt die Differenz zwischen den simulierten und den beobachteten Erwärmungsraten für die tropischen Seegebiete des Atlantischen und des Indischen Ozeans (24S bis 24N; 80W bis 120E) etwa 0,08°C pro Dekade, wobei natürlich die Modelle zu viel Erwärmung zeigen.

Abbildung 4

Im tropischen Pazifik (24S bis 24N; 120E bis 80W) zeigen die Modelle sogar eine Erwärmung mit einer Rate, die fast 0,14°C über der beobachteten Rate liegt (siehe Abbildung 5).

Abbildung 5

El Nino- und La Nina-Ereignisse wirken sich im östlichen tropischen Pazifik am stärksten aus. Während eines El Nino fließt warmes Oberflächen- und oberflächennahes Wasser entlang des Äquators in den tropischen Ostpazifik, wobei das oberflächennahe Wasser, wärmer als normal, an die Oberfläche aufquillt. Während einer neutralen ENSO-Phase (weder El Nino noch La Nina) und während La Nina-Ereignissen quillt kühles Wasser unter der Oberfläche nach oben. Offensichtlich haben die Klimamodellierer nicht einmal ansatzweise Aspekte des tropischen Pazifiks erfasst. Während es den Daten zufolge im östlichen tropischen Pazifik (24N bis 24S; 180W bis 80W) während der letzten Jahre keine Erwärmung der Oberfläche gegeben hat, zeigt der Konsens der Modelle, dass die Oberfläche sich mit einer Rate von 0,18°C erwärmt haben sollte. Siehe Abbildung 6.

Abbildung 6

Außertropische Wasseroberflächen-Temperaturen

Für die außertropischen Ozeane der Südhemisphäre (90S bis 24S), Abbildung 7, ist die beobachtete Erwärmungsrate ebenfalls mit etwa 0,06°C pro Dekade extrem niedrig. Andererseits zeigen die Klimamodelle, dass sich die Ozeane mit einer fast doppelt so hohen Rate, nämlich 0,12°C pro Dekade erwärmt haben müssten, falls anthropogene Treibhausgase für die Erwärmung in dieser Region verantwortlich wären. Jetzt führe man sich vor Augen, dass die außertropischen Ozeane der Südhemisphäre etwa 33% der globalen Ozeane ausmachen (etwa 23% der gesamten Planetenoberfläche).

Abbildung 7

Andererseits scheinen die Klimamodelle die Erwärmungsrate der Wasseroberflächen ziemlich richtig gezeigt haben im kleinsten Teil der globalen Ozeane, nämlich in den außertropischen Ozeanen der Nordhemisphäre (24N bis 90N). Siehe Abbildung 8. Die außertropischen Ozeane der Nordhemisphäre machen lediglich 21% der globalen Ozeanoberfläche aus (etwa 15% der gesamten Planetenoberfläche).

Abbildung 8

Unglücklicherweise für die Modellierer haben die Modelle die Erwärmung der Oberfläche des außertropischen Nordatlantik (Abbildung 9) unter- und die Erwärmung im außertropischen Nordpazifik überschätzt (Abbildung 10), so dass sie die Erwärmung insgesamt der außertropischen Nordhemisphäre unrichtig dargestellt haben. Keine Überraschung.

Abbildung 9

———————————————-

Abbildung 10

Jetzt beachte man die Ähnlichkeiten zwischen den modellierten und den beobachteten Oberflächentemperaturen (nicht Trends) der tropischen Ozeane (Abbildung 9). Die mittlere beobachtete tropische Wasseroberflächentemperatur für den Zeitraum 1982 bis 2015 liegt nur um 0,02°C unter den Modellwerten. Dann ist da noch die Differenz zwischen den Modellen und den Beobachtungen in den außertropischen Regionen der Südhemisphäre (Abbildung 7) und der Nordhemisphäre (Abbildung 8). Für den Zeitraum 1982 bis 2015 liegen die modellierten Wasseroberflächentemperaturen der Südhemisphäre um etwa 0,8°C über den beobachteten Werten. Auf der Nordhemisphäre beträgt dieser Unterschied +0,4°C. All dies sind weitere Hinweise darauf, dass die ozeanischen Zirkulationen in den Klimamodellen falsch abgebildet sind.

Diese Disparitäten in absoluten Temperaturwerten können helfen zu erklären, warum die Klimamodellierer nicht den Meereisverlust der Nordhemisphäre und den Meereiszuwachs der Südhemisphäre erklären können. Siehe die Abbildungen 11 und 12, in welchen das modellierte und das beobachtete Gebiet mit Meereis in der Nord- und Südhemisphäre verglichen wird. Hierbei handelt es sich um die Abbildungen Intro-8 und Intro-9 in einem E-Book On Global Warming and the Illusion of Control.

———————————————-

Abbildung 12

Individuelle Ozeanbecken

Jetzt folgen vergleiche Modelle vs. Daten für die individuellen Ozeanbecken … ohne Kommentar:

Abbildung 13

———————————————-

Abbildung 14

———————————————-

Abbildung 15

———————————————-

Abbildung 16

———————————————-

Abbildung 17

———————————————-

Abbildung 18

———————————————-

Abbildung 19

———————————————-

Abbildung 20

———————————————-

Abbildung 21

Atlantische multidekadische Oszillation

Die Atlantische Multidekadische Oszillation wird oft beschrieben als die Variationen der Oberflächentemperaturen im Nordatlantik, die mit einer Periode von 50 bis 80 Jahren schwingen. In dieser Hinsicht wird diese AMO typischerweise mittels Trendbereinigung der langzeitlichen Wasseroberflächen-Temperaturanomalien des Nordatlantiks dargestellt. Das Argument gegen die Trendbereinigung lautet, dass sie nicht die „globale Erwärmung“ berücksichtigt.

Falls jemand mit der AMO nicht vertraut ist, siehe man bei der NOAA hier sowie die folgenden beiden Beiträge:

An Introduction To ENSO, AMO, and PDO — Part 2

Multidecadal Variations and Sea Surface Temperature Reconstructions

Über einige multidekadische Zeiträume erwärmt sich die Wasseroberfläche des Nordatlantiks schneller als die übrigen globalen Ozeane, und während anderer multidekadischer Perioden erwärmt sich die Wasseroberfläche langsamer als die übrigen globalen Ozeane und kann sich auch dramatisch abkühlen. Im längsten Teil des Zeitraumes von November 1981 bis Dezember 2014 befanden sich die Wasseroberflächentemperaturen des Nordatlantiks in einer ihrer natürlichen Erwärmungsphasen.

Wie früher schon erwähnt zählen die Daten aus dem Nordatlantik nicht für die Erwärmung der globalen Ozeane. Daher sind die zusätzlichen langzeitlichen Variationen der Wasseroberflächentemperaturen des Nordatlantiks eine bessere Darstellung der AMO, über jene der globalen Ozeane hinaus. Um das zu bewerkstelligen, haben Trenberth and Shea (2006) die globalen Wasseroberflächen-Temperaturanomalien (60S bis 60N) von den Wasseroberflächen-Temperaturanomalien des Nordatlantiks (0 bis 60N; 80W bis 0) subtrahiert. Dieses Verfahren trägt der zusätzlichen Variabilität der Daten aus dem Nordatlantik über die Variationen der globalen Daten hinaus Rechnung. Aber für diesen Beitrag fügen wir diesem Verfahren eine kleine Änderung zu. Wir präsentieren die Differenz zwischen den globalen Daten und denen aus dem Nordatlantik in absoluten Zahlen, nicht als Anomalien.

Trenberth und Shea (2006) arbeiteten mit HadISST-Daten. Darum verwendete ich jenen Datensatz für diese Diskussion in vorherigen Aktualisierungen. Siehe Abbildung 22. Sie ist Abbildung 25 aus diesem Beitrag. Sie zeigt die modellierten und beobachteten Differenzen zwischen den globalen Wasseroberflächentemperaturen und denen des Nordatlantiks, und zwar für den Zeitraum 1870 bis 2014, d. h. das Porträt der AMO nach Trenberth and Shea (2006).

Abbildung 22

Offensichtlich zeigen die Daten, dass es keine merklichen multidekadischen Variationen der Wasseroberflächentemperaturen des Nordatlantiks gibt, die über jene in den globalen Daten hinausgehen. Dies zeigt natürlich, dass die natürlichen Variationen der Oberflächentemperaturen des Nordatlantiks eine globale Erwärmung verstärken oder unterdrücken können. Oder wie es die NOAA am Ende ihrer Website zur AMO schreibt:

Im 20. Jahrhundert haben die Klimaschwingungen der AMO alternierend die globale Erwärmung kompensiert oder übertrieben, was die Gründe für globale Erwärmung schwieriger zu finden macht.

Unglücklicherweise zeigt das Modellmittel der Klimamodelle nicht jene zusätzliche Variabilität in den Wasseroberflächentemperaturen des Nordatlantiks. Dies zeigt, dass die AMO durch die Faktoren getrieben wird (primär anthropogene Treibhausgase), die die globale Erwärmung in den Klimamodellen erzeugen.

Wollen wir also jene Graphik mit Hilfe der Reynolds OI.v2-daten aktualisieren, was unsere Sichtweite auf die letzten 34 Jahre limitiert. Zunächst die Komponenten:

Abbildung 23

Die obere Graphik in Abbildung 23 zeigt die modellierten Wasseroberflächentemperaturen der globalen Ozeane (60S bis 60N) und des Nordatlantiks (0 bis 60N; 80W bis 0) für den Zeitraum 1982 bis 2015. Der modellierte Trend des Nordatlantiks ist der Erwärmungsrate der globalen Ozeane sehr ähnlich, beträgt doch die Differenz lediglich 0,02°C pro Dekade. Die untere Graphik zeigt die gemessenen Wasseroberflächentemperaturen des Nordatlantiks und global. Die Daten zeigen, dass die Erwärmungsrate des Nordatlantiks fast 0,1°C pro Dekade höher ist als der der globalen Ozeane.

Abbildung 24 enthält den Modell-Daten-Vergleich der AMO während der Satellitenära mittels des Verfahrens von Trenberth und Shea (2006), außer dass wir wieder mit absoluten Temperaturwerten arbeiten. Dem Modellmittel zufolge sollte sich die Wasseroberfläche des Nordatlantiks lediglich mit einer Rate erwärmt haben, die etwas höher liegt als die der globalen Ozeane. Aber die Daten zeigen, dass die Oberfläche des Nordatlantiks in der Lage ist, sich mit einer Rate zu erwärmen, die um fast 0,1°C höher ist als die der globalen Ozeane, ohne von den Faktoren getrieben zu werden, die die Modelle treiben (primär Treibhausgase).

Abbildung 24

Abbildung 24 zeigt noch ein anderes Problem: Die Differenz zwischen der Oberflächentemperatur des Nordatlantiks und der globalen Ozeane ist zu klein … was erneut darauf hinweist, dass die Ozean-Zirkulationen in den Modellen falsch dargestellt sind.

Schlussbemerkungen

Wir leben auf einem mit Ozeanen bedeckten Planeten. Man könnte denken, dass es eine der obersten Prioritäten der Klimamodellierer ist, die Prozesse zu simulieren, die dazu führen, dass die Wasseroberflächentemperaturen jährlich, dekadisch und multidekadisch variieren. Traurigerweise haben die Modellierer einen anderen Weg gewählt … sie haben sich entschlossen, Modelle eines Planeten zu erzeugen, der keinerlei Beziehung aufweist zu dem, auf dem wir leben.

Klimamodell-Simulationen der Wasseroberflächentemperaturen liegen weit von jeder Realität entfernt. Das heißt, sie modellieren einen virtuellen Planeten – einen Science-Fiction-Planeten – der keinerlei Ähnlichkeit mit der Erde aufweist. Spezifischer: die vom IPCC herangezogenen Klimamodelle simulieren nicht (1) die tatsächlichen Erwärmungs- und Abkühlungsraten der Ozeanoberfläche, (2) die räumliche Verteilung dieser Trends und (3) die absoluten Temperaturen. Es wäre nett, wenn die Klimamodellierungs-Agenturen versuchen würden, die Oberflächentemperaturen dieses Planeten zu simulieren, und nicht diejenigen irgendeines Phantasie-Planeten. Dann könnten ihre Modelle einen gewissen Wert haben. Derzeit jedenfalls dienen sie keinem Zweck … außer zu demonstrieren, wie schlecht sie das Klima der Erde simulieren.

Link: http://wattsupwiththat.com/2016/02/12/climate-models-are-not-simulating-earths-climate-part-2/

Übersetzt von Chris Frey EIKE




Wetter narrte am Rosenmontag den Wetterdienst

Von vorrangigem Interesse ist die Beantwortung der Frage, was hat sich beim Wetter abgespielt. Die Diskussion um die Absage vieler Umzüge entlang des Rheins erhitzt unverändert die Gemüter. War sie notwendig und wie wird sie begründet? Dies können nicht die Zug-Organisatoren beantworten, sondern nur der Deutsche Wetterdienst.  Er verbreitete am Sonntag um 18.30 Uhr die Meldung, dass „am Vormittag des Rosenmontag von Windstärken um 7 und 8 auszugehen sei. Danach, also ab Mittag, können sie sich auf 9 und gegen 15 Uhr sogar auf 10 steigern“. Solch eine präzise Vorhersage konnten die Veranstalter, in Mainz der MCV, nicht ignorieren und bliesen wehen Herzens den Rosenmontagszug ab.

Doch die Wetter-Wirklichkeit entsprach bei weitem nicht der Wetter-Vorhersage! Was aber bewegte den Deutschen  Wetterdienst zu einer selten detaillierten Prognose? Es ist wohl sein unbändiger Glaube an die „Unfehlbarkeit“ der numerischen Wettervorhersagemodelle, an den Computer als „das elektronische Superhirn der Meteorologen“ (Schwäbische Zeitung vom 7. Dezember 2013). Nach Aussagen des DWD sind genaue Prognosen bis zu sieben Tagen im Voraus möglich. Im Zeitraum von bis zu 36 Stunden liegt die Trefferquote bei 95 Prozent! Von Sonntag 18.30 bis Rosenmontag 14.30 Uhr liegen nur 20 Stunden.

Der DWD meldete schon aufgrund der Vorhersage eines amerikanischen Computers am 2. Februar, dass ein Tief nördlich von Neufundland aufgetaucht sei und Kurs nach Europa nehme, sich zum Orkantief entwickele und genau zum Höhepunkt des Karnevals am Rosenmontag über Deutschland eintreffen werde. Anfangs gehorchte das Tief den Prognosen des Computers. Es wurde auf den Namen „Ruzica“, Röschen, getauft. Das „Röschen“ entwickelte sich prächtig zum Orkan und lag am 7. Februar im Seegebiet zwischen Island und Irland. Seine Kaltfront verlief über England entlang des Null-Meridians über London und Paris quer durch  Frankreich bis zu den Pyrenäen. Sie zeigte keinerlei Besonderheiten. Doch ab hier schlug das Wetter dem Computer ein Schnippchen. Das Orkantief nahm nicht Kurs auf die Deutsche Bucht und wurde von der starken westlichen Höhenströmung gegen die norwegische Küste gedrückt, wo es gespalten wurde. 

Von diesem Zeitpunkt an war sicher, dass kein Orkantief mehr kommen würde. Aber auch entlang der Kaltfront zeigten sich, von Satellitenfotos am Faschingssonntag bestätigt, keinerlei Auffälligkeiten. Weder extremer Regen noch extreme Stürme wurden aus Frankreich gemeldet. Eine Verschlimmerung war nicht in Sicht, so dass die Züge hätten stattfinden können. Die Wetterlage war keinesfalls mit der am 25. und 26. Januar 1990 zu vergleichen, als das Sturmtief „Daria“ Rosenmontagsumzüge zum Abbruch zwang. Dennoch kam um 18.30 Uhr eine Orkanwarnung durch den Wetterdienst.

Das Wetter am Rosenmontag machte aber nicht das, was es hätte tun sollen. Bei Durchzug einer schwachen, der Kaltfront um etwa 4 Stunden voraus laufenden Warmfront am Vormittag fiel etwas Regen und der Wind frischte böig auf. Trotz Umzugsverbot in Mainz organisierte um 13 Uhr die Mainzer Ranzengarde, die „Mutter aller Garden“ von 1837, kurzerhand einen kleinen Gardesspaziergang zu der befreundeten Husarengarde. Dieser ging rund um den Dom, wobei zeitweise die Wolkendecke aufriss und die Sonne schien. Zu dieser Zeit wäre normalerweise der Zug durch Mainz gerollt. Hunderte von begeisterten Narren schlossen sich dem Spaziergang spontan an! Bei den vereinzelten Windböen flog kein Hut vom Kopf! Gegen 16.00 Uhr folgte dann der Durchzug der Kaltfront bei etwas stärkerem Regen und böigerem Wind, aber auch ohne schwere Sturm- oder Orkanböen der Stärke 10 Beaufort. In Köln, wo die Warnung des DWD ignoriert wurde, verlief bei aufgelockerter Bewölkung der Umzug reibungslos. In Düsseldorf war der Umzug abgesagt worden wegen des Orkans „Ruzica“, doch um das Rathaus, welch eine Narretei, stellte man bei Sonnenschein die Motivwagen auf, zum „belure“. Sie wurden nicht vom Winde verweht. 

Es ist nun interessant, wie der Wetterdienst über seine Meteorologen reagierte. Lars Kirchhübel verteidigte die Prognose. Dies tat auch Björn Alexander und meinte, Düsseldorf und Köln hätten nur Glück gehabt: „Köln sei durch die Eifel geschützt“, doch warum hat man das nicht vorher berücksichtigt und bringt es im Nachhinein als Ausrede? Und warum hatte Düsseldorf Glück? Carsten Schwanke (ARD) twitterte: „Die Absage von Düsseldorf  – für mich ein Rätsel“! Wenn aber Köln von der Eifel geschützt wird, warum dann Mainz nicht von Taunus, Hunsrück und Pfälzer Wald? Kennt man die Topographie des Mainzer Beckens bei der Wetterdienstzentrale in Offenbach am Main nicht? Deren Schutz reichte bis zum Frankfurter Flughafen, dessen Betrieb bis in den späten Nachmittag völlig normal verlief. Die witzigste Anmerkung lieferte Jörg Kachelmann. Er meinte, dass es neben den Orkanböen auch das „Risiko eines Tornados in Düsseldorf mit Toten“ hätte geben können. Da sprach der frühere „ARD-Wetterexperte“, aber kein diplomierter Meteorologe. 

Wenn ohne Angabe von Ort und Zeit der Wetterdienst in Deutschland eine einzige Böe von 101 km/h nennt und als Rechtfertigung seiner Orkanwarnung heranzieht, dann ist dies nur eine rein theoretische Rechtfertigung, denn Wettervorhersagen sollen, so sein Anspruch, konkret sein. Verbale Übertreibungen haben bei Wetterberichten nichts zu suchen. 3 Grad sind nicht „mild“, 15 Grad nicht „warm“, die Wolken haben „keinen Regen im Gepäck“ oder lassen Regen zurück. Auch das ewige Zensieren des Wetters samt seiner Benotung sind absolut unangebracht, weil das Wetter nicht uns Menschen gehorcht, sich auch nicht nach unseren Wünschen richtet. Wetterberichte sollen die Menschen sachlich neutral informieren, weder Angst noch Illusionen verbreiten. Maßlose Übertreibungen haben darin nichts zu suchen. Man kann sich auch, wie zu meiner Zeit üblich, für fehlerhafte Vorhersagen entschuldigen und ihr Zustandekommen erklären. Ein Computer hat keine eigene Intelligenz, er kann nicht irren. Aber dies können Menschen, die seine Ergebnisse ohne Abgleich mit der Wirklichkeit blind übernehmen und fortschreiben. 

Was soll nun gemacht werden? Sollen die Züge nachgeholt werden? Fastnacht ist an die Fastenzeit wie das Osterfest gebunden und kann nicht willkürlich verlegt werden. Der Karneval in Rio findet auch nicht im dortigen Winter statt, bei weniger Hitze und der Gefahr von Tropengewittern. Und wer kann garantieren, dass bei einem sommerlichen Termin nicht auch wieder eine Kaltfront mit Gewittern, die ja heute alle ein hohes Unwetterpotential „im Gepäck“ haben, mit Hagel und schweren Sturmböen, den Zug vereitelt? Man denke nur an den Rheinlandpfalztag 2012 in Ingelheim, bei dem der Festumzug am Sonntag, dem 3. Juni, total verregnet war und in Regenfluten versank.

Der Bürger wünscht sich wieder mehr Seriosität bei den Wetterberichten. Er weiß um die Wechselhaftigkeit wie Unbeständigkeit des Wetters. Sich adäquat sofort den aktuellen Gegebenheiten anzupassen und nicht „blind“ Warnungen auszusprechen, dafür ist der DWD da. Nicht ohne triftigen Grund werden alle drei Stunden neue Wetterkarten gezeichnet. Man muss beim Wetter immer mit Überraschungen rechnen. Die Verfallzeit von Vorhersagen kann verdammt kurz sein. Aber es hat den Eindruck, dass sich der Wetterdienst bei der Vorhersage des Klimas in 70 Jahren wohler fühlt als bei nicht einmal 24stündigen Vorhersagen, weil man diese sofort überprüfen und kritisieren kann.




Langfristiger Klimawandel: Was ist eine angemessene Datenmenge?

Die Irreführung basiert auf der falschen Hypothese, dass nur wenige Variable und Prozesse beim Klimawandel eine wichtige Rolle spielen und dass diese während jener 4,54 Milliarden Jahre konstant geblieben seien. Es begann mit der Hypothese der Solarkonstante, die Astronomen definieren als einen Stern mittlerer Variabilität. Die AGW-Befürworter haben es erfolgreich geschafft, die Aufmerksamkeit der Welt nur auf das CO2 zu lenken, welches gerade mal 0,04% aller atmosphärischen Gase ausmacht und deutlich zeitlich und räumlich variiert. Ich ziehe gerne den Vergleich, dass dies so ist, als ob man Charakter, Aufbau und Verhalten eines Menschen lediglich durch die Messung einer Warze am linken Arm festlegen kann. Tatsächlich schauen sie nur auf eine Zelle dieser Warze für ihre Berechnung.

Der Grad, bis zu dem Promoter der AGW-Hypothese des IPCC ablenken und täuschen wollen, wurde erneut in einem Artikel von Quang M. Nguyen unterstrichen. Nahezu sämtliche Aktivitäten der Promoter involvieren den Beweis, dass alles während des Zeitraumes instrumenteller Aufzeichnungen Rekorde bricht. Dies umfasst auch die Veränderung von Paläo-Aufzeichnungen, wie sie es bei dem ,Hockeyschläger‘ und mit der Adjustierung der Neigung des Gradienten in der instrumentellen Aufzeichnung gemacht haben. Wenn man die 120-jährige Periode instrumenteller Aufzeichnungen als repräsentativ für irgendwas ansieht, ist das lächerlich. In dem unsäglichen IPCC-Bericht 2001 erfuhren wir von Phil Jones, dass der Temperaturanstieg in den instrumentellen Aufzeichnungen, der zum Blatt des ,Hockeyschlägers‘ geworden war, 0,6°C betrug mit einer Fehler-Bandbreite von ±0.2°C oder ±33%. Aber das ist nur die Spitze des Eisbergs.

Zwei Hauptthemen der AGW-Behauptungen sind, dass die Temperaturänderung größer und schneller vor sich geht als zu irgendeiner Zeit in der Vergangenheit. Dies ist Unsinn, wie schon ein flüchtiger Blick auf jedwede längere Aufzeichnung zeigt. Falls das nicht der Fall ist, sind alle Maßnahmen, die zu einer Veränderung der Aufzeichnung führen sollen, unnötig. Sowohl der antarktische als auch der grönländische Eisbohrkern illustrieren das Ausmaß von Temperaturänderungen während kurzfristiger Zeiträume. Abbildung 1 zeigt eine modifizierte antarktische Eisbohrkern-Aufzeichnung.

Abbildung 1

Die gesamte Bandbreite der Temperatur beträgt etwa 12°C (-9°C bis +3°C). Die Variabilität ist dramatisch, selbst wenn man eine 70-jährige Glättung anwendet. Das Diagramm vergleicht die Spitzen-Temperaturwerte der gegenwärtigen Zwischeneiszeit mit jenen während der vier Zwischeneiszeiten zuvor. Der horizontale Maßstab auf der X-Achse ist zu klein, um die Periode mit instrumentellen Aufzeichnungen überhaupt zu erkennen.

Steve Goreham zeigt, wie gering dieser Abschnitt ist im folgenden Diagramm der letzten 10.000 Jahre (Abbildung 2):

Abbildung 2

Eine weitere Graphik zeigt den gleichen Zeitraum, das Optimum des Holozäns, in unterschiedlicher Form (Abbildung 3):

Abbildung 3

Die Bandbreite der Temperatur während dieses Zeitraumes beträgt etwa 3,75°C (von 28,75°C bis 32,5°C), liegt jedoch während des größten Teils der letzten 10.000 Jahre über der gegenwärtigen globalen mittleren Temperatur. Man verlege einfach gedanklich die 120 Jahre der instrumentellen Aufzeichnungen in irgendeinen Abschnitt der Graphik, und man erkennt, um wieviel es derzeit kühler ist als im größten Teil des Zeitraumes, und dass die Werte mitten innerhalb der natürlichen Variabilität liegen.

Das IPCC behauptet, dass der Strahlungsantrieb (RF) vor 1750 relativ stabil war. Seitdem, so behauptet es, gab es einen stetigen Anstieg hauptsächlich infolge der Hinzufügung von menschlichem CO2 (Abbildung 4). Die NOAA erklärt dazu:

Seit 1750 haben anthropogen verursachte Klimatreiber zugenommen, und deren Auswirkungen dominieren alle natürlichen Klimatreiber.

Abbildung 4

Die Behauptung lautet also, dass eine Zunahme des Strahlungsantriebs um 2,29 W/m² fast die gesamte Temperaturänderung seit 1750 erklärt. Man vergleiche diese Zunahme mit der Variation des RF von ein paar natürlichen Klimatreibern, die in den IPCC-Modellen gar nicht berücksichtigt werden. Wie zuverlässig sind diese Daten? Wie groß sind die Fehlerbandbreiten? Wir wissen, dass die Klimasensitivität, das ist der RF-Einfluss auf die Temperatur, signifikant abgenommen hat (Abbildung 5).Man beachte dass das IPCC einen Ausreißer in dieser Bandbreite von Schätzungen der Klimasensitivität ausmacht. Diese Schätzungen liegen innerhalb oder sehr nahe bei dem Fehler der Schätzung. Eine Definition des RF lautet:

Der Strahlungsantrieb durch eine Klimavariable ist eine Änderung der Energiebilanz zwischen einfallender Solarstrahlung und ausgehender thermischen IR-Strahlung, wenn diese Variable sich ändert und alle anderen Faktoren konstant gehalten werden.

Abbildung 5

Die Phrase „alle anderen Faktoren werden konstant gehalten“ wird traditionell abgedeckt durch den lateinischen Terminus ceteris paribus. Unglücklicherweise ist dies in der Realität niemals der Fall und kann niemals auf ein dynamisches System wie Klimawandel angewendet werden, kommen doch dabei nur bedeutungslose Ergebnisse zustande. Das ist genauso wie die Phrase ,rein akademisch‘, was bedeutet, dass es in der realen Welt keinerlei Relevanz hat. Die Neigung in Abbildung 5 zeigt einen Trend, der jene stützt, die argumentieren, dass CO2 keine Klimasensitivität besitzt. Unabhängig davon ist die Stärke der Sensitivität viel zu gering, um signifikant zu sein.

Das Problem sind die Schätzungen von nur einer Seite jenes Gleichgewichtes, die „einfallende Solarstrahlung“, die deutlich variiert. Abbildung 6 zeigt die Variation der geschätzten Einstrahlungswerte aus verschiedenen Computermodellen. In einer Studie aus dem Jahr 2005 mit dem Titel [übersetzt] „wie gut können wir die Einstrahlung an der Obergrenze der Atmosphäre TOA in der Strahlungs-Klimatologie und in den GCMs berechnen?“ schreibt Ehrhard Raschke:

Der in 20 Modellen des Atmospheric Model Intercomparison Project (AMIP-2) verwendete solare Antrieb wurde verglichen mit der gleichen Quantität, die für das ISCCP [?] berechnet worden ist, und die Klimatologie sollte zumindest in dieser Quantität übereinstimmen. Allerdings zeigt die Abbildung auf Seite 1 unten (Abbildung 6 in diesem Beitrag) eine große Nicht-Übereinstimmung.

Man kann darüber spekulieren, dass derartige unterschiedlichen meridionalen Profile des solaren Strahlungsantriebs an der TOA auch einen Einfluss auf die berechnete Verteilung der atmosphärischen Zirkulation haben sollte, vor allem, wenn Simulationen über Zeiträume von mehreren Jahrzehnten bis mehreren Jahrhunderten durchgeführt werden. Daher sollten damit in Verbindung stehende Projekte innerhalb des World Climate Research Program angemessene Schritte unternehmen, um systematische Diskrepanzen wie oben gezeigt zu vermeiden und deren mögliche Auswirkung auf die resultierenden Klima- und Zirkulationsänderungen zu schätzen“.

Abbildung 6

Die mittlere Variation ist am Äquator gering, aber in höheren Breiten merklich größer. Die Vermutung liegt nahe, dass ein Gesamtfehler von mindestens 5 W/m² anzunehmen, was die vom IPCC behauptete Sensitivität von CO2 mehr als überschreitet.

Eine größere Frage ist, welche das Klima treibende Variablen ignoriert worden sind, vor allem in den IPCC-Modellen. Dazu gibt es eine große Vielfalt von Antworten. Dabei gilt, dass der größte Teil der Variabilität und die Fehler bei den Schätzungen den behaupteten RF komplett ertränken.

Der Milankovitch-Effekt ist in den IPCC-Computermodellen nicht enthalten mit der Begründung, dass die Änderungen zu langsam erfolgen und zu gering sind, um in einem Zeitraum von 120 Jahren Auswirkungen zu zeigen.

Abbildung 7 zeigt die Variation des RF auf 40°N während eines Zeitraumes von 1 Million Jahren.

Abbildung 7

Willis Eschenbach untersuchte die Beziehung zwischen dem Verlauf der Einstrahlung und dem 100.000 Jahre langen Milankovitch-Zyklus. Er fand keinen Zusammenhang mit der Temperaturanomalie im EPICA-Eisbohrkern aus der Antarktis. Darum geht es mir hier nicht, sondern um die Schwingung der Einstrahlung von 100 W/m² im Vergleich zur IPCC-Behauptung von 2,29 W/m².

Eschenbach verglich Milankovitch mit Schwingungen zwischen Eiszeit und Zwischeneiszeit während des Pleistozäns. Viele Menschen wissen nicht, dass es vor dem Pleistozän mindestens vier Vereisungen gegeben hatte, zusammen mit Spekulationen über deren Ursache, jedoch ohne diesbezügliche Übereinstimmung. Die verbreitetste Spekulation involviert den Orbit der Sonne um das Zentrum der Milchstraße und Wechselwirkungen mit galaktischem Staub auf dieser Reise. Wie wirkt sich dies auf den RF aus?

Die Liste von Variablen und Prozessen, die verantwortlich sind für kurz- und langfristige Variationen des RF und weit über die behaupteten anthropogen 2,29 W/m² hinausgehen, ist extensiv. Lamb zeigte im 2. Band von Climate Present, Past and Future die hier mit Abbildung 8 bezeichnete Graphik:

Abbildung 8

Dann ist da noch die Wasserdampf-Frage. Jeder sagt, dass es bei weitem das wichtigste Treibhausgas ist, man streitet nur darüber, wie wichtig. Wasserdampf ist 95% und CO2 4% durch Volumen. Darum haben AGWler behauptet, dass CO2 „effektiver“ hinsichtlich seiner Fähigkeit war, ausgehende thermische Strahlung zu blockieren. Die große Bandbreite aller Schätzungen dieses Effektes ist ein Beweis, dass es niemand weiß. Schlimmer noch, es gibt einen Widerspruch zwischen der NASA-Behauptung und dem IPCC. In der Studie wollte die NASA zu beweisen versuchen, dass die Rückkopplung von Wasserdampf positiv ist und Konsequenzen hat.

Diese Studie bestätigt, dass das, was von den Modellen prophezeit worden ist, in der Atmosphäre tatsächlich passiert“, sagte Eric Fetzer, ein Atmosphärenwissenschaftler, der mit AIRS-Daten arbeitet, am Jet Propulsion Laboratory der NASA in Pasadena. „Wasserdampf ist der große Player in der Atmosphäre, soweit es das Klima betrifft“.

Also bestimmt die Zunahme des anthropogenen CO2 in der Atmosphäre die Menge atmosphärischen Wasserdampfes. Der IPCC-Bericht 2007 belehrte uns:

Wasserdampf ist das häufigste und wichtigste Treibhausgas in der Atmosphäre. Allerdings haben menschliche Aktivitäten nur einen geringen direkten Einfluss auf die Menge atmosphärischen Wasserdampfes“.

Es gibt kaum Zweifel daran, dass die Variation des atmosphärischen Wasserdampfes und der Fehler in den Schätzungen allein über die 2,29 W/m² hinausgeht, die dem menschlichen CO2 zugeordnet werden. Das gilt auch für die meisten Variablen, vor allem für jene, die das IPCC ausgelassen hat.

Es ist der Missbrauch der Wissenschaft, der die Irreführung erzeugt hat, die die AGW-Behauptung zu Ablenkung, Übertreibung und selektive Wahrheiten zwang. Aldous Huxley jedoch sagte mal: „Fakten sind durch Ignorieren nicht aus der Welt zu schaffen“. [Das habe ich auch gesagt, ohne von Huxley zu wissen, und zwar hier. Anm. d. Übers.]

Link: http://wattsupwiththat.com/2016/02/07/long-term-climate-change-what-is-a-reasonable-sample-size/

Übersetzt von Chris Frey EIKE




Leserbrief als Hilfestellung für die Berliner Umwelt-Politiker ?

================================================================  

Leserbrief – Betr.: Argumentationshilfe in Sachen Tempo-30-Zone

     Tempo-30-Zone:  Ein Traumreich  

     Die verordnete Geschwindigkeitsbegrenzung auf 30 km/h für die wichtige Ausfallstraße in Berlin-Weißensee, und zwar 900m der großen Bundesstraße 2 und Autobahnzubringer, solle die Schadstoffbelastung senken helfen. 

     Hier dazu eine einfache Milchmädchen-Gegenrechnung; denn rechnen wir einmal nach und gehen – der leichteren Verständlichkeit wegen – großzügig von 60 km/h aus und lassen mit 30 km/h die Kraftfahrzeuge 900 m lang nur noch halb so schnell fahren: Dadurch verdoppelt sich dort ihre Aufenthaltsdauer, verdoppelt sich ihre Anzahl auf gleicher Strecke, also verdichtet sich der Verkehr, und halbiert sich ihr gegenseitiger Wagenabstand. Für einen Anwohner dauert es doppelt so lang, bis ein Fahrzeug vorbeigefahren ist, wenn auch die Zeit zum Durchqueren der Fahrzeugkolonne dabei nur gleichbleibt. Der Treibstoffverbrauch und auch mittlere Ausstoß der unterschiedlichen Abgaskomponenten – insbesondere unter der Mitwirkung der Dieselfahrzeuge – beginnt mit dem langsameren Fahren im Mittel markant zu steigen, um so mehr bei aufkommendem Stau. Wieviel auch immer: im Schnitt nimmt das Gemisch der belastenden Schadstoffe zu!

Weiterhin geht bei der Einfahrt meist infolge Abbremsung Energie verloren; und bei der Ausfahrt wird bei der Wiederbeschleunigung neue Energie aufgewendet und so vermehrt Schadstoff emittiert. Auch nehmen bei größerem Verkehrsaufkommen die Stillstandanteile zu. Keine Streitfrage, sondern Faktum: Zusammengenommen erhöht sich zwangsweise die Schadstoff-Immission daher eindeutig! Da wo nicht, liegt es am überproportionalen Verzicht auf die Nutzung der Tempo-30-Straße durch deren Umfahrung.  

     "Verkehrsberuhigung"? Mag zumindest so empfunden sein. Abgasminderung? Gewiss nicht; vielmehr resultiert meist das Gegenteil! – Wer also mehr Verkehr und mehr Abgase haben will, braucht nur die Tempo-30-Zonen auszuweiten. So einfach ist das. 

     Die einzuhaltenden EG-Grenzwerte sind im ozeannäheren und damit windigeren Brüssel gesetzt worden. Im kontinentaleren und daher öfter viel windstilleren Berlin hat man sie rein bürokratisch übernommen, ohne vorher die Meteorologen zu fragen oder gar mitentscheiden zu lassen. Das haben wir nun davon und sitzen in der juristischen Falle. 

    Der tiefere Grund:  Das träumerische Ökobewusstsein wittert zeitgemäß Gefahren, lässt sich unbewusst von gesundheitlichen Placebo-Effekten aktivieren und bemüht jetzt erfolgreich den paragraphengebundenen Amtsschimmel. Dazu ließ das Gericht nicht einmal eine Berufung zu (VG 11 K 132.15)! – Es ist zum Wiehern!

=========================================================================

Auch nach über einem Monat (Stand 09.02.1016) wurde dieser Leserbrief jedoch nicht  abgedruckt, auch nicht auszugsweise. Wie ist das nun zu deuten? Sollten die Leser mit dem doch an vorderster Stelle heraushobenen Artikel warnend mit den weiter auf sie zukommenden Einschränkungen, Zumutungen und Unbequemlichkeiten aufgeschreckt werden? Oder frohlockt die Redaktion eher mit dem ökologischen Sieg des kleinen Mannes für eine bessere Welt? Im lezteren Falle würde der Leserbrief ja ungewünscht kontraproduktiv wirken. Und das darf natürlich nicht sein (?).

Das Nichterscheinenlassen des Leserbriefes läßt zwangsläufig auf die letztgenannte redaktionelle Einstellung schließen. Sollte eventuell im letzten Moment ein "grüner" Redakteur in seinem Sinne bremsend eingegriffen haben? Das würde dann nichts anderes als eine (umwelt)politische Meinungs-Manipulation bedeuteten.

*) Walter Fett; Apl. Prof. FU Berlin; bis 1990 Dir. u. Prof. am Inst. f. Wasser-, Boden- u. Lufthygiene des Bundesgesundheitsamts Berlin




Hunderte australischer Klimaforscher erhalten neue Aufgaben – oder werden entlassen – weil das Ergebnis ihrer Wissenschaft „entschieden“ sei.

Die Politiker ließen sich davon beeindrucken und sie besorgen seit Jahren das Geschäft der AGW-Fraktion, die ihr Zentrum in der politischen Organisation IPCC („Weltklimarat“) hat, die ihrerseits seit Jahren wegen ihrer einseitigen und manipulativen, als Wissenschaft ausgegebenen Klimapolitik in der Kritik steht. 

Die Pariser Klimakonferenz vom Herbst 2015 war das neueste und eindrucksvollste Beispiel für den Erfolg dieser wissenschaftlich eingekleideten politischen Propaganda.

                        „Science is settled; beyond debate“

war und ist das Motto. 

Der 4. Februar 2016 war nun der Tag, an dem sich diese Propaganda, die von einer wissenschaftlichen Grundlage und einer seriösen wissenschaftlichen Streitkultur meilenweit entfernt ist, gegen ihre Erfinder richtete.

An diesem Tage schickte der Leiter der australischen nationalen Wissenschafts-Agentur CSIRO (The Commonwealth Scientific and Industrial Research Organisation), Dr. Larry Marshall,  eine Email an seine Mitarbeiter, in der er eine massive Restrukturierung dieser Organisation ankündigte.

  • Zitat daraus:
  • „Das CSIRO hat die Klimaforschung angeführt. Aber wir können uns nicht auf unseren Lorbeeren ausruhen, weil das der Weg in die Mittelmäßigkeit ist. Unsere Klimamodelle sind unter den besten der Welt und unsere Messungen bestätigten diese Modelle, um den globalen Klimawandel zu beweisen. Diese Frage ist beantwortet.“

Marshall will künftig den Fokus aller Arbeiten und dementsprechend auch deren Finanzierung auf die Anpassung an das sich verändernde Klima und auf Maßnahmen zur Anpassung an den Klimawandel und die Abmilderung der Auswirkungen („adaption and mitigation“) richten und dazu die bisherigen Arbeiten zur Messung und Modellierung des Klimas weitgehend reduzieren.

Weil die Frage des Klimawandels ja nun wissenschaftlich geklärt sei, wie die Wissenschaftler selbst ständig feststellen – s.o. – sei eine Fortführung der Arbeiten zur Klärung dieser Frage unnötig – stattdessen müssten sich die Mitarbeiter um die Folgen des Klimawandels kümmern. Ob das die bisher mit Messen, Überwachen und Modellieren beschäftigten Forscher überhaupt können, würde sich zeigen. Entlassungen und Neueinstellungen wären dann unvermeidlich; einen Nettoverlust an Jobs werde es aber nicht geben.

Treffen wird das in erster Linie die Oceans and Atmosphere Division der CSIRO. 

Dr. Marshall fügte nach dem Bekanntwerden dieses Plans und nach dem Erhalt von zahlreichen Protestschreiben aus dem In- und Ausland – selbstverständlich auch vom IPCC – einige Bewertungen dieses Vorgangs hinzu:

  • Die Protestschreiben mit der Forderung, diese Veränderungen rückgängig zu machen,  hätten ihn nicht überzeugen können. „Damit das geschieht, müsste mich jemand davon überzeugen, dass Messen und Modellieren weitaus wichtiger sind als die Milderung der Folgen („mitigation“) – und auch keiner meiner Vorgesetzten glaubt das.“
  • „Es handelt sich mehr um einen Wechsel, eine neue Strategie und eine Richtungsänderung und nicht um das Klima – und es ist stets die menschliche Natur, eine Veränderung abzulehnen.“
  • „Wir werden durch diesen Veränderungsprozess gehen und herausfinden, wer sich verändern kann und wer nicht.“
  • „Ich komme mir vor wie die ersten Klimaforscher, als sie in den 70ern gegen die Erdöl-Lobby kämpften. Mir ist klar geworden, dass die Klima-Lobby möglicherweise mächtiger ist als es die Energie-Lobby in den 70ern war – und in der Klimapolitik scheinen sehr viele Emotionen in der Debatte zu sein.“
  • „Tatsächlich kommt es mir fast wie eine Religion anstatt einer Wissenschaft vor.“
  • „Einige extreme Elemente teilten mir mit, dass sie mich nun an die Spitze der Liste der Klimaleugner gesetzt haben. Was mich verblüfft, ist dass meine  Aussage, mehr Ressourcen in die Milderung und Anpassung umzuleiten – d.h. etwas zum Klimawandel zu tun im Gegensatz zu nur Messen und Modellieren – mich angeblich zum Klimaleugner macht.“
  • „Ich meine, dass der einzige Zweck der Messungen und der Modellierungen  und der ganze Zweck des Versuchs, den Klimawandel zu verstehen, darin besteht, herauszubekommen, was man dafür tun kann – und das ist es, wohin wir jetzt gehen.“
  • „Wir werden weiterhin unsere Messungen fortsetzen und auch die Modellierungen, aber es geht um die effektivste Art der Nutzung unserer Ressourcen. Wir  müssen das deshalb zurückfahren, um die Ressourcen auf die  Anpassung und Milderung neu auszurichten.“

Zu Marshalls großem Lob für die vom CSIRO entwickelten Klimamodelle muss leider gesagt werden, dass sie – wie auch alle übrigen, deren Zahl deutlich über 40 liegt – sämtlich nicht einmal imstande waren, auch nur die bisherige, exakt bekannte Entwicklung des Klimas auf diesem Planeten auch nur annähernd nachzubilden. Der Grund dafür liegt immer noch im Fehlen einer wissenschaftlich fundierten Kenntnis über ausschlaggebende Einflüsse auf das Klima – z.B. der Einfluss von Wolken, der Sonne  oder der Ozeane – und der sich daraus ergebenden Unmöglichkeit, diese fehlenden Kenntnisse in beschreibende Algorithmen in den Klimamodellen umzusetzen. Deshalb sind alle Klimamodelle unbrauchbar. Zu Projektionen der zukünftigen Klimaentwicklung sind sie daher erst recht nicht zu gebrauchen. Dennoch verwendet sie das IPCC für derartige Projektionen und leitet daraus Bewertungen und Forderungen an die Politik ab.

Experimente, die in der Wissenschaft die einzige anerkannte Möglichkeit zur Verifizierung oder Falsifizierung von Theorien darstellen – wie z.B. die Klärung der tatsächlichen Rolle des „Treibhausgases CO2 – hat es in der Klimaforschung nie gegeben. Alles wird aus den unbrauchbaren Modellen herausdestilliert.

Australiens Presse hat teilweise sehr ironisch Marshalls Ankündigung und insbesondere seine durchschlagende Begründung kommentiert.

Einige Beispiele:

Tim Blair (1) schrieb im Daily Telegraph unter der Überschrift „Die Klimaforschung ist abgeschlossen – außer, sie ist es nicht.“:

 „Während der letzten Dekade haben uns die CSIRO-Forscher – zusammen mit Alarmisten der Globalen Erwärmung überall – gesagt, dass die Wissenschaft entschieden (settled) ist, was den Klimawandel betrifft. Mit anderen Worten: Sie haben ihr Urteil gesprochen. Schwerer Fehler.“

Jake Sturmer von ABC News (2) setzt Marshalls Satz „Die Klimapolitik ist mehr eine Religion als eine Wissenschaft“ in den Titel seines Berichts.

Andrew Griffin schreibt im Independent-Titel, dass „Australien Hunderte Klimawandel-Wissenschaftler entlassen wird, weil es alles, was es braucht, über die Grundlagen der Wissenschaft zur Globalen Erwärmung gelernt hat“.

Und Willie Soon schreibt in seinem Blog auf Joanne Nova‘s Webseite (s.u.): „Die Widersprüche in der Propaganda beißen brutal zurück.“

Plötzlich ist alles keineswegs geklärt, sondern wieder vollkommen unklar

Die Reaktionen der AGW-Wissenschaftler auf die Entscheidung der CSIRO-Leitung hat Willie Soon auf der Webseite der Klimaforscherin Joanne Nova (Lit.3) ausgewertet. Diese Zusammenstellung zeigt das ganze Elend der AGW-Gemeinde, die sich leichtfertig vom seit Beginn jeglicher Wissenschaft üblichen Disput verabschiedet hat und zur Schande der Politik und der Presse die abenteuerliche Meinung verbreitet und durchgesetzt hat, dass wissenschaftliche Erkenntnisse „demokratisch“ durch eine Art von Abstimmung zur Wahrheit ernannt werden können.

Spätestens seit Galileo Galilei weiß man aber sehr genau, dass es in der Wissenschaft ausreicht, wenn ein Einzelner, der mit seiner Meinung gegen alle anderen steht, am Ende Recht behält und alle Übrigen widerlegt – wenn er seine Meinung durch ein wiederholbares Experiment beweisen kann. Die Wissenschaftsgeschichte ist voll mit solchen Beispielen.

Es ist ein unglaublicher Akt der Selbstzerstörung des Ansehens und jeglicher Glaubwürdigkeit der Klimawissenschaft, dass sich ein bedeutender Teil der Beteiligten dazu bereitfand, diesen Verstoß gegen die Grundlagen ihres Berufs zu unterstützen.

Jetzt beginnen die Potemkinschen Fassaden zu bröckeln. Der endgültige Einsturz wird vermutlich innerhalb der kommenden 10 Jahre erfolgen, wenn die von den Sonnenforschern schon lange angekündigte globale Abkühlung allen Erwärmungsprognosen ein unwiderrufliches Ende setzt und die AGW-Theorie als der größte Wissenschafts-Schwindel in sich zusammenfällt.

Die Reaktion der AGW-Gemeinde ist natürlich logisch. Man befürchtet eine Ausbreitung der australischen Umorientierung in andere Länder, wo gleichfalls Wissenschaftler mit Messungen und Modellierungen zum Klimathema beschäftigt sind.  Es geht um die Angst, dass auch ihren Politikern die Argumente des CSIRO-Chefs einleuchten. Es geht schlicht um‘s Geld.

Weil man das nicht zugeben kann, obwohl es jedermann weiß, müssen irgendwelche Argumente erfunden werden, die den Schritt von Dr. Marshall als falsch erscheinen lassen können. Das Dilemma ist natürlich riesengroß, denn Marshall hat das politisch höchst erfolgreiche Hauptargument der AGW-Lobby gegen sie selbst angewendet.

Willie Soon (3) hat dafür mehrere Beispiele vorgestellt:

– Prof.Penny Sackett, ein früherer australischer Chef-Wissenschaftler, erklärte: „Paris hat nicht bestimmt, ob der Klimawandel stattfindet oder ob nicht. Das taten Wissenschaftler, die Daten erzeugt und studiert haben. Die große Frage, die aller Klima-Anpassungsarbeit unterliegt,  ist jetzt: Wie verändert sich das Klima?

W. Soon kommentiert: „Also wissen wir angeblich nicht, wie sich das Klima ändert? Also Penny, wann haben Sie denn erwähnt, dass alle Vorhersagen zu Überschwemmungen, Dürren und furchtbaren Stürmen unsicher waren?“

– Prof. Will Steffen, ein Emeritus der ANU und Klimaberater beim Klimarat von Australien, gibt plötzlich zu, dass „wir“ die grundsätzliche Funktionsweise des Klimasystems nicht kennen. Er sagt: „Die Auswirkungen des Klimawandels werden bereits rund um Australien in einem zunehmenden Ausmaß bemerkt und mehr davon wird kommen. Wir müssen absolut mehr über das grundsätzliche Funktionieren (basic operation) des Klimasystems wissen – wie es sich verändert und wie wir am besten auf diese Herausforderung reagieren können.

– Plötzlich ist auch Prof. Steven Sherwood (UNSW) nicht so sicher, dass wir das Klima verstehen: „Larry Marshall hat gewiss einen Anlass, die Organisation zu verjüngen und sich neuen Herausforderungen zu stellen. Aber ich bedauere seine Erklärung, dass es keine weitere Notwendigkeit nach COP21 (anscheinend ein Klimaforschungsprogramm, G.K.) gibt, um den Klimawandel zu verstehen – nun, da wir wissen, er ist real.“

– Dr. Sarah Perkins-Kirkpatrick, Climate Change Research Centre UNSW (New South Wales) : „Während wir wissen, dass sich das Klima wegen menschlicher Aktivitäten ändert, haben wir diese Frage nach der Pariser Übereinkunft nicht einfach „beantwortet“ – viele weitere Fragen bleiben noch.

Die Forschung in irgendeinem Bereich stoppt nicht und kann nicht stoppen, nachdem eine scheinbare (!) (apparent) Frage beantwortet wurde. 

Weitere Stellungnahmen:

– John Church, Meeresspiegel-Experte, ein CSIRO-Klimaforscher, der befürchtet, seinen Job zu verlieren, sagte Nature News: „Die Klimaforschung ist nicht getan.“

– Todd Lane, Präsident der australischen Meteorologischen und Ozeanographischen Gesellschaft: „Die Klimaforschung ist nicht beendet (solved). Die meiste Ungewissheit in den Klimaprojektionen gibt es wegen der Ungewissheit über die Art und Weise, um physikalische Prozesse in Klimamodellen darzustellen.

(Auf einmal ! Ein vernichtendes Urteil über die Qualität der Klimamodelle !)

Der Journalist Tim Blair (s.u.) kommentiert diese plötzliche Lawine der Ungewissheit und des Nicht-Wissens mit den Worten: „So viel zur absoluten Gewissheit – dem angeblichen „Konsens“ – von denen wir bisher immer hörten. Der einzige Konsens unter den Wissenschaftlern besteht jetzt darin, dass die Finanzierung durch Steuerzahler wirklich cool ist und dass Klimaforscher viel davon haben möchten – für immer.

Nun, diese Tage sind vorbei. Die ökonomischen und politischen Prioritäten haben sich verschoben; in Australien und in der Welt. Der Klimawandel nahm ab als ein  Thema der öffentlichen Besorgnis seit dem Höhepunkt der Panik im Jahre 2006, als Al Gore’s unehrliche Dokumentation „An Inconvenient Truth“ erfolgreich war, indem sie Naive erschreckte.“

Ende der Zitate.

Mögliche nationale und internationale Konsequenzen des Vorgehens in der  CSIRO

Zunächst einmal hat der Schritt von Larry Marshall geradezu blitzlichtartig den zentralen Widerspruch der gesamten alarmistischen Klimapolitik offengelegt. Deren Glaubwürdigkeit wird erheblich erschüttert. Die Wirkung dürfte in vielen Ländern ein zunehmendes Desinteresse der Bürger an dem Thema sein.

Eine weitere Konsequenz ist der Vertrauensverlust, den die Wissenschaft erneut erleidet. Und das trifft nicht nur die Klimaforschung. In Deutschland hat die am Ende offen gelegte Lüge vom Waldsterben der gesamten, zu 99 Prozent daran unschuldigen Forstforschung auf Jahre hinaus schwer geschadet, insbesondere ihrem internationalen Ruf.

In Australien könnten weitere Maßnahmen gegen die AGW-Aktivitäten ergriffen werden, weil der jetzt bekannt gewordene Schritt in eine Reihe ähnlicher Aktionen der Regierung passt und offenbar auch von dieser abgesegnet war – siehe die Bemerkung von Dr. Marshall.

Ob es auch in anderen Ländern Folgen hat, ist schwer zu sagen. Zu den Ländern, die dafür in Frage kämen, zählt Indien, Großbritannien – und die USA, falls die Republikaner die Präsidentschaftswahl gewinnen.

Aber schon jetzt könnte sich die Stimmung in den USA weiter gegen die Klimapolitik Obamas verstärken. Es ist auch möglich, dass im Anschluss an eine verstärkte Anti-AGW-Klimapolitik in den USA die Volksrepublik China die Gelegenheit nutzt, um sich selbst weitgehend von allen ohnehin nur halbherzig angekündigten Aktivitäten zu verabschieden und seine ursprüngliche und faktisch niemals in Frage gestellte Energiepolitik – mit Schwerpunkten auf Kohle, Kernkraft und Shalegas – offen zu betreiben.

Das deutsche Bundesumweltministerium hingegen wird wohl kaum den Herren Schellnhuber und Latif eine ähnliche Mitteilung schicken, wie sie Dr. Marshall seinen Wissenschaftlern per Mail zukommen ließ. Aber der Schreck aus Down Under wird dennoch seine Wirkung nicht verfehlen: Jetzt wird etwas vorsichtiger formuliert.

Die Aussagen der zitierten Personen sind über die Webseite der GWPF (s.u.) und die dort angebotenen Links erreichbar.

Tim Blair : „Climate Science is settled, except when it’s not“, The Daily Telegraph (Australien), 11.2.2016, www.thegwpf.com/climate-science-is-settled-except-when-it’s-not/




Sind Festlands- und Ozean-Temperaturmittel von Bedeutung?

Temperaturen addieren sich nicht!

Technisch gesehen ist Temperatur keine extensive Quantität. Dies wird illustriert durch die Tatsache, dass wenn man einen Eimer Wasser mit einer Temperatur von 30°C hat und dem Wasser den Inhalt eines anderen Eimers von Wasser mit 30°C hinzufügt, man keine Wassertemperatur von 60°C bekommt.

Energie ist eine extensive Sache: Falls man ein Volumen Wasser mit einer thermischen Energie von 4000 Megajoule hat und ein gleich großes Volumen hinzufügt, wird man zweimal die thermische Energie haben. Die mittlere Energie pro Einheit kann verglichen werden mit dem Strahlungsenergie-Budget pro Einheit.

Das Verhältnis von Temperatur zu thermischer Energie ist nicht für alle Materialien gleich, sondern hoch variabel, abhängig von den physikalischen Eigenschaften der Substanz. Es hängt ebenso von der Menge einer Substanz ab, d. h. der Masse. In der Physik und der Materialwissenschaft ist es oft am bequemsten, die „spezifische Wärmekapazität“ zu studieren, das ist die Änderung des Energiegehalts pro Einheit der Masse pro Grad Temperaturänderung. Folglich ist es eine Eigenschaft für jede Art von Material, unabhängig von einem bestimmten Objekt.

Im internationalen Standard-System (S.I.) wird dies gemessen in joule / kilogram / kelvin oder J/kg/K . Kelvin hat die gleiche Größenordnung wie Grad Celsius und ist in diesem Zusammenhang austauschbar. Einige Beispiele für allgemeine Materialien:

Tabelle 1: Spezifische Wärmekapazität verschiedener Materialien in J/kg/K. Datenquelle

Also könnte man Temperaturänderung als ein „Proxy“ für eine Änderung der thermischen Energie für äquivalente VOLUMINA des GLEICHEN Materials betrachten. In diesem Zusammenhang könnte man eine ,mittlere Temperaturänderung‘ berechnen für jenes Medium und auf die Änderung der thermischen Energie rückschließen, welche beispielsweise mit einfallender und ausgehender Strahlung in Bezug gesetzt wird. Falls dies eine Oberflächentemperatur ist, impliziert dies die Hypothese, dass die Erdoberfläche die Temperatur bis zu einer gewissen Wassertiefe repräsentiert und diese repräsentative Tiefe die Gleiche bleibt in den Gebieten, über die gemittelt wird, um den „Volumen“-Zustand oben zu berücksichtigen. Das ist für die ,durchmischte Schicht‘ des Ozeans einigermaßen fragwürdig, kann aber als grobe Energie-Proxy durchgehen.

Allerdings ist sofort klar, dass man nicht beginnen kann, Luft und Wassertemperatur zusammenzufügen oder zu mitteln; oder Temperaturen über Land und Wasser. Das sind keine kompatiblen Medien. Das ist wie die Frage, was das Mittel ist zwischen einem Apfel und einer Orange: Es hat keinerlei physikalische Bedeutung. Es kann mit Sicherheit nicht die Grundlage sein für eine Berechnung des Energiehaushaltes, da es nicht mehr eine Maßzahl für die Änderung der thermischen Energie ist.

Wie aus der Tabelle oben ersichtlich: Luft, Felsgestein und Erde werden eine viermal so hohe Temperaturänderung aufweisen als Wasser als Folge der gleichen einfallenden Energiemenge.

Niemand wird auf den Gedanken kommen, Temperaturaufzeichnungen in Grad Fahrenheit mit solchen in Grad Celsius zu mitteln. Trotzdem scheint es aus irgendwelchen Gründen so, als ob die Vermischung von Land- und Ozeandaten (SST Sea Surface Data) bei niemandem ein Heben der Augenbrauen auslöst.

Änderungsrate in den globalen Temperatur-Datensätzen


Abbildung 1: Vergleich von Änderungsraten in Temperatur-Datensätzen über dem Festland und über dem Ozean (30 Monate Gaussian low-pass filter). Quelle der Daten.

Abbildung 1 zeigt die Änderungsrate in zwei Datensätzen der Wassertemperatur und dem BEST-Datensatz vom Festland, mit einer Verkleinerung um einen Faktor zwei. Mit diesem Skalierungsfaktor sehen sie alle ziemlich eng beieinander liegend aus. Die große Spitze in den ICOADS-Daten liegt an einer erkannten Änderung der Datenmenge infolge Änderungen der Schiffsrouten und der Daten-Sammelverfahren während und nach WW II. Das UKMO bearbeitete den HadISST-Datensatz mit dem Ziel, diesen Bias zu entfernen.

Die Änderungsrate der Festlands-Lufttemperatur, wie sie vom „BEST“-Datensatz Berkeley geschätzt worden ist, ist sehr ähnlich der Änderungsrate der Wassertemperatur, außer dass die Änderungsrate doppelt so hoch ist.*

[*Original: The rate of change of near surface land air temperature as estimated in the Berkeley “BEST” dataset is very similar to the rate of change in the sea surface temperature record, except that it shows twice the rate of change. Ändert sich nicht die Landtemperatur viel stärker als die Wassertemperatur? Was verstehe ich an diesem Satz nicht? Anm. d. Übers.]

Meerwasser besitzt eine spezifische Wärmekapazität, die viermal so groß ist wie Felsgestein. Dies bedeutet, dass sich die Temperatur des Gesteins vier mal stärker ändert als Wasser bei der gleichen Änderung der thermischen Energie, beispielsweise durch einfallende Solarstrahlung.

Erde ist im Allgemeinen eine Mixtur feiner Gesteinspartikel und organischem Material mit einem signifikanten Wassergehalt. Die beiden Temperatur-Datensätze sind konsistent, wenn man Land als ,nasse Felsen‘ betrachtet. Auch erklärt dies teilweise die viel größeren Temperaturschwankungen in Wüstengebieten: Die Temperatur trockenen Sandes wird sich viermal schneller ändern als die von Meerwasser und ist zweimal so volatil wie in Nicht-Wüstengebieten.

Dies unterstreicht auch, warum es unangemessen ist, Land- und Wassertemperaturen zusammen zu mitteln, wie es in vielen anerkannten globalen Temperaturaufzeichnungen gemacht worden ist, beispielsweise bei HadCRUT4 (eine abartige Mischung von HadSST3 und CRUTem4) ebenso wie bei GISS-LOTI und bei den neuen BEST Land- und Wasser-Mittelwerten.

Es ist ein klassischer Fall von ,Äpfeln und Orangen‘. Falls man das Mittel zwischen einem Apfel und einer Orange nimmt, ist das Ergebnis ein Obstsalat. Das ist keine brauchbare Gemengelage für Berechnungen auf physikalischer Grundlage wie etwa dem Energiehaushalt der Erde und der Auswirkung von Strahlungs-„Antrieben“.

Die unterschiedliche Wärmekapazität wird die Daten zugunsten der Lufttemperaturen über Land verdrehen, welche viel schneller variieren und folglich eine irrige Grundlage liefern, um energie-basierte Berechnungen vorzunehmen. Außerdem sind die Landtemperaturen auch durch den Wärmeinseleffekt und andere Verzerrungen beeinträchtigt. Daher werden diese effektiv verdoppelt, bevor sie die globale Land- + Wasseraufzeichnung kontaminieren.

In disem Sinne bieten die Satellitendaten ein physikalisch konsistenteres globales Mittel, weil sie ein konsistenteres Medium messen. Falls man Energie-Berechnungen auf der Grundlage von Strahlung durchführen möchte, ist es wahrscheinlich bedeutsamer, SST-Daten als Kalorimeter zu nutzen.

Klimasensitivität ist definiert als das ∆rad , ∆T-Verhältnis, gewöhnlich im Zusammenhang mit einer linearen Approximation zur Planck-Rückkopplung, welche über relativ kleine Abweichungen in der etwa 300 K umfassenden Temperatur-Bandbreite gültig sind. Andere Rückkopplungen werden als Störungen gesehen, die von der dominanten Planck’schen Strahlungs-Rückkopplung addiert oder subtrahiert werden. All dies und sogar die weitaus komplexeren globalen Zirkulationsmodelle sind im Grunde Berechnungen des Energie-Gleichgewichtes. Der Energie-Erhaltungssatz ist eines der solidesten Axiome der Physik. Ein fundamentaler Test jedweder Theorie oder Gleichung ist, ob der Energie-Erhaltungssatz berücksichtigt ist.

Horizontaler Wärmetransport stellt sicher, dass die Festlandstemperatur durch die ozeanische Wärmekapazität beeinflusst wird: der thermische Anker des Klimasystems. Es ist bekannt, dass Temperaturen in Küstengebieten stabilisiert werden durch die Nachbarschaft von Land und Wasser und dass die zentralen Gebiete der Kontinente eine viel größere tägliche und jährliche Variation zeigen. Allerdings bleibt die Landtemperatur nahe der Oberfläche volatiler als die SST, und Analysen von Klimamodellen zeigen, dass sie über Land eine größere Klimasensitivität aufweisen und einen unterschiedlichen vertikalen Temperaturgradienten zeigen (1). FALLS man das als zuverlässig nehmen kann (die meisten Modelle nehmen eine konstante Relative Feuchtigkeit an).

In diesem Zusammenhang ist ein Temperaturanstieg die finale Folge aller Inputs, „Antriebe“ und Rückkopplungen, von denen viele über Land unterschiedlich sein können. Zieht man eine nicht-thermodynamisch relevante „mittlere“ Temperatur von zwei unterschiedlichen Ökologien mit unterschiedlicher Klimasensitivität heran, um ein ,Mittel‘ zu erzeugen, scheint auch die Klimasensitivität offen für Bias.

Schlussfolgerungen

Temperaturen sind keine abstrakten Statistiken; deren physikalische Bedeutung muss berücksichtigt werden bei der Auswahl, was man mit ihnen macht. Die Verwendung von Mittelwerten von Land- + Wassertemperaturen, verzerrt durch übertriebene Wichtung der volatileren landbasierten Temperaturen, wird physikalisch fehlerhafte Ergebnisse zeitigen.

Die meisten Klimadaten sind nicht einfach dimensionslose Zahlen. Jedes Processing sollte im Zusammenhang mit den physikalischen Größen betrachtet werden, die sie repräsentieren. Falls Temperaturen oder Temperaturanomalien als Energie-Proxy betrachtet werden für Berechnungen auf Energiegrundlage, sollte dies explizit erwähnt werden, und jedwede Verzerrungen, die sich hieraus ergeben, müssen angesprochen werden.

Die physikalische Signifikanz, Validität und Grenzen von „mittleren“ Land- + Wassertemperaturen sollte man berücksichtigen, wenn man sie verwendet. Dies ist jedoch nur sehr selten der Fall, wenn überhaupt.

(1) Geoffroy et al 2015 : “Land-sea warming contrast: the role of the horizontal energy transport” [ paywalled ] http://link.springer.com/article/10.1007/s00382-015-2552-y

Link: https://climategrog.wordpress.com/2016/02/09/are-land-sea-averages-meaningful-2/

Übersetzt von Chris Frey EIKE

Der (anonyme) Autor ClimateCrog hat einen Abschluss in Physik, Berufserfahrung in der Spektroskopie , Elektronik und Software-Engineering , einschließlich 3-D- Computer-Modellierung der Streuung von E- m -Strahlung in die Erdatmosphäre .




Haus und Grund Februar 2016: „Digitale Stromzähler kommen in Zukunft wohl flächendeckend zum Einsatz – aber mit Bedenken“

Wenn die freie Entscheidungskompetenz der Bürger die politischen Erwartungen nicht erfüllen, dann wird mit allen Tricks, schlussendlich immer zu Lasten der Steuerzahler subventioniert, nachgeholfen. Es fällt offenbar sehr schwer einzugestehen, dass manche Wunschträume zu bezahlbaren Kosten rein technisch nicht zu erfüllen sind. 

So auch beim „smart meter“, der erheblich teurer sein wird, vieles ermöglicht, was aber kein Stromverbraucher auf Dauer haben will, und schlussendlich den Strombezug nur teurer macht. 

Der berechtigte Ärger der Stromverbraucher über die stetig steigenden Strompreise, wird in geschickter Weise nicht den Verursachern, sondern den ebenfalls leidenden Stromerzeugerunternehmen zugeordnet,  aber die wirklichen Ursachen der unsinnigen gesetzlichen Vorgaben wie immer verschwiegen, bzw. für die Bürger nur in Unverständlichkeit vernebelt umschrieben.  

Tatsache ist, dass durch „Grüne“ Gesetzesinitiativen zunächst in der rot/grünen Regierung unter Gerhard Schröder am 1. April 1999 die Stromsteuer gegen die CDU/CSU Opposition eingeführt wurde. Diese wurde durch die nachfolgende CDU Regierungsbeteiligung dann zwar auf 3 Pf/kWh begrenzt (heute 2,05 ct/kWh), aber auch nicht wieder abgeschafft. 

Anschließend wurde ebenfalls auf Initiative der „Grünen“ unter Umweltminister Trittin die EEG-Abgabe in Höhe von Anfangs bescheidenen 0,43 ct/kWh, von Herrn Trittin mit einer Kugel Eis pro Monat als Kostenbelastung beschwichtigt, eingeführt. Diese beträgt heute 6,354 ct/kWh. Damit ergibt sich für 2016 ein EEG-Umlagebetrag von 24,7 Milliarden Euro, bereits mehr, wie die gesamte deutsche Stromerzeugung aus dem konventionellen Kraftwerkspark kosten würde, nämlich rd. 24 Mrd. € bei gutem Gewinn der Kraftwerksbetreiber, sofern die Kraftwerke rund um die Uhr produzieren dürfen. 

Neben den weiteren staatlichen Abgaben wie Konzessionsabgabe: 1,66 ct/kWh, KWK Umlage: 0,445 ct/kWh, §19 StromNEV-Umlage: 0,378 ct/kWh, §18 AbLaV-Umlage (Umlage für abschaltbare Lasten): 0,01 ct/kWh, Offshore-Umlage: 0,039 ct/kWh, Mehrwertsteuer: 4,47 ct/kWh, ergibt sich für einen Stromkunden mit 4.000 kWh Jahresverbrauch und 1.120 € Jahresstromrechnung, entsprechend 28 ct/kWh, ein staatlicher Anteil von 15,41 ct/kWh oder 55 %. Aus den verbleibenden 12,59 ct/kWh müssen die Netze und die Stromerzeugung bezahlt werden. Bei einem typischen Netznut-zungsentgelt von 6,78 ct/kWh verbeiben für die Stromerzeugung 5,81 ct/kWh, alles einschließlich der Vertriebskosten und Unternehmensgewinne.  

Es ist sicher einsichtig, dass das Sparpotenzial ausgehend von den 5,81 ct/kWh sehr begrenzt ist, eher wird dieser Preisanteil höher werden als geringer.   

Die Stromerzeugung aus Offshore Windenergieanlagen wird derzeit per Gesetz mit 19,4 ct/kWh vergütet, onshore-Neuanlagen mit rd. 8,5 ct/kWh, onshore Altanlagen im Mittel mit rd. 13 ct/kWh, Photovoltaikanlagen im Bestand im Mittel mit rd. 16 ct/kWh, Neuanlagen bis 10 kW mit 12,31 ct/kWh. Aus diesen Daten kann man leicht selbst abschätzen, wie weit die Stromerzeugungskosten in naher Zukunft mindestens weiter ansteigen müssen, wenn wir in den Zielen der Energiewende von derzeit rd. 33 % Ökostrom gegen 100 % weiter voranschreiten. Aber bitte nicht klagen oder Schuldige suchen, falls man die bei den Stromunternehmen vermutet. 

Das „Mindestens“ ist sehr ernst gemeint, denn mit zunehmender vorrangiger EEG-Einspeisung werden die weiterhin notwendigen konventionellen Kraftwerke noch mehr in unwirtschaftliche Lastbereiche gezwungen, ohne Kostenersparnis realisieren zu können und daher sehr viel teurer, aber trotzdem unverzichtbar, es sei denn, jemand sorgt dafür, dass der Wind immer weht oder die Sonne auch nachts am wolkenlosen Himmel scheint. 

Dabei ist zu beachten, dass es sehr wohl Stromanbieter gibt, die den Ökostrom billiger anbieten als den Normalstrom, aber das ist aber schlicht und einfach Betrug durch nachweisbare Quersubventionierung. Ebenso ist das Argument, dass durch Stromspeicherung die Mangelzeiten der Wind- oder Solarstromerzeugung überbrückt werden könnten nicht stichhaltig, denn die ist, welcher Art auch immer, in dem Rahmen bezahlbarer Strompreise – soweit man realistisch zu denken vermag -, schlicht unbezahlbar.  

Ebenso wird die noch anstehende Stilllegung der noch am Netz befindlichen 7 Kernkraftwerke einen weiteren Preisschub nach oben verursachen, denn solange wir die hatten oder bis 2022 noch haben, ist der Strom nachweislich relativ günstig, in Ländern mit Kernkraftwerken auch zukünftig. 

Wer ernsthaft glaubt, Wind- +Solarstrom könnte die konventionellen Kraftwerke jemals ersetzen,  

der irrt sehr, denn Null mal beliebig viel bleibt Null, wie seit 70 Jahren im Kölner Karneval besungen wird: 

          "En d’r Kaygass Nummero Null …,   

          Dreimol Null is Null bliev Null        

          Denn mer woren en d’r Kayjass en d’r Schull                       

          Dreimol Null is Null, bliev Null                                            

          Denn mer woren en d’r Kayjass en d’r Schull   

Siehe Abbildung oben rechts.

Am 7. bis 9. 12. oder vom 14. bis 16.12. oder am 28.12. war die Wind- und Solarstromeinspeisung in das deutsche Stromnetz nahezu gleich Null, mit der Folge, dass die konventionellen Kraftwerke die gesamt Last abdecken mussten. Vom 22. bis 24.12. konnten die Windenergieanlagen mehr als den hälftigen Bedarf abdecken. In den Zeiten, in denen diese zurück fahren müssen weil die regenerativen Einspeiser ja gesetzlichen Vorrang genießen, sparen die konventionellen Kraftwerksbe-treiber aber so gut wie Nichts. Es wird nur kein Umsatz gemacht und daher keine Kostendeckung realisiert, was diese Unternehmen systematisch in den Ruin treibt. Die Solaranlagen sind im Winter energiewirtschaftlich fast vernachlässigbar und daher auch ganzjährig ohne Leistungswertigkeit.  

Die vielfach gehegte Erwartung, dass durch Preissignale der smart meter in den Wohnungsübergaben die Netzinfrastruktur reduziert werden könnte und so Netz- und Kraftwerkskosten eingespart würden, ist leider unbegründet. Denn durch die zufällige natürliche Lastdurchmischung der Menschen genügt es, für die rd. 40 Millionen Haushalte eine Kraftwerksleistung von rd. 40.000 MW bereit zu stellen, das entspricht nur 1 kW je Haushalt. Am Hausanschluss werden aber für jeden Haushalt bis zu 30 kW verfügbar frei gegeben, so dass der einzelne Verbraucher vollkommen frei ist in der Inanspruchnahme elektrischer Leistung d.h. bezüglich des Geräteeinsatzes. Die weiteren 40.000 MW stehen der Industrie und dem Gewerbe zur Verfügung. Eine bessere Freiheitsgarantie, wie bei der unreglementierten häuslichen Stromversorgung – ohne smart meter – ist kaum denkbar. Das mag für die am Geräteumsatz verdienenden Branchen unangenehm sein, ist aber zum Glück der 40 Millionen mittels kostengünstigen Ferraris-Zähler erfassten Stromverbraucher Realität. 

Aus diesem Dilemma kommt unser Land nur heraus, wenn die Politik bereit ist, die sich als unsinnig erwiesenen Ziele, die Stromerzeugung in unserem Land durch immer mehr Wind- und Sonnenenergieanlagen abzudecken, schlicht und einfach mit dem erreichten Stand von bereits 33 % der Jahresarbeit und über 110 % der maximalen Leistung, als erledigt zu betrachten. Dazu ist es nur erforderlich, gemäß Ludwig Erhards Wirtschaftsphilosophie der sozialen Marktwirtschaft wieder dem Wettbewerb ohne Subventionen und gesetzliche Vorrangbestimmungen auch auf dem Gebiet der Stromerzeugung Geltung zu verschaffen. Dann erledigt sich dieses Problem wegen der weitge-hend abgeschriebenen Anlagen ganz von selbst. Ob es dann wieder Investoren für entsprechende Neuanlagen gibt, wird dann der Markt entscheiden, ebenso wie das bei den Kernkraftwerken in den anderen Ländern auch der Fall ist. 

Helmut Alt 




Unsere früher ermittelten WI-Werte stimmen auch über einen kürzeren Zeitraum gut mit der fast WI-freien Station Amtsberg überein

Bild rechts: Landschaft um Amtsberg im Erzgebirge. Quelle

Grafik 1: Die von uns berechneten WI-bereinigten Deutschlandtemperaturen der letzten 125 Jahre

Aufgrund der statistischen Abschätzungen von R. Leistenschneider haben wir auch kürzere Zeiträume als 120 Jahre WI-bereinigt dargestellt. Hier http://www.eike-klima-energie.eu/news-cache/klimawandel-in-deutschland-teil-2-real-sinken-seit-25-jahren-die-temperaturen/:

Aus den 25 Jahren sind nun drei Jahre später 28 Jahre geworden. Kürzere Zeiträume sind natürlich weniger aussagekräftig, da ein dazukommendes Ausnahmejahr die Trendlinien stark verzerren kann. Auch die nachfolgende Grafik haben wir in früheren Artikeln vorgestellt, um zu zeigen, dass die WI-bereinigten Deutschlandtemperaturen schon seit 28 Jahren stagnieren. Es wird nur in den Wärmeinseln weiter wärmer, dort, wo meist auch die Messstationen stehen. Mit einer allgemeinen Klimaerwärmung aufgrund zunehmender C02-Konzentrationen hat diese Wärmeinselerwärmung, die sich in den letzten 50 Jahren über ganze Regionen ausgedehnt hat, aber auch gar nichts zu tun.

Grafik 2: Der rote Temperaturverlauf ist nach den Originaldaten des Deutschen Wetterdienstes in Offenbach gezeichnet. Seit 1988 zeigt die Trendlinie einen leicht ansteigenden Temperaturverlauf. Es wurde wärmer seit 1988. Die grüne Trendlinie zeigt unsere WI-Bereinigung der Deutschlanddaten.

Wäre Deutschland genauso geblieben wie 1988, die gleiche Einwohnerzahl, die gleiche Bebauung, derselbe Energieverbrauch und keinerlei Urbanisierung der Landschaft, dann wäre auch keine Zusatzwärme in die Landschaft eingetragen worden. Die Aufzeichnungen des Deutschen Wetterdienstes würden sich an der grünen Trendlinie orientieren, haben wir stets behauptet.

Die interessierten Leser unserer Artikel haben immer wieder nach Beweisen gefragt und die von Herrn Leistenschneider entwickelte statistische Abschätzungsmethode kritisiert. Grundsätzlich aber wurde dieser flächendeckende historisch sich entwickelnde WI-effekt anerkannt, nur mit der Höhe war man nicht einverstanden. Auch der DWD gibt auf Nachfrage zu, dass seine erhobenen Daten nicht flächendeckend wärmeinselbereinigt sind. Man erhebe die Daten vom heutigen Deutschland und vergleiche mit früher und da gäbe es nun mal eine Erwärmung, meinte der DWD. Die Interpretation der Erwärmung überlasse man anderen.

Gefunden: Vor kurzem haben wir die fast WI-freie Klimastation Amtsberg im Erzgebirge näher vorgestellt: http://www.eike-klima-energie.eu/news-cache/gefunden-es-gibt-eine-fast-waermeinselfreie-wetterstation-in-deutschland/

Diese Station und deren Umgebung haben sich laut Aussagen des ortskundigen Betreibers seit 1982, dem Bestehen der Messstation, kaum verändert. Wir können nun die theoretischen Werte unserer Grafik 2 mit der Realität Amtsberg überprüfen

Grafik 3: In die roten vom DWD gemessenen und nicht WI- bereinigtenTemperaturen der letzten 28 Jahre haben wir die Daten der Wetterstation Amtsberg in blauer Farbe eingeblendet. Die Trendlinie fällt sogar etwas stärker als die von uns in Grafik 4 theoretisch ermittelte Trendlinie, was wir aber nicht überbewerten wollen.

Wir können jedoch feststellen: Im fast WI-freien Amtsberg wurde es in den letzten 28 Jahren leicht kälter und in Deutschland stagnieren seit 28 Jahren die Jahrestemperaturen. Nur in den großflächigen Wärmeinseln, dort wo die Menschen wohnen und auch die meisten Messstationen des Deutschen Wetterdienstes stehen, wurde es wärmer.

Aus unserer Grafik 1 ist ersichtlich dass in Deutschland zwischen 1950 und 1975 ein kleines „Kälteloch“ vorlag, bzw. die Wiedererwärmung nach 1850 eine längere Pause einlegte. Und das ausgerechnet zu einer Zeit, in welcher durch den Wiederaufschwung nach dem Kriege (die Schornsteine rauchen wieder) der CO2-Ausstoß besonders zugenommen hat. Zunehmende CO2-Konzentration, aber leicht abnehmende Temperaturen, das widerspricht der Logik einer konstanten CO2 bedingten Erwärmung. Uns Klimarealisten ist das nicht neu, wir erklären die ständigen kleinen und größeren Klimaschwankungen mit vielerlei Gründen, die zusammenspielen, meistens aber mit der Sonne, der kosmischen Strahlung und dem dadurch hervorgerufen Bewölkungsgrad, bzw. der Sonnenscheindauer.

Unsere Grafik 1 zeigt, dass in diesem Zeitraum WI-bereinigt die Temperaturen sogar leicht abgenommen hätten, bevor nach 1975 die Erwärmung aus vielerlei Gründen sich wieder fortsetzte. Wenn wir unseren Betrachtungszeitraum über 28 Jahre hinaus verlängern und in kühlere Bereiche gelangen wird logischerweise die Trendlinie von einer unmerklich fallenden in eine Gerade und dann in einen leichten Anstieg übergehen. Somit stellen wir uns der Frage, auf welchem Temperaturniveau befinden wir uns derzeit, wenn wir mit früher vergleichen. Bei einer Betrachtungszeit über 20 Jahre hinaus ist eine WI-Bereinigung notwendig. Wir verwenden deshalb gleich den fast WI-freien Standort Amtsberg am Fuße des Erzgebirges.

Grafik 4: Erweitern wir die Grafik auf 30 Jahre, dann geht die fallende Trendlinie auch von Amtsberg verloren, denn die Temperaturen kommen aus einem kleinen „Kälteloch“. In der Grafik sind zwei kalte Jahre links dazugekommen.

CO2-Erwärmungsgläubige und auch der DWD argumentieren deshalb gerne mit längeren Betrachtungszeitraumen und behaupten, der Trend zur weiteren Erwärmung sei doch ungebrochen. Die Trendlinie der Jahrestemperaturen würde schon bei 30 Jahren weiter nach oben zeigen. Wie lange noch?

Ist die Station Amtsberg etwa eine Ausnahme und bestätigt nur zufällig unsere theoretisch ermittelten WI-Bereinungswerte? Um den häufig geäußerten Kritiken zu begegnen, die Messwerte von Privatstationen seien erstens fehlerhaft, und zweitens seien die Untersuchungszeiträume von um oder unter 30 Jahren zu kurz für statistisch signifikante Aussagen, haben wir uns auf die Suche nach geeigneten DWD- Stationen begeben. Dabei interessierten uns sowohl besonders ländliche, WI- arme Orte, aber auch solche mit starker Verstädterungstendenz, um anhand direkter Stationsvergleiche einen wesentlichen Teil der WI- Effekte, nämlich den „Urban Heat Island Effect“ (UHI, städtischer Wärmeinseleffekt) nachweisen zu können. Fündig wurden wir bei Frankfurt/Main (Flughafen) als Beispiel für eine stark WI- belastete Station, hauptsächlich durch UHI- Effekte, und Schneifelforsthaus in der Eifel (sehr ländlich, geringe WI- und überhaupt keine UHI- Effekte). Die Werte waren bis 1953 und damit über 63 Jahre verfügbar; der Vergleich der Jahresmittelwerte beider Stationen sieht so aus:

Grafik 5: Die viel stärkere Erwärmung in Frankfurt/Main ist hauptsächlich auf verstädterungsbedingte WI- Effekte (Flughafenausbau, starkes Wachstum bei Einwohnerzahlen und Verkehr) zurückzuführen.

Nun könnten freilich Vertreter der CO2- Erwärmungstheorie argumentieren, der Temperaturanstieg im sehr WI- armen Schneifelforsthaus mit fast 1,5 Kelvin sei ja ebenfalls beträchtlich. Doch welche Ursachen er im Wesentlichen hatte, zeigt unsere letzte Grafik (wir griffen hierbei auf die DWD- Deutschlandmittel zurück, weil für Schneifelforsthaus keine Daten der Sonnenscheindauer verfügbar waren):

Grafik 6: Entwicklung der Deutschland- Mittelwerte der Lufttemperatur, der Sonnenscheindauer und der Häufigkeit aller Großwetterlagen mit südlichem Strömungsanteil (jeweils Jahreswerte). Deutschland erwärmte sich insgesamt also etwas schneller, als die WI- arme Station Schneifelforsthaus. Bei jahreszeitbezogener Betrachtung (hier nicht gezeigt) wirkten außer den WI- Effekten im Winter besonders die Häufigkeitszunahme westlicher bis südwestlicher Lagen, im Frühling und Sommer mehr Sonnenschein und südliche Lagen, im Herbst mehr Süd- und Südwestlagen, besonders erwärmend.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Studie: Grönländischer Eisschild bewegt sich inzwischen langsamer als während der letzten 9000 Jahre

Bild rechts: Die mittlere Geschwindigkeit der Bewegung des grönländischen Eises während der letzten 9000 Jahre (link), dessen gegenwärtige Geschwindigkeit (Mitte) und der Unterschied zwischen beidem (rechts). Nach Joseph A.MacGregor.

Die Ergebnisse sind in der Science-Ausgabe vom 5. Februar veröffentlicht. Die Forscher sagen dazu, dass diese Ergebnisse nicht die Tatsache ändern, dass der Eisschild alles in allem an Masse verliert und zum Anstieg des Meeresspiegels beiträgt. An der Peripherie von Grönland werden die Gletscher rapide dünner. Allerdings verdickt sich das riesige Inlandeis von Grönland allmählich immer mehr – ein Prozess, der in der Studie klarer wird.

„Die Wissenschaftler sind sehr interessiert daran zu verstehen, wie sich die Eisschilde bewegen, und wie sich diese Bewegung zu denen in der Vergangenheit unterscheidet. Unsere Paläo-Geschwindigkeits-Karte für Grönland ermöglicht es uns, den Fluss des Eisschildes jetzt im Zusammenhang mit den letzten vielen Jahrtausenden abzuschätzen“, sagte Leitautor Joe MacGregor vom Institute for Geophysics (UTIG) an der University of Texas in Austin, eine Forschungsabteilung der Jackson School of Geosciences.

Die Studie baut auf früheren, von der UTIG geleiteten Forschungen auf, die eine Datenbasis entwickelten für viele Schichten innerhalb des grönländischen Eisschildes. Mittels dieser Datenbasis haben die Wissenschaftler die Fließgeschwindigkeit der letzten 9000 Jahre bestimmen können – was im Endeffekt zur Erstellung einer Karte der „Paläo-Geschwindigkeit“ geführt hat.

Ein Vergleich der Paläo-Geschindigkeits-Karte mit derzeitigen Fließraten ergab, dass das Innere des Eisschildes sich jetzt langsamer bewegt als während der meisten Zeit des Holozäns, einer geologischen Periode, die vor 11.700 Jahren begann und bis heute andauert.

„Wie viele andere auch hatte ich den sich fortsetzenden dramatischen Rückzug und Fließ-Beschleunigung des Eisschildes im Hinterkopf. Darum habe ich vermutet, dass sich auch dessen Inneres schneller bewegt, aber das war nicht der Fall“, sagte MacGregor.

Die Autoren fanden drei Gründe für diese Verlangsamung. Der erste ist, dass die Schneefallmengen während der letzten 9000 Jahre allgemein stärker waren, zweitens ist es das langsame Versteifen [stiffening] des Eisschildes mit der Zeit und drittens der Kollaps einer „Eisbrücke“, die normalerweise das grönländische Eis mit dem auf der nahe gelegenen Ellesmere-Insel verbindet. Am meisten interessierten die letzten beiden Gründe.

„Das Eis, dass sich aus Schneefällen in Grönland während der letzten Eiszeit gebildet hat, ist etwa dreimal so weich als das Eis, das sich heute bildet“ sagt William Colgan von der Lassonde School of Engineering an der York University, ein Mitautor der Studie.

Infolge dieses Unterschiedes wird der Eisschild allmählich immer härter. Als Konsequenz fließt er langsamer und wird mit der Zeit immer dicker. Dieser Effekt ist am wichtigsten im südlichen Grönland, wo höhere Schneefallmengen zu einem rapiden Ersatz von Eis aus der letzten Eiszeit durch Eis während des Holozäns.

„Aber dies konnte nicht erklären, was anderswo in Grönland los war, vor allem im Nordwesten, wo es nicht so viel schneit und der Versteifungseffekt daher nicht so bedeutend ist“, sagte MacGregor.

Die Erklärung der Verlangsamung im Nordwesten liegt im Zusammenbruch einer „Eisbrücke“ über die Nares-Straße vor 10.000 Jahren. Sie hatte das grönländische Eis mit dem auf der Ellesmere-Insel verbunden. Der Kollaps der Eisbrücke am Ende der letzten Eiszeit hat zu einer Beschleunigung im Nordwesten geführt, doch hat sich die Fließgeschwindigkeit seitdem wieder verlangsamt.

Diese Änderungen, die vor tausenden von Jahren begonnen hatten, beeinflussen unser Verständnis des sich ändernden grönländischen Eisschildes noch heute. Wissenschaftler arbeiten oft mit GPS und Altimetern auf Satelliten, um die Seehöhe der Eisoberfläche zu vermessen und zu untersuchen, wie viel Eismasse bei dem gesamten Eisschild verloren geht oder hinzu kommt. Korrigiert man andere bekannte Auswirkungen auf die Seehöhe der Eisoberfläche, scheint jede zusätzliche Verdickung vermutlich stärkeren Schneefällen geschuldet zu sein, aber diese Studie zeigt, dass dies nicht unbedingt der Fall sein muss.

Wir sagen, dass die jüngste Zunahme von Schneefällen nicht notwendigerweise die heutige Verdickung des inneren Eisschildes erklärt“, sagte Colgan. „Verwendet man Satelliten-Altimeter zur Bestimmung, wie viel Eis Grönland verliert, wird man vermutlich eine nicht ganz richtige Antwort bekommen, es sei denn, man zieht diese sehr langfristigen Signale in Betracht, wie sie das Innere eindeutig zeigt“.

Link: http://wattsupwiththat.com/2016/02/05/greenland-ice-sheet-moving-slower-now-than-in-the-last-9000-years/

Übersetzt von Chris Frey EIKE

Der Übersetzer bedankt sich bei Herrn Hartmut Hüne für den Hinweis auf diesen Beitrag.




„Lasst es im Boden“-Kampagne in der realen Welt

Bei der Kampagne geht es um alle fossilen Treibstoffe: Öl, Gas und Kohle. Anstatt einer Energiepolitik „alles des oben Genannten“ wollen sie, wenn es um fossile Treibstoffe geht, „nichts von dem oben Genannten“. Ein großer Teil dieser Bemühung konzentriert sich auf das Verhindern der Förderung fossiler Treibstoffe auf in öffentlichem Besitz befindlichen Ländereien – was von den Präsidentschafts-Kandidaten Senator Bernie Sanders und Hillary Clinton unterstützt wird. Das jüngste Moratorium bzgl. des Leasings öffentlichen Landes für den Kohle-Bergbau, verkündet von Innenministerin Sally Jewell wird als ein großer Sieg für „Lasst es im Boden!“ betrachtet.

Über diese Bewegung habe ich bereits im Dezember etwas geschrieben. Im Januar hat die Los Angeles Times einen Leitartikel für einen der Führer der Bewegung veröffentlicht, nämlich Bill McKibben, mit der Überschrift [übersetzt]: „wie man einen Pfahl durch das Herz des Zombies fossile Treibstoffe treibt“. Darin schreibt McKibben: „Im Mai wird eine sich auf sechs Kontinente erstreckende Koalition organisiert, die sich in zivilem Massen-Ungehorsam engagiert für ,lasst es im Boden’“.

Während die Themen in Big News diesen Kampf befeuern, sind kleinere, symbolische Siege Teil der Strategie. Bei der Vorstellung des Planes Ende letzten Jahres schreibt The Hill: „Es erstreckt sich auf lokale Kämpfe, über kleine Bohrlöcher, Kohleminen und Infrastruktur“.

Hier folgt, wie ,lasst es im Boden!‘ in der realen Welt aussieht – in „lokalen Kämpfen“ und „über kleine Bohrlöcher“:

In einem Vorort von Albuquerque, der mehr für die Herstellung von Computer-Chips bekannt ist als für die Extraktion von Rohöl, tut die anti-fossile Masse alles, was sie kann, um zu verhindern, dass „ein kleines Bohrloch“ entwickelt wird.

In Rio Rancho in New Mexico ist die Firma Intel der Haupt-Arbeitgeber. Außerdem sind dort viele Call Centers ansässig – wobei das Sprint call center kürzlich ankündigte zu schließen, wodurch 394 Arbeitsplätze vernichtet werden. New Mexico weist die höchste Arbeitslosenquote der USA auf: 6,8%.

Rio Rancho liegt in der Sandoval County [entspricht etwa unseren Landkreisen. Anm. d. Übers.] – wo sich gegenwärtig im nördlichen Teil 600 Öl- und Gas-Bohrstellen befinden auf öffentlichem Land. Dem NM Tax Research Institute zufolge verschifften die Erzeuger in Sandoval County im Jahre 2013, als die Ölpreise höher lagen, 1,08 Millionen Barrel Öl im Wert von 86 Millionen Dollar sowie Erdgas im Wert von 1,6 Milliarden Dollar.

Nach der Pachtübernahme der Mineralrechte im vorigen Jahr hofft ein Unternehmen in Oklahoma, nämlich SandRidge Energy Inc., eine Erkundungsbohrung durchführen zu können. Die Bohrung, die bereits von der staatlichen Oil and Conversation Division (OCD) genehmigt worden ist, liegt „etwa vier Meilen [ca. 6 km] außerhalb der Stadtgrenzen von Rio Rancho“, berichtet das Albuquerque Journal. Es wird ein vertikales Bohrloch sein, gebohrt bis zu einer Tiefe von 10.500 Fuß [ca. 3000 m] – was zu erreichen innerhalb von 25 Tagen geplant ist. Bis das Loch gebohrt und gesichert ist, werden die Ingenieure nicht wissen, ob die Ressource vielversprechend ist, und falls ja, ob sich hydraulisches Brechen lohnt. Die OCD-Erlaubnis erstreckt sich auf das Bohren, Vervollständigen und Erschließen des Bohrloches. Jami Grindatto, Präsident und geschäftsführender Direktor der Sandoval Economic Alliance sagt, dass der umweltliche Fußabdruck „klein“ sein wird.

Schon zuvor wurden viele Erkundungsbohrungen im Albuquerque Basin durchgeführt, von denen nicht beabsichtigt war, sich ökonomisch zu rechnen – obwohl Öl gefunden worden ist.

Um mit dem Bohren zu beginnen braucht SandRidge eine zoning variance von der County. Am 10. Dezember hielt das Planning and Zoning Committee eine umstrittene Anhörung ab, um Meinungen der Öffentlichkeit bzgl. des Antrags von SandRidge zu hören. Es gab so viele Wortmeldungen, dass weder ausreichend Zeit noch Raum zur Verfügung stand, um alle zu Wort kommen zu lassen. Ein weiteres Treffen wurde in größerem Rahmen für den 28. Januar anberaumt. Dort verbreiteten Dutzende Personen allgemeine Punkte gegen Fracking; äußerten sich vage über Verschmutzung, Erdbeben und/oder Wasserverschmutzung. Das Komitee forderte die Redner vergeblich auf, beim Thema zu bleiben und nur über dieses eine Bohrloch zu sprechen – diesen einen Antrag.

Einige Wenige sprachen tapfer gegen die feindliche Menge an und unterstützten das Projekt – nur um sofort ausgebuht zu werden.

[Das ist ja wie im Zoo bei den Affen! Anm. d. Übers.]

Es war inmitten dieser Atmosphäre, dass das Komitee verlangte, dass die Emissäre der County die Anforderung ablehnen sollen. Im Wesentlichen hoben sie ihre Hände und räumten ein, dass sie nicht ausreichend informiert waren, um mit den Feinheiten des Antrags umzugehen – weshalb man solche Entscheidungen lieber auf staatlicher Ebene treffen sollte, wo es Ingenieure und Geologen gibt, die den Prozess verstehen.

Die Emissäre von Sandoval County können immer noch die spezielle Erlaubnis auf ihrem Treffen am 18. Februar erteilen – sind sie doch die letztendlichen Entscheidungsträger.

Im Dezember hat Sandoval County-Kommissionsmitglied James Dominguez gesagt, dass er „einige wesentliche Bedenken habe, dass die Bohrung die Wasserversorgung und die Luftgüte in Rio Rancho gefährden könnte“. KOAT News zitiert Dominguez mit den Worten: „Ich weiß, dass es irgendwann unsere Wasserressourcen verschmutzen wird“ — und das trotz der definitiven EPA-Studie vom August 2015, in der bestätigt wurde, dass das hydraulische Brechen die Wasserversorgung nicht gefährdet.

Während der letzten paar Jahre, als die Ölpreise höher lagen, haben Encana und WPX etwa 200 Bohrlöcher mit gleicher Geologie gebohrt, 70 davon in Sandoval County. Es gab nicht einen einzigen Fall irgendeiner Störung, eines Schadens oder einer Verseuchung von Grundwasser. Was das betrifft, während der letzten 50 Produktionsjahre in Sandoval County gab es nicht einen einzigen Fall von Schädigung des Grundwassers – und das, obwohl die Technologie- und Sicherheitsstandards nicht so fortschrittlich wie heute waren. Vielleicht bietet das bevor stehende Treffen eine Gelegenheit, den politischen Entscheidungsträgern mehr faktische Informationen zu geben.

Ein „kleines Bohrloch“ außerhalb einer Gemeinde am Stadtrand von Albuquerque, das Arbeitsplätze schaffen und der lokalen und staatlichen Wirtschaft helfen könnte, könnte blockiert werden wegen ein paar Dutzend Agitatoren, die die County dazu bringen könnten, „es im Boden zu lassen“.

Einen Tag später feierte ein anderer kleiner Ableger der Anti-Fossil-Bewegung einen fast unbedeutenden Sieg, der die Bewegung stärkt. Dieses Mal in Kalifornien.

Am 29. Januar wurde eine Regelung erreicht in einem Gerichtsverfahren, das Umweltgruppen vor zwei Jahren gegen zwei Agenturen der [US-]Bundesregierung angestrengt hatten mit der Behauptung, dass diese Offshore-Fracking und andere Arten von Hochdruck-Verfahren erlaubt hätten: das Bureau of Ocean Energy Management (BOEM) und das Bureau of Safety and Environmental Enforcement (BSEE). Die Regelung verlangt die Kenntnisnahme der Öffentlichkeit für jedweden Antrag auf Fracking. Zusätzlich haben die Agenturen zugestimmt, etwas zur Verfügung zu stellen, was auf eine „programmatische“ Abschätzung der potentiellen Auswirkungen derartiger Techniken auf die küstennahe Umwelt hinausläuft.

Liest man die Presseerklärungen der Umweltgruppen, würde man denken, dass diese regierungsamtlichen Agenturen mit ExxonMobil unter einer Decke stecken und dass sie hinterhältig handeln, was die Ölunternehmen Amok laufen lässt. In Wirklichkeit sind die Bohrerlaubnisse beantragenden Unternehmen einem sehr stringenten Antrags-Prozedere gefolgt – mit dem die Anträge genehmigt wurden. Als jedoch die ersten Erkundungsbohrungen durchgeführt worden waren, fand man heraus, dass sie für hydraulisches Brechen ungeeignet waren.

Ein beratender Petroleum-Geologe mit über 30 Jahren Erfahrung – fast ausschließlich in Kalifornien – erklärte es mir so: „Es gibt offshore nicht viel hydraulisches Brechen, weil es einfach wie in den meisten Gebieten von Kalifornien einfach ineffektiv ist. Die meisten Felsen werden angemessen von Mutter Natur gebrochen. Allgemein gesagt, Fracking ist effektiv an einigen wenigen Stellen, wo es ohne jeden Zwischenfall seit den vierziger Jahren praktiziert worden ist. Das ist kein Thema“.

Die Regelung fordert eine „programmatische“ Umweltabschätzung, die bis zum 28. Mai abgeschlossen sein muss. Während dieser Zeit werden „die Agenturen die Genehmigung von Bohrungen zurückhalten“. Die von mir angesprochenen Kreise sagten mir, dass auch dies keine große Sache war – was erklären würde, warum ExxonMobil und das American Petroleum Institute zugestimmt haben, nicht gegen diese Regelung zu sein. Bei dem gegenwärtig niedrigen Ölpreisniveau reißen sich die Unternehmen nicht um neue Bohrziele. Man glaubt, dass wenn die Abschätzung erst einmal vollständig ist, die bestehenden Vorschriften als angemessen angesehen werden und der Genehmigungsprozess weitergehen kann.

Außerdem sind sämtliche Offshore-Plattformen in dem Gebiet derzeit geschlossen – eine Überreaktion auf einen Pipeline-Bruch im vorigen Frühjahr.

Also, falls es bei dieser „Regelung“ um wenig mehr als nichts geht, warum kümmert man sich überhaupt darum? Weil es ein Beispiel für jene „lokalen Kämpfe“ ist; die kleinen „Siege“, die die „Lasst es im Boden“-Bewegung motivieren und sie zu größeren Kämpfen ermutigen – wie gegen hydraulisches Brechen in der Tiefsee des Golfes von Mexiko (hier).

Diese beiden Geschichten sind wahrscheinlich nur eine Kostprobe der Schlachten, die in Kommissionen der County und in Regierungsagenturen in ganz Amerika ausgefochten werden. Wie in diesen Fällen beeinflusst eine kleine Handvoll Aktivisten die Politik, die jeden von uns betrifft und Auswirkungen hat auf die Ökonomien unserer Gemeinden, indem potentiell Ausgaben für Bildung und öffentliche Dienstleistungen gekürzt werden.

„Lasst es im Boden!“ ist das neue Gesicht von Umwelt-Aktivismus. Falls sich all diejenigen, die die Rolle verstehen, die Energie für Amerika und unsere Freiheiten spielt, nicht engagieren, nicht an Treffen teilnehmen und Statements aussenden und nicht wählen, haben die Politiker fast keine andere Wahl als zu glauben, dass diese lautstarken Wenigen für die Vielen sprechen.

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc., and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column. Follow her @EnergyRabbit.

Link: http://oilpro.com/post/22157/keep-ground-work-real-world

Anmerkung des Übersetzers: Die Autorin Marita Noon hat mir per E-Mail geschrieben, was sie zu obigem Beitrag veranlasst hat. Auch das kann man ohne Weiteres auf die Verhältnisse bei uns in D übertragen:

Dank meines weit verbreiteten Netzwerkes werde ich oft auf Vorgänge zum Thema Energie aufmerksam gemacht, die Aufmerksamkeit verdienen. Die obige Kolumne dieser Woche ist das Ergebnis dieser Bemühungen.

Für den Beitrag oben habe ich zwei derartige Vorkommnisse zusammen gefasst, um zu illustrieren, wie die „Lasst es im Boden!“-Bewegung in der realen Welt agiert. Ich hoffe, dass mein Artikel der andauernden Kampagne Aufmerksamkeit verschafft, die gegen Amerikas Energieindustrie und gegen unseren globalen Wettbewerbsvorteil gerichtet ist: billige Energie. Von derartigen Dingen wissen die meisten Menschen vermutlich nichts. Das sollten sie aber, da es sehr wichtig ist, dass man die Taktik in der Öffentlichkeit versteht.

Marita Noon

—————————————

Übersetzt von Chris Frey EIKE




Wissenschaftler entlarvt schonungslos die Klima Behauptung der NOAA

Lesen Sie Dr. Christy’s vollständige Aussage auf www.CFACT.org "

Das ist, wo das reale Maß des Klimasystems in Bezug auf die Atmosphäre vorhanden ist" sagte Christy, ein Klimaforscher an der University of Alabama und Alabamas Staats Klimatologe, bei einer Anhörung vor dem House Science Committee.

"Wenn eine Theorie den Tatsachen widerspricht, müssen Sie die Theorie ändern. Die reale Welt hält sich nicht an schnelle Erwärmung. Die Modelle müssen zurück zur Überarbeitung."

Der republikanische Repräsentant in Texas, Lamar Smith, der Vorsitzende des Ausschusses, berief eine Anhörung zu den Auswirkungen von Präsident Barack Obamas jüngsten UN-Deal in Paris ein, der eine Beschneidung der Kohlendioxid-Emissionen vereinbart.

Christy denkt nicht, dass die UN Vertragsunterzeichnung gut für die Amerikaner ist und bezweifelt die Daten an, mit denen Politiker und Umweltschützer grüne Energiepolitik durchsetzen wollen.

"Einer meiner vielen Interessen am Klima sind die Art und Weise wie die Oberflächentemperaturen gemessen werden und wie Oberflächentemperaturen, vor allem über Land, von ihrer Umgebung beeinflusst werden" schrieb Christy in seiner vorbereiteten Aussage.

Christy arbeitete kürzlich an einer Studie mit dem erfahrenen Meteorologen Anthony Watts als Co-Autor. Es ergab sich, dass die Temperaturjustierungen der National Oceanic and Atmospheric Administration (NOAA) auf „Kompromissen“ von Temperaturdaten basieren.

Die Studie ergab, die meisten der 1218 Thermometer der NOAA sind in der Nähe von künstlichen Oberflächen und Wärmequellen  angesiedelt, wie Beton, Asphalt und Ausblasungen von Klimaanlagen, die mehr Erwärmung in den US-Temperaturaufzeichnungen verursachten, als bei gut gelegenen Wetterstationen vorhanden war.

Christy und Watts vermuten, dass NOAA seine Temperaturjustierungen auf fehlerhafte Daten stützt (Anstrengungen wurden unternommen, um "Tendenzen" der Temperaturaufzeichnung zu erhalten).

"Ich untersuchte einzelnen Stationen in den verschiedenen Regionen sehr sorgfältig und bin zu dem Schluss gekommen, dass die Größe des relativ geringen Signals, das wir in dem Menschen verursachten Klimawandel suchen, sehr leicht durch das Wachstum der Infrastruktur rund um die Thermometer-Stationen und der Vielzahl von Änderungen dieser Stationen im Laufe der Zeit verbogen wird, als auch durch die Variabilität der natürlichen Höhen und Tiefen des Klimas ",

 bemerkte Christy in seiner Aussage.

"Es ist schwierig diese verunreinigenden Faktoren darzustellen [zu erkennen], um eine reine Datenmenge für den Nachweis eines Treibhauses zu extrahieren, weil oft der nicht-klimatische Einfluss ebenso ganz allmählich kommt, wie es von einen verstärkten Treibhauseffekt zu erwarten ist".

Das ist der Grund warum Christy argumentiert, dass die von Satelliten gemessenen Temperaturen ein besserer Weg sind um zu prüfen, wie sich Treibhausgase auf das Klima der Erde auswirken. "Der Großteil der atmosphärischen Temperatur hat das größte Signal", sagte Christy in der mündlichen Anhörung, die sich auf den Treibhauseffekt bezog.

Bild CFACT, USA

"Wir haben Messungen dafür – es stimmt nicht mit den Modellen überein." Die von Satelliten abgeleiteten Temperaturen kamen vor kurzem unter Beschuss von Wissenschaftlern, die über die globale Erwärmung mehr alarmiert sind als Christy, aber der Alabama Klimatologe hat diese Kritik aufgegriffen.

"Weil dieses Ergebnis die aktuelle Theorie des Treibhauseffekts in relativ einfacher Art und Weise herausfordert, gibt es mehrere gut finanzierte Angriffe auf diejenigen von uns, die solche Datensätze aufstellen und verwenden und gegen die Datensätze selbst"

Klimamodelle für den Großteil der Atmosphäre (wo Satelliten die Temperatur messen) ergeben 2,5-mal so viel Erwärmung wie von Satelliten und Wetterballons beobachtet. "Es ist aus meiner Sicht eine kühne Strategie, die Ergebnisse der theoretischen Klimamodelle herauszustellen und stattdessen mehrere Beweislinien von Beobachtungen anzugreifen " schrieb Christy.

"Beachten Sie, dass keine der Daten Sätze aus Beobachtungen perfekt sind und gesunde Kontrolle gut ist, aber wenn mehrere unabhängige Gruppen Datensätze generieren und dann, wenn die Ergebnisse von zwei völlig voneinander unabhängigen Systemen (Ballons und Satelliten) eng miteinander übereinstimmen und nicht mit den Ausgaben der Modelle übereinstimmen, dann kann man nur den Kopf schütteln [Amerikaner „kratzen“ sich am Kopf] über die Entscheidung, eine Offensive gegen die Daten zu starten. "

Gefunden auf CFACT vom 02.Feb. 2016

Übersetzt durch Andreas Demmig

http://www.cfact.org/2016/02/02/scientist-ruthlessly-debunks-noaa-climate-claim/

Dieser Artikel erschien ursprünglich in The Daily Caller

www.dailycaller.com/2016/02/02/scientist-ruthlessly-debunks-one-of-nasas-central-climate-claims

Gefunden zum Thema:

Satellit und Instrumente (Aufmacher Bild)

http://www.nasa.gov/mission_pages/noaa-n/spacecraft/index.html

Hitzeinseln und Satellitendaten

Weitere Kritik an Messungen und Messstationen

http://www.scinexx.de/dossier-detail-39-13.html