1

Der Kohlendioxid-Hoax!?

von Dipl-Soz. Michael Klein, Sciencefiles

Wann immer Kritik an dem zur Wahrheit erklärten Ergebnis, in Bausch und Bogen verdammt wird, Kritiker lächerlich gemacht werden, ihnen die „Verschwörungstheorie“ entgegen geschleudert wird, sie zum Outcast gemacht werden, der den angeblichen wissenschaftlichen Konsens ignoriert, dann sind Vorsicht und Skepsis gefordert.

Wann immer Politiker sich auf wissenschaftliche Ergebnisse stürzen, diese Ergebnisse in ihre Ideologie inkorporieren und sie ins Feld führen, um die Lauterkeit und die Gutheit der eigenen Ideologie und daraus folgenden Absichten zu belegen, sind nicht nur Vorsicht und Skepsis gefragt, was gefragt ist, mehr denn je, ist die Prüfung der angeblichen Wahrheit.

Die Begründungen für diese drei simplen Regeln sind einfach:

Wissenschaft findet keine Wahrheit. Das Beste, was es geben kann, sind gut bestätigte Theorien, auf denen man sich aber nicht wirklich ausruhen kann, wie man am Beispiel der Äthertheorie schnell sehen kann. Kaum ein Physiker des 18. Jahrhunderts hätte an der Äthertheorie gezweifelt. Licht war erstmals als elektromagnetische Welle beschrieben worden. Die Wellentheorie verlangte, dass Wellen sich durch ein Medium verbreiten, ergo musste sich auch Licht durch ein Medium verbreiten: den Äther. Und dann kamen Albert A. Michelson und Edward E. Morley und haben die Äthertheorie in Experimenten als falsch erwiesen.

Deshalb ist es wichtig, dass Wissenschaftler selbst dann, wenn Sie denken, eine gut bestätigte Theorie gefunden zu haben, versuchen, die Theorie zu widerlegen. Nur so funktioniert Erkenntnisfortschritt. Nur so kann man falsche Theorien ausmerzen. Deshalb ist es unglaublich und mit wissenschaftlicher Erkenntnissuche nicht vereinbar, wenn Wissenschaftler oder Forscher, die nachvollziehbare und begründete Zweifel an einer vom Mainstream als gut begründet angesehenen Theorie anmelden, ausgegrenzt werden, lächerlich gemacht werden, als Häretiker abgestempelt werden. Und es ist vor allem seltsam, denn: Wenn die so gut bestätigte Theorie tatsächlich so gut bestätigt ist, wie behauptet, dann sollte es ein Leichtes sein, Kritik als falsch auszuweisen, sie zu widerlegen. Warum sollte man einen Angriff auf die Person des Kritikers starten, einen ad-hominem-Fehlschluss begehen, wenn man sicher ist, im Besitz der besseren Theorie zu sein?

Schließlich ist es mit Wissenschaft überhaupt nicht zu vereinbaren, wenn ihre Ergebnisse nicht nur zur Wahrheit erklärt, sondern in politische Ideologien eingebaut und entsprechend missbraucht werden. Fast immer, wenn Politiker sich wissenschaftlicher Erkenntnisse bemächtigen, ist der Missbrauch gewiss. Erst wird die Theorie als Teil der eigenen Ideologie inkorporiert, dann wird sie zur Grundlage des gesellschaftlichen Heils erklärt, das die Politdarsteller gleich welcher Couleur zu bringen versprechen, dann werden Maßnahmen umgesetzt, Strukturen und Netzwerke der gegenseitigen Abhängigkeit geschaffen und am Ende ist eine Industrie vorhanden, deren Mitglieder ausschließlich auf Grundlage angeblicher wissenschaftlicher Ergebnisse stehen und dafür von Steuerzahlern fürstlich entgolten werden. Die Global Warming / Klimawandel-Industrie wurde bereits 2015 von der Washington Post als 1,5 Billionen US-Dollar: 1.500.000.000.000 US-Dollar-Industrie geschätzt.

Wenn sich derart immense wirtschaftliche Interessen mit einer angeblichen wissenschaftlichen Wahrheit verbinden und die angebliche wissenschaftliche Wahrheit, in deren Besitz man sich wähnt, zur Grundlage von inszenierten Kampagnen wie z.B. #FridaysForFuture oder dem Global Warming-Konferenz-Tourismus wird, wenn die angebliche wissenschaftliche Wahrheit genutzt wird, um Medien gleichzuschalten und eine öffentliche Mainstream-Meinung zu inszenieren, die jeden der zweifelt, zum Irren oder zum Verschwörungstheoretiker oder zu beidem erklärt, dann müssten bei Wissenschaftlern eigentlich alle Alarmglocken läuten, vielleicht tun sie das auch, aber das führt bei den meisten nicht dazu, dass sie das, was zwischenzeitlich Wahrheit geworden sein soll, obwohl es nur ein sehr wackeliges Ergebnis ist, das auf einer Vielzahl von Annahmen und Ausblendungen basiert, nicht in Frage stellen, hat mehrere Gründe:

Erstens sind Wissenschaftler sehr zurückhaltend, wenn Forschungsergebnisse die Gefahr mit sich bringen, ihre früheren Forschungsergebnisse in Frage zu stellen. Die meisten wollen sich nicht selbst korrigieren.

Zweitens sind Wissenschaftler, die in einem Bereich arbeiten, der zur Mainstream-Wahrheit erklärt und zum Bestandteil politischer Ideologie geworden ist, in der Regel so tief in Netzwerke verstrickt, profitieren so sehr von ihrer regelmäßigen Bestätigung der angeblichen Wahrheit, dass auch ökonomische Gründe der wissenschaftlichen Lauterkeit entgegen stehen.

Drittens sind Wissenschaftler zumeist in öffentlichen Institutionen angestellt, die von genau den Politdarstellern abhängig sind, die in z.B. der Wahrheit des Global Warming schwelgen. Kritik bringt sie nicht nur in Gegensatz zu diesen, sie schafft auch die Möglichkeit für den opportunistischen Rest der wissenschaftlichen Konkurrenz, sich im Kampf um Professuren oder öffentliche Fördergelder einen Vorteil durch Anbiederung zu verschaffen.

Das alles sind Strukturen, die der Wissenschaft schaden.

Nicht nur aus diesem Grund haben wir uns entschlossen immer einmal wieder Wissenschaftler zu Wort kommen zu lassen, die eine andere Sicht auf das haben, was zur Wahrheit erklärt wurde. Schließlich ist auch das geozentrische Weltbild lange Zeit als Wahrheit verkauft, seine Kritiker zuweilen verbrannt worden. Und wo wären wir heute, ohne mutige Männer wie Galileo Galilei.

Im Folgenden präsentieren wir ein Video von Ben Davidson, den man als Erich von Däneken der Klimaforschung bezeichnen könnte. Und so wie von Däniken mit seinen Ideen die Vertreter der Archäologie wieder und wieder in Erklärungsnot bringt, so bringt Davidson diejenigen, die die Theorie des Global Warming als Wahrheit ausgeben und CO2 zum Todbringer des Planeten erklärt haben, in Erklärungsnot. Das folgende Video ist leider in englischer Sprache. Vielleicht finden wir in absehbarer Zeit eine Möglichkeit, es zu übersetzen.

Bis dahin wollen wir denjenigen, die der englischen Sprache nicht mächtig sind, zumindest das Folgende mit auf den Weg geben.

Links sehen Sie die von der Sonne ausgehenden Einflüsse auf das Erdklima, die in den herkömmlichen Klimamodellen berücksichtigt werden.

Rechts sehen Sie die entsprechenden Einflüsse, von denen ein belegter Effekt auf das Klima der Erde ausgeht.

Quelle: https://www.youtube.com/watch?v=NYoOcaqCzxo (Standbild)

Der Unterschied ist frappierend und erklärungsbedürftig. Vor allem ist erklärungsbedürftig, warum Effekte, die von der Sonne ausgehen, von Sonnenstürmen oder vom Sonnenwind, in herkömmlichen Klimamodellen zu menschengemachten Effekten werden, die Global Warming hervorbringen.

Wenn man das Video von Davidson gesehen hat, dann kann man den Eindruck gewinnen, Global Warming und die derzeitige Hatz auf CO2 sei ein großer inszenierter Hoax. Aber sicher werden Mainstream-Wissenschaftler erklären, warum die ARGUMENTE, die Davidson vorbringt, FALSCH sind, sofern sie Wissenschaftler sind, die sich der wissenschaftlichen Methode bedienen, die es vorsieht, Kritik zu prüfen und ihr argumentativ zu begegnen, was diejenigen, die Kritik wie die von Davidson in Bausch und Bogen als Verschwörungstheorie oder was auch immer abtun wollen, erstens als Nicht-Wissenschaftler ausweist und zweitens als armselige Gläubige, die ihren Glauben nicht einmal gegen einfach Argumente wie die, die Davidson vorbringt, verteidigen können.

Wohlgemerkt, wir sprechen hier von Wissenschaftlern, nicht von Aktivisten oder Politikdarstellern, die in der Regel eine Kompression nicht von einer Regression unterscheiden können und bar jeder Idee sind, was in einem Klimamodell eigentlich passiert, was wie berechnet wird.

Und nun viel Spaß mit Ben Davidson (und wir sind schon gespannt auf die Erklärungen dafür, warum das alles falsch ist/sein soll).

Mit freundlicher Genehmigung von Sciencefiles.




Kritik an einer neuen Studie von Santer et al. (2019)

Abbildung 1: aus Santer et al. (2019)

Die Ergebnisse ihrer Studie zeigt Abbildung 1. Es ist keine Graphik der Temperatur, sondern eines geschätzten Verhältnisses zwischen „Signal und Rauschen“. Die horizontale Linie repräsentiert Sigma-Einheiten, die man – falls das zugrunde liegende statistische Modell korrekt ist – interpretieren kann als die Punkte, an welchen der Schweif der Verteilung sehr klein wird. Wenn also die Linie ein Sigma-Niveau passiert, ist das „Signal“ anthropogener Erwärmung aus dem „Rauschen“ der natürlichen Variabilität im passenden Umfang hervorgetreten. Sie berichten, dass die 3-Sigma-Grenze einen p-Wert von 1/741 aufweist, während die 5-Sigma-Grenze einen p-Wert von 1/3,5 Millionen hat. Da alle Linien die 5-Sigma-Marke bis 2015 überqueren, folgern sie, dass die anthropogene Auswirkung auf das Klima definitiv gefunden ist.

Ich möchte hier vier Aspekte dieser Studie ansprechen, welche die Schlussfolgerungen erheblich schwächen: (a) die Differenz zwischen der Existenz eines Signals und der Größenordnung der Auswirkung, (b) die verwirrende Natur ihres experimentellen Designs, (c) das invalide Design ihres Nur-Natur-Vergleichsparameters und (d) Probleme bei der Relation von „Sigma“-Grenzen und Wahrscheinlichkeiten.

(a) Existenz eines Signals vs. Größenordnung der Auswirkung

Nehmen wir einmal an, wir stellen einen alten Analog-Radioempfänger auf ein schwaches Signal einer weit entfernten Radiostation ein. Mittels Verschieben des Senderknopfes bekommt man vielleicht ein Signal, das gut genug ist um zu erkennen, dass eine Komposition von Bach gespielt wird. Aber die Stärke des Signals sagt nichts über das Tempo der Musik; das ist eine andere Berechnung.

In gleicher Weise sagt uns obiges Diagramm nichts über die Größenordnung der Auswirkung von Treibhausgasen auf die Temperatur und das Klima. Es zeigt nur zweierlei: Eine Maßzahl der Rate, wie sich die Korrelation zwischen Beobachtungen und Modellergebnissen, getrieben durch natürliche und anthropogene Antriebe mit der Zeit, verbessert, dividiert durch eine Maßzahl der Standardabweichung der gleichen Maßzahl unter einer „Null-Hypothese“ einer (vermeintlich) rein natürlichen Variabilität. In dieser Hinsicht ist es wie eine t-Statistik [?], die ebenfalls in Sigma-Einheiten gemessen wird. Da es keine Verbesserung mit der Zeit geben kann im Fit zwischen den Beobachtungen und dem natural-only comparator*, führt jede Verbesserung des Signals zu einer Erhöhung des Sigma-Niveaus.

[*Eine passende Übersetzung ist schwer. Weiter unten ist der Terminus übersetzt worden mit „nur-natürlich-Komparator“. Bessere Vorschläge seitens der Leserschaft sind willkommen. Anm. d. Übers.]

Selbst falls man Abbildung 1 als Nominalbeitrag akzeptiert, ist sie konsistent mit einer sehr hohen oder sehr geringen Sensitivität bzgl. Treibhausgasen – oder irgendwo dazwischen. Sie ist beispielsweise konsistent mit den Ergebnissen von Christy and McNider, welche ebenfalls auf Satellitendaten basieren, dass nämlich die Sensitivität bei Verdoppelung der Treibhausgase viel geringer ist als typischerweise von den Modellen simuliert.

(b) Verwirrtes Signal-Design

Der Begleitinformation zufolge zogen Santer et al. jährlich gemittelte Klimamodell-Daten auf der Grundlage historischer Antriebe und auf dem (RCP8.5)-Szenario basierende natürliche und anthropogene Antriebe heran und konstruierten daraus eine Temperatur-Zeitreihe der mittleren Troposphäre. Diese enthielt auch eine Adjustierung für stratosphärische Abkühlung (d. h. eine „Korrektur“). Sie mittelten alle Modelle und Modellläufe, vernetzten die Daten in 10 Grad X 10 Grad-Gitterboxen (insgesamt 576, wobei die Polargebiete außen vor blieben) und extrahierten daraus 40 jährliche Temperatur-Anomalien für jede Gitterbox im Zeitraum 1979 bis 2018. Aus diesen extrahierten sie einen räumlichen „Fingerabdruck“ des vom Modell erzeugten Klima-Musters unter Anwendung einer wesentlichen Komponenten-Analyse aka empirischer Orthogonal-Funktionen. Man kann es sich vorstellen als ein gewichtetes zeitliches Mittel der Anomaliewerte für jede Gitterbox. Obwohl es in der Studie oder in der Begleitinformation nicht gezeigt wird, sieht das Muster so aus (die Graphik stammt aus einer separaten Studie):

Abbildung 2: Räumliches Muster eines Fingerabdrucks

Die grauen Bereiche in Abbildung 2 über den Polen repräsentieren außen vor gelassene Gitterboxen, da nicht alle Satelliten-Reihen auch die Pole abdecken. Die Farben markieren PC „loadings“ [?] und nicht Temperaturen, aber da das erste PC etwa 98% der Varianz erklärt, kann man sie als mittlere Temperaturanomalien betrachten, ohne zu weit abzuschweifen. Folglich ist das Fingerabdruck-Muster ein solches von verstärkter Erwärmung in den Tropen mit lokalen Abweichungen hier und dort.

Dies ist das Muster, mit dem sie die Beobachtungen korrelieren wollen als ein Verfahren, um den anthropogenen „Fingerabdruck“ aufzuspüren. Aber in den Modellen ist es verbunden mit sowohl natürlichen als auch anthropogenen Antrieben zusammen im Zeitraum 1979 bis 2018. Sie bezeichnen dies als HIST+8.5-Daten, was heißt, dass die Modellläufe bis 2006 mit historischen Antrieben (sowohl natürlich als auch anthropogen) liefen und danach nur noch mit Antrieben gemäß dem RCP8.5-Szenario. Die Schlussfolgerung der Studie lautet, dass die Beobachtungen jetzt den in obiger Abbildung dargestellten Verhältnissen ähneln als eine Null-Hypothese („Nur natürliche Antriebe“) – ergo: anthropogener Fingerabdruck entdeckt. Aber HIST8.5 ist ein kombinierter Fingerabdruck, und tatsächlich haben sie den anthropogenen Anteil nicht herausgefiltert.

Sie haben also keineswegs einen eindeutigen anthropogenen Fingerabdruck identifiziert. Was sie entdeckt haben ist, dass Beobachtungen besser zu Modellen passen, wenn sie ein Erwärmungsmuster wie in Abbildung 2 enthalten, unabhängig von den Gründen, als jene, die das nicht enthalten. Es kann sein, dass ein Graph, welcher das ausschließlich anthropogene Signal darstellt, so aussehen würde wie in Abbildung 1, aber aus ihrer Analyse geht das in keiner Weise hervor.

(c) Invalider nur-natürlicher Komparator

Obiges Argument würde eine geringere Rolle spielen, falls der „nur-natürliche“ Komparator als Treiber der Erwärmung durch natürliche Antriebe fungieren würde. Aber das ist konstruktionsbedingt nicht der Fall.

Das Fingerabdruck-Verfahren beginnt damit, die beobachtete räumliche Verteilung von Temperaturanomalien heranzuziehen und diese mit dem Muster in Abbildung 2 oben zu korrelieren, wobei sich ein Korrelations-Koeffizient für jedes Jahr ergibt. Dann betrachten sie den Trend jener Korrelations-Koeffizienten als Maßzahl dafür, wie gut der Fit mit der Zeit wird. Die Korrelationen selbst werden weder in der Studie noch in den Begleitinformationen angesprochen.

Danach konstruieren die Autoren ein „Rauschen“-Muster, welches als „nur-natürlich“ dienen soll, entgegen den Fakten in obigem Diagramm. Sie beginnen mit der Auswahl von 200-Jahre-Kontrollläufen von 36 Modellen und teilen sie in das gleiche 10 X 10-Format ein. Vielleicht werden sie über alles mitteln, aber erst wird jede Gitterbox in jedem Modell trendbereinigt, was ich als fehlerhaften Schritt betrachte.

Alles hängt davon ab, wie valide der Komparator der natürlichen Variabilität ist. Man gibt uns keine Erklärung, warum die Autoren glauben, dass es eine glaubwürdige Analogie ist zu natürlichen Temperatur-Mustern, die assoziiert sind mit nicht-anthropogenen Antrieben nach 1979. Das ist fast mit Sicherheit nicht der Fall. Die Summe der Vulkan- und Solar-Reihe nach 1979 im AR 5 des IPCC sieht so aus:

Abbildung 3: Natürliche Antriebe laut IPCC von 1979 bis 2017

Dies impliziert eindeutig, dass natürliche Antriebe eine insgesamte Erwärmung induziert hätten über das Stichproben-Intervall, und da die tropische Verstärkung unabhängig von der Art des Antriebs erfolgt, würde eine räumliche „nur-natürlich“-Verteilung wahrscheinlich so aussehen wie Abbildung 2. Aber mit der Trendbereinigung jeder Gitterbox haben Santer et al. derartige Muster eliminiert und den geschätzten natürlichen Komparator nach 1979 künstlich verschlechtert.

Die Schlussfolgerungen der Autoren hängen entscheidend von der Hypothese ab, dass ihre Schätzung aufgrund der „natürlichen“ Modell-Variabilität plausibel repräsentiert, wie es von 1979 bis 2018 ohne Treibhausgase ausgesehen hätte. Die Autoren betonen die Bedeutung dieser Hypothese in ihren Begleitinformationen (Seite 10):

Unsere Hypothese hinsichtlich der Angemessenheit unserer Schätzungen bzgl. der Modell-Variabilität ist entscheidend. Beobachtete Temperaturaufzeichnungen sind simultan beeinflusst sowohl von interner Variabilität als auch von multiplen externen Antrieben. Wir verfolgen nicht die „reine“ interne Variabilität, so dass es immer etwas nicht reduzierbare Unsicherheit bei der Unterteilung der beobachteten Temperaturaufzeichnungen in intern und extern getriebene Komponenten geben wird. Alle Vergleiche der beobachteten Variabilität mit derjenigen in den Modellen sind beeinflusst durch diese Unsicherheit, vor allem in weniger gut aufgezeichneten Zeitmaßstäben vieler Jahrzehnte“.

Wie sie sagen, jede Studie zur Erkennung von Fingerabdruck und Signalen ist abhängig von der Qualität des „nur-natürlich“-Komparators. Unglücklicherweise haben sie durch die Trendbereinigung ihrer Kontrollläufe Gitterbox für Gitterbox so ziemlich sichergestellt, dass das Muster der natürlichen Variabilität als ein Komparator künstlich degradiert wird.

Das ist so, als ob man von einem Bankräuber wüsste, dass er ein 1,80 Meter großer Mann ist und die Polizei ihre bevorzugten Verdächtigen in eine Linie mit kleinen Frauen stellen würde. Man könnte eine vertrauenswürdige Zeugen-Identifikation bekommen, aber man wüsste nicht, ob diese valide ist.

Was alles noch viel schlimmer macht, die Treibhausgas-beeinflusste Erwärmung stammt aus Modellen, welche so frisiert worden sind, dass sie zu grundlegenden Aspekten der beobachteten Erwärmungstrends des 20. Jahrhunderts passen. Während dies in der mittleren Troposphäre weniger eine Rolle spielen würde als an der Oberfläche, gäbe es dennoch die teilweise Verstärkung der Gleichheit zwischen Modellsimulationen und Beobachtung infolge nachträglicher Manipulation.

[Anmerkung des Übersetzers: Es folgen noch mehrere detaillierte Darstellungen und Vergleiche zwischen den Parametern, die nur für Fachleute klar durchschaubar sind. Dazu beschreibt der Autor die Entwicklung eines eigenen Modells. Alles läuft darauf hinaus, dass Santers Studie wieder einmal viel verschleiert und nichts enthüllt. Dies geht auch aus der Bewertung des Autors am Ende des Beitrags hervor:]

Schlussfolgerungen

Die Tatsache, dass die t-Statistik von anthro in meinem Beispiel auf ein tiefes Niveau fällt, „beweist“ nicht, dass anthropogene Antriebe keine Auswirkungen auf die Temperatur haben. Sie zeigt aber, dass im Rahmen meines Modells die Auswirkungen nicht signifikant sind. …

Und das liegt in der Natur der Sache statistischer Modellierungen: sie beruhen auf Spezifikationen und Hypothesen. …

Weil ich also genug Gründe habe, die Validität des Modells von Santer et al. zu bezweifeln, akzeptiere ich auch nicht ihre Schlussfolgerungen. Sie haben nicht das gezeigt, was sie sagen gezeigt zu haben. Im Einzelnen haben sie keinen eindeutigen anthropogenen Fingerabdruck identifiziert oder eine glaubwürdige Berücksichtigung der natürlichen Variabilität vorgelegt. Auch haben sie nicht den Gebrauch von Gauss’schen p-Werten gerechtfertigt. Ihre Behauptung, einen „goldenen Standard“ von Beweisen erhalten zu haben, ist unberechtigt, teils schon deswegen, weil statistische Modellierung das niemals ergeben kann, und teils wegen der spezifischen Probleme in ihrem Modell.

Link: https://judithcurry.com/2019/03/01/critique-of-the-new-santer-et-al-2019-paper/

Übersetzt von Chris Frey EIKE




Klimawandel-Modelle sind Ramsch

Modelle, die etwas vorhersagen sollen, basieren auf einer Vielzahl von Annahmen über Zusammenhänge. Diese Annahmen können entweder auf Basis von vergangenen Beobachtungen aufgestellt werden. Oder sie können das Ergebnis dessen sein, was Wissenschaftler gemeinhin „Tuning“ nennen, das Anpassen eines eigenen Modells, so dass das berechnete Ergebnis aktuellen Daten entspricht. Mit diesem Tuning verbindet sich dann die Hoffnung, wir würden sagen: der induktive Fehlschluss, dass auf der Grundlage des so formulierten Modells auch die Zukunft berechnet werden kann.

Damit sind wir bei den Modellen angekommen, die die Zukunft der Erde berechnen wollen, die angeblich in der Lage sind, die Erwärmung der Erde auf das zehntel Grad Celsius genau zu berechnen und den höheren Wasserstand der Meere auf zwei Stellen hinter dem Komma genau.

Das alles ist natürlich Humbug, eine große Verdummungsaktion, und zwar aus den Gründen, die wir nunmehr zusammenstellen. Wir stützen uns dabei u.a. auf die folgenden Arbeiten:

  • Frank, Patrick (2015). Negligence, Non-Science, and Consensus Climatology. Energy & Environment 22(4): 407-424.
  • Frank, Patrick (2011). A Climate of Belief.
  • Michael Limburg (2014) Neuer systematischer Fehler bei Anomalien der globalen Zeitreihe der Mitteltemperatur
  • Henderson, David R & Hooper, Charles L. (2017). Flawed Climate Models. Defining Ideas.
  • Michaels, Patrick J., Lindzen, Richard & Knappenberger, Paul C. (2015). Is there no „Hiatus“ in Global Warming After All? 
  • Semenov, Vitaly & Bengtsson, Lennart (2002). Secular Trends in Daily Precipitation Characteristics: Greenhouse Gas Simulation with a Coupled AOGCM. Climate Dynamics 19(2): 123-140.
  • Soon, Willie, Baliunas, Sallie, Idso, Sherwood B., Kondratyev, Kirill Ya & Posmentier, Eric S. (2001). Modeling Climate Effect of Anthropogenic Carbon Dioxide Emissions. Unknowns and Uncertainties. Climate Research 18(2): 259-275.
  • Voosen, Paul (2016). Climate Scientists Open-up Their Black Boxes to Scrutiny. Science 354(6311): 401-402.

Stellen wir ein Beispiel voran (mit Dank an David R. Henderson und Charles L. Hooper)

Stellen Sie sich vor, Sie seien Trainer eines 400-Meter-Läufers. Zu Beginn des Trainings läuft ihr Schützling die 400 Meter in 56 Sekunden. Am Ende einer Trainings-Session von 30 Wochen ist ihr Schützling schneller, nunmehr stoppen Sie die beste Zeit mit 53 Sekunden. Die Stoppuhr, die Sie nutzen, hat einen Fehlerbereich von ±0,1 Sekunden. Ihr eigener Fehler aufgrund ihrer Reaktionszeit beträgt ±0,2 Sekunden. Der Fehler ist somit geringer als die Zeitverbesserung von 3 Sekunden. Daraus kann man schließen, dass sich ihr Schützling tatsächlich verbessert hat. Nunmehr wollen Sie die Verbesserung zur Grundlage einer Prognose machen und darüber hinaus die tägliche Verbesserungsrate berechnen. In sechs Monaten hat sich Ihr Schützling um 3 Sekunden verbessert, was einer wöchentliche Verbesserung von 0,1 Sekunden entspricht (3 Sekunden in 30 Wochen). Damit wird die wöchentliche Verbesserung unmessbar, denn sie wird durch den Fehlerbereich der Stoppuhr (±0,1 Sekunden) und ihre Reaktionszeit (±0,2 Sekunden) vollständig aufgezehrt.

Was hat das mit Klimawandelmodellen zu tun? Nun, die Meister der Klimamodelle wollen uns, um im Bild zu bleiben, nicht nur erzählen, sie wären in der Lage, die wöchentliche Verbesserung zu messen, sie wollen uns erzählen, sie seien in der Lage eine tägliche Verbesserung von 0,00005 Sekunden zu messen, obwohl bereits der Fehler durch die Reaktionszeit ±0,2 Sekunden beträgt.

Klimawandel-Modelle sind eben Junk. Die ausführliche Begründung folgt nun:

Messfehler

Patrick Frank und Michael Limburg haben in ihren Beiträgen aus dem Jahre 2011 bzw. 2014 gezeigt, dass die Temperaturangaben, die Grundlage der Klimamodelle sind, fehlerhaft sind, da sie keinerlei Messfehler berücksichtigen. Frank hat dieses Versäumnis für einige Fehlerarten nachgeholt und für die Zeit von 1856 bis 2004 errechnet, dass allein diese Messfehler bereits mit einer Irrtumswahrscheinlichkeit von weniger als 5% innerhalb von 0,8 Grad Celsius ± 0,98 Grad Celsius liegt [Wissenschaftler, richtige Wissenschaftler geben die Qualität ihrer Modelle als Vertrauensbereich an]: Für die Zeit von 1856 bis 2004 wurde ein Anstieg der Temperatur der Erdatmosphäre von 0,8 Grad Celsius berechnet. Damit liegt der berechnete Anstieg innerhalb des Messfehlers. Ein Wissenschaftler muss daraus schließen, dass wir keine Grundlage haben, um überhaupt einen Anstieg der Erdtemperatur zwischen 1856 bis 2004 anzunehmen.

Dieser angenommene Anstieg der Temperatur in der Erdatmosphäre und der gleichzeitig erfolgende Anstieg der Konzentration von CO2 in der Atmosphäre um 40% hat dazu geführt, dass zwischen beiden eine Zusammenhangshypothese formuliert wurde. Bereits der oben dargestellte Messfehler, der schlicht nicht zu vermeiden ist, falsifiziert diese Hypothese, aber damit nicht genug, dann gibt es noch die Sonne.

 

Sonnenenergie

Pro Tag füttert die Sonne die Atmosphäre der Erde mit im Durchschnitt 342 Watt pro Quadratmeter an Energie. Patrick Frank hat den Energiebeitrag der Menschen durch die Freisetzung von CO2 mit 0,036 Watt pro Quadratmeter berechnet, das sind knapp 0,01% der durchschnittlichen Sonnenenergie. Wenn die Schätzung der Energie, die die Sonne täglich auf die Erde überträgt, auch nur um 0,01% falsch wäre, also 342,04 anstelle von 342 Wm-2 oder 341,96 Wm-2 auf der Erde aufkommen würden, dann wäre damit der gesamte anthropogene Klimaeinfluss vom Tisch gewischt. Klimawandel-Propheten wollen uns erzählen, ihre Modelle seien in der Lage, die Energie der Sonne auf einen Fehler von weniger als 0,01% genau zu berechnen. Dass dem so ist, ist unwahrscheinlicher als ein Lottogewinn für Sie am nächsten Samstag.

 

Wolkige Modelle

Für die Frage, wie viel Sonnenenergie auf die Erde auftrifft, sind Wolken von besonderer Bedeutung. Wolken blocken die Energie, die auf die Erde trifft und sie verhindern, dass Energie von der Erde ins Weltall entkommt. Die Frage, wie sich Wolken auf das Klima auswirken, eine grundlegende, wenn nicht die grundlegende Frage, die ein Klimamodell beantworten muss, ist indes vollkommen ungeklärt, was selbst das IPCC zugibt, ohne daraus jedoch eine Konsequenz zu ziehen.

Viele Wolken sorgen für eine kühlere Atmosphäre, wenige Wolken haben den gegenteiligen Effekt. Weil sich Wolken in unterschiedlichen Höhen bilden und in Schichten vorkommen, ist es sehr schwierig ihren Effekt auf das Klima zu berechnen, so schwierig, dass der mit der Berechnung einhergehende Fehler allgemein auf ±4,0 Wm-2 geschätzt wird. Das bedeutet, da der anthropogene Beitrag zur Gesamtenergie 0,036 Wm-2 beträgt, dass dann, wenn die Klimapropheten in ihren Modellen auch nur um einen Fehlerfaktor von 0,9% daneben lägen, 0,9% von ±4,0 Wm-2 sind 0,036 Wm-2, der gesamte anthropogene Effekt vom Tisch wäre. Klimamodell-Sophisten behaupten, sie wären in der Lage, so akkurate Modelle zu berechnen, dass sie nicht einmal einen Fehler von 0.9% begehen würden.

Kombiniert man alle Fehlerquellen, die sich mit Klimamodellen verbinden, dann ergibt sich eine Fehlerschätzung von 150 Wm-2, das ist das 4000fache des Energiebeitrags von anthropogenem C02. Übertragen auf das Eingangsbeispiel des 400-Meter-Läufers entspricht die Behauptung, man sei in der Lage, akkurate Vorhersagen der Entwicklung des Klimas zu machen, der Behauptung, man sei in der Lage, bei einem Messfehler von ±0,2 Sekunden die Leistungsentwicklung eines 400-Meter-Läufers auf 0,00005 Sekunden genau zu berechnen.

Das ist lächerlich, aber nicht lächerlich genug, als dass es Politiker glauben würden.

Damit nicht genug.

Willie Soon, Sallie Baliunas, Sherwood B. Idso, Kirill Ya Kondratyev und Eric S. Posmentier (2001) haben gezeigt, dass die Erwärmung, die für die Zeit von 1856 bis 2004 gemessen worden sein soll, hauptsächlich in einer Phase niedriger CO2-Konzentration in der Atmosphäre stattgefunden hat. Die höchste Erwärmung erfolgte, als die CO2-Konzentration ein Viertel der heutigen Konzentration betragen hat. Die oben formulierte Zusammenhangshypothese von Erderwärmung und CO2-Konzentration ist damit nicht vereinbar.

Patrick Frank (2015) hat am Beispiel von British Columbia gezeigt, dass dort in den ersten 20 Jahren des 20. Jahrhunderts eine Erwärmung um ein Grad Celsius stattgefunden hat. Im Verlauf der nächsten 40 Jahre hat sich die durchschnittliche Temperatur in British Columbia jedoch um 2 Grad Celsius reduziert, so dass British Columbia wieder beim Ausgangspunkt angekommen ist. Kein Klimawandel-Model ist auch nur ansatzweise in der Lage, diese Entwicklung zu replizieren.

Vitaly Semenov und Lennart Bengtsson (2002) haben untersucht, wie akkurat Klimamodelle Niederschlagsmengen vorhersagen können und sind zu dem Ergebnis gekommen, dass sie es überhaupt nicht können, offenkundig, weil Klimamodelle nicht in der Lage sind, den Effekt, den Wolken auf das Klima haben, richtig zu bestimmen.

Der Coup de Grace kommt mit der Frage, wie gut Klimamodelle bislang in der Lage waren, die Entwicklung des Klimas vorherzusagen. Die Antwort: miserabel. Fast alle Modelle haben mehr Erwärmung vorhergesagt als tatsächlich eingetreten ist. Für die Vorhersagen, die die Zeit von 1998 bis 2014 zum Gegenstand hatten, haben Patrick Michaels, Richard Lindzen und Paul Knappenberger (2015) gezeigt, dass die prognostizierte Erwärmung um das 2,2fache über der tatsächlichen Erwärmung lag. Dies wäre kein Problem für Klimamodelle, wenn die Modelle sich zufällig in ihren Vorhersagen verteilen würden. Das ist aber nicht der Fall. Vielmehr gibt es eine Systematik, denn 97,6% der Klimamodelle haben die Erwärmung überschätzt, lediglich 2,4% haben sie unterschätzt.

Die Modelle sind Müll (Junk) und in keinem Fall geeignet, um einen Einfluss von CO2 auf das Klima der Erde auch nur entfernt zu belegen.

Dass es dennoch eine breite Bewegung von Gläubigen gibt, dass man die Klimareligion als die erfolgreichste Sekte in moderner Zeit ansehen muss, ist somit erklärungsbedürftig und da die Erklärung nicht auf Rationalität, auf aktuelle Kenntnisse oder Wissen der Sektenmitglieder zurückgreifen kann, bleiben nur psychologische, vielleicht auch psychotherapeutische Ansätze, um diese Massenhysterie zu erklären.
[Oder (evolutions-)psychologische – Anmerkung d.Red., ARG]

Mit freundlicher Genehmingung von Sciencefiles.org .


Die Soziologen Michael Klein und Heike Diefenbach von Sciencefiles haben noch eine solide quantitative Statistik-Ausbildung von der Pike auf, mit Matrizenrechnung, linerarer Programmierung…  Insofern ist es für altgediente messende Soziologen kein Problem, die primitiven Klima-Modelle, die zumeist auf recht einfachen Gleichungen basieren, zu bewerten.
Qualitative Soziologen, die häufig nur eine oberflächliche Statistik-Ausbildung haben, können das nicht mehr. Die sehen wir dann freitags beim Demonstrieren….




Gegenwind – Trumps „Red Team“ bzgl. Klima formiert sich

Die Initiative des National Security Coucil [etwa: Nationaler Sicherheitsrat] NSC soll Wissenschaftler zusammenrufen und beauftragen, die Ernsthaftigkeit der Klimawissenschaft zu hinterfragen, ebenso wie das Ausmaß, in dem Menschen für Klimaprobleme verantwortlich sind. Das sagten drei namentlich nicht genannte Regierungsbeamte der Post. Weiter berichtete die Zeitung, dass der Plan von Regierungsbeamten im Lageraum des Weißen Hauses diskutiert worden ist. Es soll eine modifizierte Version des leitenden NSC-Direktors und Klimawandel-Leugners [?] William Happer sein. Damit soll ein Gremium bzgl. Klimawandel und nationale Sicherheit ins Leben gerufen werden.

Der NSC lehnte es ab, den Beitrag in der Post zu kommentieren.

Auf der Sitzung hat der stellvertretende Sicherheitsberater Charles Kupperman gesagt, dass Präsident Trump empört sei, dass die [US-]Bundesregierung im vorigen Jahr den National Climate Assessment [den nationalen Klimazustands-Bericht] veröffentlicht hatte. Darin wurde davor gewarnt, dass der Klimawandel verheerende Auswirkungen auf die Wirtschaft, auf Gesundheit und Umwelt haben könnte und dass die gegenwärtigen Bemühungen, dem Klimawandel zu begegnen, unzureichend seien.

———————-

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2019/02/25/pushback-trumps-climate-red-team-forms/

Übersetzt von Chris Frey EIKE




AGW: Ein verwor­renes Netz strangu­liert seine Schöpfer und Befür­worter

Die Herausgeber des Journals Nature haben das Journal ins Leben gerufen. Jenes Journal veröffentlichte alles, was es in die Finger bekam, um die betrügerische Wissenschaft zu verbreiten, welche die Grundlage der nicht überprüften AGW-Hypothese ist. Allerdings war man auch dort den Regeln und Verfahren unterworfen, welche für akademische Forschung und Veröffentlichungen verpflichtend waren. Das ist kein Problem, falls das Thema globale Erwärmung ein rein wissenschaftliches Thema wäre, aber das war es ja niemals. Es war von Anfang an eine politische Inanspruchnahme der Wissenschaft für eine politische Agenda. Der ursprüngliche Artikel stammte von einer Gruppe unter Leitung von Ben Santer, also von jemandem mit einer langen Historie inmitten des AGW-Betrugs.

Ein Artikel unter der Überschrift „Evidence that humans are responsible for global warming hits ‘gold standard’ certainty level“ gibt darüber Aufschluss, enthält aber auch den Kommentar von Santer, dass „das Narrativ, dass Wissenschaftler die Ursache des Klimawandels nicht kennen, falsch ist. Wir kennen die Ursache“. Es ist eine Fortsetzung seiner Arbeit, den Betrug immer weiterzutreiben. Er stellte seinen Kommentar auf die Grundlage, dass wir den Grund für Klimawandel kennen, und zwar aufgrund der Arbeit des IPCC. Dort betrachtete man ausschließlich menschliche Ursachen, und es ist unmöglich, das zu bestimmen, solange man den natürlichen Klimawandel nebst dessen Ursachen nicht kennt und versteht. Falls das der Fall wäre, wären Vorhersagen immer korrekt. Falls das der Fall wäre, bräuchte man Santer und all die anderen Forscher sowie Millionen Dollar nicht mehr

Warum also stellt Santer eine solche Behauptung auf? Aus dem gleichen Grunde wie alle Aktionen im AGW-Betrug: um einen Ansturm zu treiben, erzeugt durch die Dringlichkeit, die politische Agenda zu übernehmen. Es ist der klassische „Der Himmel fällt uns auf den Kopf“-Alarmismus. Santers Arbeit folgt dem jüngsten „Notfall“-Report des IPCC, welcher bei der COP 24 in Polen vorgestellt worden ist und dem zufolge uns noch 12 Jahre bleiben.

Eines der ersten Beispiele dieser Schöpfung einer ungenauen Wissenschaft zur verstärkten Betonung der Dringlichkeit war die Verweildauer von CO2 in der Atmosphäre. In einer Reaktion auf die Behauptung der Erfordernis dringender Maßnahmen haben viele Forscher darauf hingewiesen, dass das Niveau und die Steigerung desselben nicht hinreichend sei, um dringende Maßnahmen zu ergreifen. Mit anderen Worten, man lasse sich nicht vorschnell zu etwas hinreißen. Das IPCC reagierte darauf mit der Behauptung, dass selbst wenn jede Erzeugung von CO2 aufhören würde, das Problem noch Jahrzehnte lang bestehen würde wegen der Verweildauer von 100 Jahren von CO2 in der Atmosphäre. Aus einer von Lawrence Solomon erstellten Graphik geht jedoch hervor, dass die Verweildauer in Wirklichkeit 4 bis 6 Jahre betragen würde (Abbildung 1).

Abbildung 1

Dieses Muster der Betonung der Dringlichkeit durchzieht die gesamte Historie des AGW-Betrugs.

Lord Walter Scott sagte: „What a tangled web we weave when first we practice to deceive“ [etwa: „Was für ein verworrenes Netz wir weben, wenn wir zum ersten Mal Betrug praktizieren“]. Ein anderer großer Autor baute auf diesem Gedanken auf, jedoch aus einem anderen Blickwinkel. Mark Twain sagte: „Falls man die Wahrheit sagt, braucht man sich nicht zu erinnern“. In eigenartiger Weise widersprechen sie oder erklären zumindest, wie sich der Betrug ausbreiten, bestehen bleiben und sein verheerendes Ziel erreichen konnte. Das Netz wurde inzwischen so verworren und die Verbindungen der Netzfäden so kompliziert, dass die Menschen nie mehr sehen können, was passiert. Dies gilt besonders, wenn es bei dem Betrug um ein geheimnisvolles Thema geht, von dem die meisten Menschen gar nichts verstehen.

All diese Beobachtungen sind auf den größten Betrug aller Zeiten anwendbar, nämlich der Behauptung, dass menschlich erzeugtes CO2 globale Erwärmung verursacht. Das Ganze ist den meisten Menschen selbst heute noch unbekannt, und das ist ein Garant für den Erfolg des Betrugs. Das wirkliche Ziel war es zu beweisen, dass Überbevölkerung in Kombination mit industrieller Entwicklung die Ressourcen auf nicht nachhaltige Weise ausschöpfen würde. Maurice Strong erklärte, dass das Problem für den Planeten die industrialisierten Nationen sind, und warf die Frage auf, ob es nicht in unserer Verantwortung liege, diese loszuwerden. Die zugrundeliegende Hypothese war, dass CO2, ein Abfallprodukt bei der Verbrennung fossiler Treibstoffe, globae Erwärmung verursacht und die Erde zerstört. Sie mussten diese Verteufelung des CO2 unbedingt aufrecht erhalten, koste es, was es wolle, und hier beginnt das Weben des verworrenen Netzes.

Zu Beginn kontrollierten das IPCC und angeschlossene Agenturen die zwei maßgeblichen Variablen, nämlich Temperatur und CO2. Phil Jones verlieh dem Ausmaß der Kontrolle über die Temperatur Ausdruck in einer Antwort auf eine Anfrage von Warwick Hughes, welche Stationen herangezogen und wie diese in seiner Graphik adjustiert worden waren. Am 21. Februar 2005 erhielt er folgende Antwort:

„Wir haben rund 25 Jahre in die Arbeit investiert. Warum sollte ich Ihnen die Daten zur Verfügung stellen, wenn es doch Ihr Ziel ist herauszufinden, ob mit den Daten etwas nicht stimmt?“

Die Kontrolle über die globalen Temperaturdaten setzte sich fort bis zum Eintreffen der ersten Satellitendaten im Jahre 1978. Trotz aller Limitierungen ergab sich damit eine viel vollständigere Abdeckung, nämlich etwa 97% bis 98%. Dies steht im Vergleich zu den etwa 15% Abdeckung von Oberflächen-Daten.

Unabhängig von der Abdeckung mussten die Oberflächen-Daten zu den Satellitendaten passen, wie Abbildung 2 zeigt:

Abbildung 2

Dies verhinderte jedoch nur die Veränderung der letzten 41 Jahre der Aufzeichnung, nicht jedoch die Veränderung historischer Aufzeichnungen. Der Artikel von Dr. Marohasy ist lediglich eine weitere Illustration des Musters. Tony Heller führte die vollständigste Analyse der zugefügten Adjustierungen durch. Jene, welche die Veränderungen vorgenommen haben behaupten, wie sie es auch auf die Herausforderung von Marohasy getan haben, dass die Korrekturen notwendig und Instrumentenfehlern, Aufstellungsorten und Änderungen der Umgebung geschuldet waren wie etwa dem UHI-Effekt. Das Problem ist jedoch, dass diese Änderungen ausnahmslos nur in eine Richtung gingen, nämlich die historischen Aufzeichnungen niedriger darzustellen. Dies verändert den zeitlichen Gradienten der Temperaturänderung dahingehend, dass die Stärke und die Rate der Erwärmung verstärkt wird. Eines der ersten Beispiele derartiger Adjustierungen ist die Aufzeichnung von Auckland in Neuseeland (Abbildung 3). Man beachte die Überlappung während der letzten Jahrzehnte:

Abbildung 3

Das IPCC übte die Kontrolle auf die CO2-Aufzeichnungen von Anfang an aus, und das ist auch heute noch so. Sie ziehen die Aufzeichnung vom Mauna Loa heran sowie Daten von anderen Messpunkten mit ähnlicher Instrumentierung und Verfahren als Grundlage für ihre Behauptungen. Charles Keeling, einer der frühesten Befürworter von AGW, wurde von Roger Revelle entdeckt und an das Scripps-Institut berufen. Jawohl, das ist das gleiche Heiligtum, welches Al Gore in seinem Film An Inconvenient Truth glorifiziert hat. Keeling etablierte eine CO2-Messstation, welcher der Standard für das IPCC ist. Das Problem ist, dass der Mauna Loa ein Vulkan aus ozeanischer Kruste ist, dass die Lava nicht so zähflüssig und gasreicher ist als bei kontinentalen Vulkanen wie etwa dem Ätna. Eine Dokumentation mit dem Titel Future Frontiers: Mission Galapagos erinnerte mich an Studien vom Ätna vor Jahren, welche zeigten, wie sehr CO2 aus dem Boden stieg – Hunderte von Kilometern rund um den Krater. Die Dokumentation ist zwar der übliche „Die Menschen zerstören den Planeten“-Unsinn. Aber an einer Stelle tauchen sie in das Wasser rund um eine massive Vulkaninsel und waren erstaunt, wie deutlich sichtbar CO2 von überall aus dem Ozeangrund drang.

Charles Keeling ließ sich seine Instrumente und die angewendeten Verfahren patentieren. Sein Sohn Ralph setzte seine Arbeit am Scripps Institute fort und ist Mitglied im IPCC. Sein jüngster Auftritt in den Medien involvierte eine alarmistische Studie mit einem kapitalen Fehler – einer Überschätzung um 60%. Abbildung 4 zeigt ihn mit der PR-Meisterin des IPCC-Narrativs Naomi Oreskes:

Abbildung 4

Abbildung 5 zeigt das gegenwärtige CO2-Niveau am Mauna Loa. Es zeigt sich eine stetige Zunahme seit 1958 mit der jahreszeitlichen Variation:

Abbildung 5

Diese Zunahme erfolgt kontinuierlich 41 Jahre lang, was bemerkenswert ist, wenn man längerfristigere Aufzeichnungen betrachtet. Zum Beispiel zeigt der Eisbohrkern aus der Antarktis eine bemerkenswerte Variabilität (Abbildung 6):

Abbildung 6

Die Eisbohrkern-Aufzeichnung stammt aus Bläschen, deren Entstehung mindestens 70 Jahre dauert. Dann wird ein geglättetes 70-Jahre-Mittel angebracht. Die Kombination entfernt den größten Teil der Variabilität, und das eliminiert jede Chance, das Ergebnis zu verstehen und einzuordnen.

Abbildung 7 zeigt das Ausmaß der Glättung. Sie enthält einen Vergleich über 2000 Jahre Messungen von CO2 mittels zwei unterschiedlichen Messverfahren. Man erkennt den Unterschied in der Variabilität, aber auch den Unterschied des Gesamtniveaus in der Atmosphäre, der zwischen etwa 260 und 320 ppm schwankt:

Abbildung 7

Allerdings gibt es auch eine Aufzeichnung aus jüngerer Zeit, welche ähnliche Differenzen zeigt hinsichtlich Variation und Gesamtmenge (Abbildung 8). Daraus geht klar hervor, dass das IPCC die Aufzeichnung so geglättet hat, dass es die CO2-Aufzeichnung kontrolliert. Die gepunktete Linie zeigt die Eisbohrkern-Aufzeichnung aus der Antarktis und wie die Mauna-Loa-Kurve erzeugt worden war, um den geglätteten, aber ungenauen Verlauf fortzusetzen. Zbigniew Jaworowski, ein Atmosphären-Chemiker und Eisbohrkern-Spezialist erklärt, was mit den CO2-Messungen in Eisbohrkernen nicht stimmt. Sein entsprechender Artikel ist betitelt mit „CO2: The Greatest Scientific Scandal of Our Time“. Natürlich griff man ihn an, aber dennoch hielten die UN seine Qualifikationen und Fähigkeiten für so gut, dass sie ihn zum Leiter der Untersuchungsgruppe beriefen, welche die Tschernobyl-Katastrophe untersuchen sollte.

Überlagert ist in der Abbildung die Graphik von über 90.000 Atmosphären-Messungen von CO2, welche im Jahre 1812 begonnen hatten. Die Veröffentlichung des Sauerstoffniveaus in der Atmosphäre löste die Sammlung von CO2-Daten aus. Die Wissenschaft wollte den prozentualen Anteil aller Gase in der Atmosphäre erfassen. Man war nicht interessiert an globaler Erwärmung oder irgendwelcher anderen Auswirkungen jener Gase – man wollte einfach genaue Daten haben, was das IPCC niemals vorhatte.

Abbildung 8

[Anmerkung von Blogbetreiber Anthony Watts: Ich ordne der Arbeit von Ernst Georg Beck in Abbildung 8 keine Genauigkeit zu, weil das chemische Verfahren fehleranfällig ist und die Messpunkte der Datengewinnung (zumeist im Bodenniveau von Städten) hoch variable CO2-Gehalte aufweisen. Man beachte die hohe Variabilität der Daten. – Anthony Watts.

Bemerkung des Übersetzers dazu: Diese Graphik von E. G. Beck hat er selbst später als fehlerhaft im Sinne von zu lokal beurteilt. Anm. d. Übers.]

Man wusste um diese Aufzeichnungen schon vor Jahrzehnten. Es war der Eisenbahn-Ingenieur Guy Callendar, der diese Aufzeichnung in Zusammenarbeit mit bekannten Namen der wissenschaftlichen Gemeinschaft vorgestellt hatte. Ernst-Georg Beck schrieb dazu:

„Die moderne Treibhausgas-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling. Sie folgt S. Arrhenius, wie später vom IPCC popularisiert“.

Callendar wählte willkürlich einen einheitlichen Datensatz aus, um zu behaupten, dass das mittlere Niveau bei 270 ppm lag. Er änderte die Steigung des Graphen von einer Zunahme in eine Abnahme (Abbildung 9). Jaworowski kreiste die von ihm gewählten Daten ein, aber ich habe die Trendlinien für alle Daten (rot) und Callendars Datenauswahl (blau) hinzugefügt:

Abbildung 9

Tom Wigley, Direktor der Climatic Research Unit (CRU) und einer der Väter von AGW, führte die Aufzeichnung 1983 in die Klima-Gemeinschaft ein, und zwar mit einem Beitrag in der Zeitschrift Climate Change mit dem Titel „The Pre-Industrial Carbon Dioxide Level“. Er behauptete auch, dass die Aufzeichnung ein vorindustrielles CO2-Niveau von 270 ppm ergeben. Man betrachte die Daten!

Das IPCC und dessen Unterstützer etablierten das vorindustrielle CO2-Niveau mittels Rosinenpickerei und Manipulation. Sie halten weiterhin den Finger auf die Angaben zum atmosphärischen Niveau mittels Kontrolle der Mauna Loa-Aufzeichnung, und sie kontrollieren die Daten der jährlichen menschlichen Erzeugung. Sie erklären das so:

Das IPCC hat die Task Force on Inventories (TFI) ins Leben gerufen, um das National Greenhouse Gas Inventory Programme (NGGIP) zu betreiben, welches diese Verfahren entwickeln soll. Die Parteien im UNFCCC sind überein gekommen, die IPCC-Leitlinien anzuwenden bei der Berichterstattung vor der Konvention.

Wie entwickelt das IPCC seine inventarisierten Leitlinien? Ernannte Experten aus der ganzen Welt entwerfen die Berichte unter Anwendung der IPCC-Verfahren, die dann zweimal extensiv begutachtet werden, bevor sie vom IPCC genehmigt werden. Dieses Verfahren stellt sicher, dass die größtmögliche Bandbreite von Standpunkten in die Dokumente einfließt.

Mit anderen Worten, sie behalten sich die letztendliche Entscheidung vor, welche Daten für ihre Berichte und als Input für ihre Computermodelle verwendet werden.

Das hat alles lange Zeit funktioniert. Allerdings, wie es mit allen Betrügereien der Fall ist, enthüllt selbst das verworrenste Netz irgendwann seine wahre Natur. Sie fahren fort, dass atmosphärische CO2-Niveau zunehmen zu lassen und dieses dann der Welt vorzuführen als bestätigt durch die Messungen am Mauna Loa. Allerdings ist ihnen durch die Ankunft von Satellitenmessungen die Kontrolle über die jüngsten Temperaturdaten entglitten. Sie können die CO2-Daten jetzt nicht mehr niedriger machen, weil dies ihren gesamten Betrug offensichtlich machen würde, und sie sind dazu verdammt, alles, was noch übrig ist von ihrem Betrug und ihren Manipulationen zu verewigen. Alles, was ihnen blieb, ist u. A. die Abwärts-Korrektur historischer Aufzeichnungen, die Bezeichnung globale Erwärmung in Klimawandel zu ändern und immer schärfere Bedrohungs-Szenarien zu erzeugen wie etwa die genannten 12 Jahre bis zum von Santer prophezeiten sicheren Untergang.*

[*Ross McKittrick hat die entsprechende Studie von Santer in einem eigenen Beitrag widerlegt. Dieser folgt demnächst hier beim EIKE in deutscher Übersetzung. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2019/03/03/anthropogenic-global-warming-agw-a-tangled-web-strangling-its-creators-and-proponents/

Übersetzt von Chris Frey EIKE




Schüleraufmärsche um den Planeten zu retten – Umweltsozialismus einer Unfreien Deutschen Jugend

von Diplom-Soziologe Michael Klein, Sciencefiles

Die DDR hatte – wie der Nationalsozialismus – eine lange Tradition des Missbrauchs von Kindern und Jugendlichen, die in eigens geschaffenen Organisationen zu Gesinnungssklaven des Staates erzogen wurden, denen schon früh, das, was Kinder und Jugendlichen eigentlich auszeichnen soll: Kreativität, abweichendes, zuweilen auch skurriles Denken, abtrainiert, die schon früh auf Gesinnungslinie gebracht werden sollten.

Öffentliche Aufmärsche von Pionieren oder FDJ haben dabei eine besondere Rolle gespielt. In Uniform und mit den richtigen Parolen ausgestattet, sind die Kinder und Jugendlichen zur Freude der SED-Parteispitze durch die Straße gezogen, so, wie im folgenden Bild.

Quelle: https://sciencefiles.org/2019/03/02/schuleraufmarsche-um-den-planeten-zu-retten-umweltsozialismus-einer-unfreien-deutschen-jugend/

Was sich seither geändert hat?

Die Parole.

Heute heißt es nicht mehr „Wir lernen und arbeiten für unsere Zukunft wie sie der XI. Parteitag [der SED] beschloß”, heute heißt es, wir schwänzen die Schule, um den Planeten zu retten, so, wie es im Pariser Abkommen beschlossen wurde.

Finden Sie das nicht auch verstörend?

Die Beobachtung, dass traditionelle Formen des politischen Protestes zu Claqueur-Aufmärschen werden, in denen die einzig richtige politische Handlung durchgesetzt werden soll, die zufällig auch eine Handlung ist, die linke Parteien durchsetzen wollen, machen wir nicht zum ersten Mal.

https://www.facebook.com/FridaysForFutureMainz/

Vor einiger Zeit haben wir schon festgestellt:

Heute finden wir in der Kategorie dessen, was in Medien als „Demonstrationen“ beschrieben wird, nicht nur Protest gegen politische Entscheidungen, sondern zunehmend eine Art von Veranstaltung, die darauf abzielt, Themen zu inszenieren, mit denen sich gerade kein politischer Protest verbindet, die zwischen Demonstranten und der politischen Klasse, an die sie sich richten, nicht umstritten sind: Gegen Rassismus, gegen Rechtsextremismus, für Zuwanderung, für LSBTxxx, immer häufiger gibt es angebliche Demonstrationen, die das Ziel verfolgen, die politische Arbeit der Regierungsfraktionen und in vielen Fällen auch die einiger Oppositionsparteien auf die Straße zu verlagern und öffentliche Unterstützung für Entscheidungen zu inszenieren, die im Parlament längst getroffen und im täglichen Leben längst umgesetzt sind.

Das ist keine Neuerung, aber eine für eine Demokratie bedenkliche Entwicklung, denn Demonstrationen wurden von Politikwissenschaftlern nicht ohne Grund als „unkonventionelle Form des politischen PROTESTES“ bezeichnet. Sie sind eines der wenigen Mittel, das Bürgern, die sich in Opposition zu politischen Entscheidungen befinden, die im Bundestag getroffen wurden, bleibt, um ihre Ablehnung der entsprechenden Entscheidungen zum Ausdruck zu bringen.

Die #FridaysForFuture Demonstrationen, die Schulschwänzen zur Form des zivilen Widerstands stilisieren und den „Planeten retten“ sollen, sind eine weitere Variante dieser inszenierten Straßenunterstützung für politische Ideologien, deren Ziel darin besteht, eine Vision der Zukunft auf Kosten der aktuell lebenden Menschen durchzusetzen. Der Verzicht, das, was Sozialismus erst zum richtigen Sozialismus macht, denn Angebot und Überfluss gibt es nur im Kapitalismus, er soll wieder salonfähig gemacht werden, und was eher geeignet, um Verzicht zu legitimieren als die vermeintlichen Interessen von Kindern und Jugendlichen ins Feld zu führen? Alle sozialistischen Systeme haben stets die Generationen gegeneinander auszuspielen versucht und es darauf angelegt, die Zukunft der Kinder vom Wohlverhalten der Eltern abhängig zu machen.

Und so verwundert es nicht, dass die Kinder, die Freitags in deutschen Städten gegen den Klimawandel demonstrieren, von dem sie vermutlich soviel wissen, wie der durchschnittliche Politiker der Grünen, nämlich fast nichts, von Politikern, deren Drecksarbeit sie machen, viel Zuspruch erfahren.

Bei all den konzertierten Aktionen an Freitagen in Berlin, Hamburg, Köln, Saarbrücken oder Mainz fragt man sich schon, wer die ganze Logistik, die Finanzierung für Plakate und Aufrufe, die Mobilisierung von Schülern und die Vernetzung der Teilnehmer organisiert und vor allem finanziert. Wie so oft, scheinen wir die einzigen zu sein, die sich fragen, wessen Parteiapparat, welche Organisation(en) im Hintergrund die Fäden ziehen.

So wie wir die einzigen zu sein scheinen, die es verstört, dass junge Menschen mit ihrem Leben nichts Besseres anzufangen wissen als dafür zu demonstrieren, dass Erwachsene eine bestimmte Politik umsetzen. Früh übt sich, wer als Untertan im Heer der Mitläufer verschwinden will, können wird dazu nur sagen: Wenn all die Schüler, die an Freitagen in Deutschland aufmarschieren, um für das, was sie für ihre Zukunft halten, zu demonstrieren statt diese Zukunft von anderen zu verlangen, ihre Hände und ihr Gehirn zusammennehmen würden, um diese Zukunft AKTIV zu gestalten, dann wäre sicher mehr erreicht, als damit erreicht werden kann, dass sie sich zu PASSIVEN Mitläufern im Dienste einer politischen und von anderen gesetzten Agenda machen.

Wenn sie sich hinsetzen würden, um die widersprüchlichen Meldungen über den menschengemachten Klimawandel aufzuarbeiten, die falschen Behauptungen von den bislang bestätigten wissenschaftlichen Fakten trennen würden, um sich ein klares Bild davon zu verschaffen, was es mit den Modellen zum menschengemachten Klimawandel auf sich hat, dann wäre ihrer Zukunft weit mehr gedient als dadurch, dass sie in kindischer Weise durch Städte skandieren, um zum Dank von der politischen Linken paternalisiert zu werden.

Und wenn unter den Schülern auch nur einige wenige wären, die das Rätsel lösen könnten, das Arthur B. Robinson, Noah E. Robinson und Willie Soon 2007 in einem Beitrag für das Journal of American Surgeons and Physicians wie folgt beschrieben haben, was wäre dann erst gewonnen:

“A review of the research literature concerning the environmental consequences of increased levels of atmospheric carbon dioxide leads to the conclusion that increases during the 20th and early 21st centuries have produced no deleterious effects upon Earth’s weather and climate. Increased carbon dioxide has, however, markedly increased plant growth. Predictions of harmful climatic effects due to future increases in hydrocarbon use and minor greenhouse gases like CO2 do not conform to current experimental knowledge.”

Nicht nur kommen die Autoren zu dem Ergebnis, dass die steigende CO2-Konzentration in der Atmosphäre kein Problem für die Erde darstellt, sie gehören auch zu den wenigen Autoren, die noch den Mut haben darauf hinzuweisen, dass die These, nach der CO2 einen erheblichen negativen Effekt auf die durchschnittliche Jahrestemperatur auf der Erde hat, eine nicht unwidersprochen gebliebene These ist, die zudem auf äußert wackeligen Beinen steht. Wahrscheinlicher und durch Daten besser gedeckt, ist eine alternative Hypothese, nach der die Konzentration von CO2 eine zunehmend reichere Pflanzenwelt zur Folge hat, dass die Erde nur deshalb so grün werden konnte, wie sie ist, weil genug CO2 in der Atmosphäre vorhanden war:

There are no experimental data to support the hypothesis that increases in human hydrocarbon use or in atmospheric carbon dioxide and other greenhouse gases are causing or can be expected to cause unfavorable changes in global temperatures, weather, or landscape. There is no reason to limit human production of CO2, CH4, and other minor greenhouse gases as has been proposed.

We also need not worry about environmental calamities even if the current natural warming trend continues. The Earth has been much warmer during the past 3,000 years without catastrophic effects. Warmer weather extends growing seasons and generally improves the habitability of colder regions. As coal, oil, and natural gas are used to feed and lift from poverty vast numbers of people across the globe, more CO2 will be released into the atmosphere. This will help to maintain and improve the health, longevity, prosperity, and productivity of all people.

[…]

Human use of coal, oil, and natural gas has not harmfully warmed the Earth, and the extrapolation of current trends shows that it will not do so in the foreseeable future. The CO2 produced does, however, accelerate the growth rates of plants and also permits plants to grow in drier regions. Animal life, which depends upon plants, also flourishes, and the diversity of plant and animal life is increased. Human activities are producing part of the rise in CO2 in the atmosphere. Mankind is moving the carbon in coal, oil, and natural gas from below ground to the atmosphere, where it is available for conversion into living things. We are living in an increasingly lush environment of plants and animals as a result of this CO2 increase. Our children will therefore enjoy an Earth with far more plant and animal life than that with which we now are blessed.”

Sollten die Ergebnisse von Robinson, Robinson und Soon zutreffen, dann würde derzeit an Freitagen nicht für, sondern gegen die Zukunft demonstriert werden. Dass es gut begründete und mit empirischen Daten belegte Beiträge wie den von Robinson, Robinson und Soon gibt, dass diese weitgehend unbekannt sind und vor allem vom Klimamonopolisten IPCC, dem Panel der UN, in dem das Schüren der Hysterie vor Global Warming auf der Tagesordnung steht, unterdrückt werden, sollte Kinder und Jugendlichen, die an ihrer Zukunft interessiert sind, zu denken und Anlass zum Widerstand geben.

Es war noch immer ein Alarmzeichen, wenn Politiker die eigene Jugend dafür gelobt haben, dass sie protestiert hat. Von Kindern und Jugendlichen, denen angeblich ihre Zukunft am Herzen liegt, würde man erwarten, dass sie derartiger Zuspruch skeptisch macht, dass sie die Medien, die sie als Helden feiern, mit Argwohn betrachten und hinterfragen, welchen Karren sie eigentlich gerade ziehen?

Quelle: dpa, Facebook/ARD

Aber eigenständiges und vor allem kritisches Denken ist unter denen, die dem politischen Establishment gerade so nützlich sind, nicht weit verbreitet, wie es scheint. Sie machen sich lieber zum Wasserträger für eine Sache, deren Ausmaß und Konsequenz sie nicht zu überschauen vermögen und wohl auch nicht überschauen wollen. Und nebenbei beschädigen sie unkonventionelle Formen des politischen Protests, die wenigen Formen, die es noch gibt, um legitim seinen Widerstand gegen die politische Monopolgesinnung zu zeigen.

Robinson, Arthur B., Robinson, Noah E. & Soon, Willie (2007). Environmental Effects of Increased Atmospheric Carbon Dioxide. Journal of American Physicians and Surgeons 12(1): 79-90.

Mit freundlicher Genehmigung von Sciencefiles.org




Winter 2018/19 – wie gut waren die Prognosen?

Bevor die Prognosen nochmals gezeigt und bewertet werden, soll ein Blick auf die Entwicklung der Wintertemperaturen seit dem „Klimasprung“, welcher mit dem Mildwinter 1987/88 in Deutschland begann, geworfen werden. Anders als die übrigen Jahreszeiten, erwärmte sich der Winter im Deutschland-Mittel seitdem nicht mehr – im Gegenteil; auch wenn der geringe Abkühlungstrend nicht signifikant ist. Mit 2,8°C zählt er bei unseren momentanen Klimabedingungen, wie sie seit 1988 herrschen, zu den mäßig milden Wintern, ähnlich wie 1987/88, 1994/95, 1997/98 oder 1999/2000. Sehr milde Winter überschreiten die einfache Standard-Abweichung nach oben, welche von 1988 bis 2018 1,6 Grad bei einem Mittelwert von 1,4°C betrug, und erreichen im Deutschland-Mittel damit gegenwärtig mehr als 3°C (1988/89, 1989/90, 2006/07, 2013/14 oder 2015/16):

Abbildung 1: Keine winterliche Erwärmung in Deutschland seit 1987/88 – trotz deutlich steigender CO2-Konzentrationen.

Im abgelaufenen Winter war die angeblich so schlechte Luftqualität ein Dauerthema. Messwerte hierfür (NO2, Feinstaub, SO2) liegen leider meist nur bis in die frühen 1990er oder 1980er Jahre vor. Der Winter erweist sich wegen anhaltender Inversionswetterlagen als die problematischste Jahreszeit; auch werden oft mehr Luftschadstoffe als in den übrigen Jahreszeiten emittiert (Heizungen). Einen groben Anhaltspunkt für die Entwicklung der Luftschadstoff-Konzentration bietet die Anzahl der Tage mit Nebel (Sichtweite zumindest kurzzeitig unter 1Km), weil Schadstoffe die Nebelbildung fördern. In Potsdam werden seit dem Winter 1893/94 die Nebeltage gezählt – mit erstaunlichem Ergebnis: Die Winter waren dort nie so selten neblig, wie gegenwärtig, was auf eine sehr gute Luftqualität hindeutet; auch wenn die Potsdam-Daten nur bedingt aussagefähig für ganz Deutschland sind:

Abbildung 2: Während auf dem Höhepunkt der Luftverschmutzung (etwa 1950 bis 1985) nicht selten an einem guten Drittel aller Wintertage Nebel auftrat, ist er seit zwei Jahrzehnten mit fast stets weniger als 20 Tagen selten – im abgelaufenen Winter waren es nur 6 Nebeltage. Das deutet auf eine stark verbesserte Luftqualität hin.

Wegen der großen Schneemengen im Januar bietet sich außerdem ein Blick auf die winterliche Niederschlagsentwicklung an. Weil der Februar sehr trocken verlief, blieb dieser Winter 2018/19 nur mäßig niederschlagsreich; zwar zeigt sich eine langfristige, aber keine aktuelle Zunahme der Winterniederschläge in Deutschland:

Abbildung 3: Winterliche Niederschlagszunahme in Deutschland – aber nur bis etwa 1995 (siehe Trendlinie des „gleitenden“ Mittelwertes). Der abgelaufene Winter 2018/19 überschritt mit knapp 216mm nicht einmal die einfache Standardabweichung nach oben.

Nicht überall in den gemäßigten Breiten der Nordhalbkugel verlief dieser Winter 2018/19 so gelinde, wie in Mitteleuropa. Nordamerika bescherte er mehrere, harsche Kältewellen. An der von Wärmeinsel-Effekten wenig beeinflussten Station Dale Enterprise zeigt sich, anders als in Deutschland, auch langfristig keine Winter-Erwärmung:

Abbildung 4: An der westlich der Bundeshauptstadt Washington D.C. gelegenen, ländlichen Station Dale Enterprise erwärmte sich der Winter auch langfristig nicht.

Die Bewertung der Langfrist-Vorhersagen einiger Institute, Wetterdienste und Privatpersonen

Zuerst wird im Folgenden nochmals die ursprüngliche Prognose gezeigt; darunter erfolgt jeweils die Bewertung; meist auf die CLINO- Periode 1981 bis 2010 bezogen, abweichende Referenz-Zeiträume sind in den betreffenden Prognosen genannt. Eine Bewertung mit objektiven Maßzahlen wie etwa dem Root Mean Square Error (rmse) oder der Reduktion der Varianz (RV) war leider bei keiner Prognose möglich; da man hierfür eine genaue Prognosezahl benötigt. Bei Intervallangaben wurde ein „Treffer“ daher mit Note 2 bewertet, wenn er dieses vorhergesagte Intervall traf; verfehlte er dieses um nicht mehr als +/- 0,5 Kelvin, so ergab das Note 3, darüber bei bis zu +/- 1K Abweichung Note 4; bei noch mehr Abweichung Note 5, über +/- 2 K Note 6. Bei Prognosen mit mehreren Teilprognosen (etwa für den gesamten Winter und die 3 Einzelmonate) wurden diese einzeln gewertet und dann die Gesamtnote gemittelt. In die Bewertung wurde auch einbezogen, ob genauere Vorhersagen über den Gesamtwinter hinaus zu Einzelmonaten erfolgten. Fehlten diese ganz, so wurde um eine Note abgewertet Wo Bezugswerte und/oder konkrete Zahlenprognosen fehlten, wurde ebenfalls um eine Note abgewertet. Reine Wahrscheinlichkeitsaussagen konnten, sofern sie in etwa zutrafen, bestenfalls die Note 4 erhalten, weil ihr Aussagewert einfach zu gering ist.

UKMO (Großbritannien): Vom 11.11.2018 Winter (D, J, F) mit gering erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; erstere weist eine Wahrscheinlichkeit von 20 bis 40% auf; während ein zu kalter Winter zu etwas über 20% wahrscheinlich ist.

Neuerdings wird auch eine Median-bezogene Wahrscheinlichkeitsaussage angeboten; sie zeigt eine partiell leicht erhöhte Wahrscheinlichkeit für über dem Median liegende Wintertemperaturen besonders in Süd- und Mitteldeutschland:

Die aktuellen Karten jederzeit hier.

Bewertung: Nur sehr grob zutreffend, besonders in Norddeutschland wurde die Wahrscheinlichkeit für „zu mild“ unterschätzt, dazu sehr unkonkret, Note 5

Meteo Schweiz vom Nov. 2018: Gering erhöhte Wahrscheinlichkeit für einen zu milden Winter. Zu kalter Winter zu knapp 30% wahrscheinlich; normaler zu 33%. Die „doppelten T“ sind die Fehlerbalken; die Prognose gilt nur für die Nordostschweiz:

Bewertung: Auch in der Nordost-Schweiz verlief dieser Winter mit Ausnahme des Januars merklich zu mild. Grob zutreffend; aber sehr unkonkret, Note 4

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2018: Dezember normal, Januar sehr kalt, Februar etwas zu mild. Winter insgesamt etwa normal. Die Prognose bezieht sich vorrangig auf Mittel- und Nordostdeutschland:

Bewertung: Dezember und Januar stark unterschätzt; jeweils Note 6. Februar um knapp 1 K unterschätzt; Note 4. Winter insgesamt merklich unterschätzt; Note 5; Gesamtnote 5

IRI (folgende Abbildung), Vorhersage vom Nov. 2018: Kaum Aussagen für Deutschland; lediglich in Ostsachsen und Südbayern leicht erhöhte Wahrscheinlichkeit für einen zu kalten Winter; zu mild in weiten Teilen Nord- und Osteuropas:

Bewertung: Wegen fehlender Aussagen für weite Teile Deutschlands wertlose Prognose; auch in Südost-Sachsen und Südbayern verlief dieser Winter trotz der Schneemassen im Januar merklich zu mild; Note 6.

DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1990 bis 2017 (Stand Nov. 2018):

Bewertung: Das DWD-Wintermittel 1990 bis 2017 beträgt 1,3°C; die Abweichung dazu ergibt für 2018/19 1,5K; vorhergesagt waren 1,8 bis 2,3°C; gerade noch Note 3, weil aber Aussagen zu einzelnen Monaten fehlen, Abwertung auf Note 4

NASA (US-Weltraumbehörde) Karten vom November 2018: Alle drei Wintermonate und Winter insgesamt zu mild:

Bewertung: Dezember und Februar deutlich unterschätzt, jeweils Note 6. Januar leicht überschätzt, besonders für Süddeutschland, Note 3 bis 4. Da der Gesamtcharakter des Winters (zu mild) grob richtig geschätzt wurde, Gesamtnote 4.

Donnerwetter Berlin (Quelle). Neben den Aussagen für Berlin werden auch gesamtdeutsche getroffen, freilich ohne Bezugswert; Stand Nov. 2018:

Alle 3 Wintermonate in Deutschland zu kühl; in Berlin soll der Winter um 2 bis 3 Kelvin zu kalt ausfallen; wobei der Januar 2019 die stärksten negativen Abweichungen bringen soll.

Bewertung: Krasse Fehlprognose aller Monate und des gesamten Winters; Note 6

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 14. bis 23.11. 2018): Winter insgesamt zu mild. Dezember (links) normal, nur in Südwestdeutschland etwas zu mild, Januar (rechts) besonders in Ostdeutschland sehr mild, Februar (unten) besonders an den Küsten sehr mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Diese experimentellen, fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Bewertung: Dezember und Februar stark unterschätzt; Note 6. Januar leicht überschätzt; Note 3 bis 4. Da der Gesamtcharakter des Winters (zu mild) grob richtig geschätzt wurde, Gesamtnote 4.

Stefan Kämpfe (verfasst am 25.11. und veröffentlicht bei EIKE am 28.11.2018):

Fazit: Eindeutige, verlässliche Anzeichen für einen Winter sowohl in die extrem kalte als auch in die extrem milde Richtung fehlen. Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute tendieren bei großer Unsicherheit in Richtung eines normalen bis zu milden Winters. Gegenwärtig kündigen sich keine markanten Kälteeinbrüche bis mindestens zum 10. Dezember an. Insgesamt fällt der Winter 2018/19 nach momentanem Stand also in etwa normal bis mäßig-mild aus und wird im Deutschland- Mittel auf -0,5 bis +2,5°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Kategorien „zu kalt“, „normal“ und „zu mild“ stellen sich die Wahrscheinlichkeiten des Winters 2018/19 folgendermaßen dar:

Die Schneesituation für Wintersport besonders in Lagen unter 1.500m bleibt zumindest in der ersten Dezemberdekade meist mangelhaft, weil intensive Niederschläge fehlen und es zeitweise auch hier zu Plustemperaturen kommen kann. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt-Bindersleben (Mittel 1981- 2010 +0,5°C) 0,0 bis +2,5°C (normal bis zu mild). Für Jan/Feb. 2019 lässt sich noch kein Temperaturbereich schätzen; doch deuten manche Signale auf einen eher kalten Januar 2019 und einen eher sehr milden Februar hin. Das Schneeaufkommen nach Mitte Dezember ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein normaler bis milder Hochwinter deutlich wahrscheinlicher, als ein durchgehend zu kalter. Wegen eines möglichen Wechsels zur Westwindphase in der unteren Stratosphäre (QBO) sind nämlich längere, sehr milde Phasen noch nicht völlig ausgeschlossen; sie stehen im Widerspruch zu einigen Prognosesignalen für einen kalten Januar. Sollte der Dezember zu mild ausfallen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2019 noch weiter.

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 15% Analogfälle, 5% Wirbelsturm-Aktivität und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.

Bewertung: DWD-Wintermittel (2,8°C) knapp verfehlt; Note 3. Dezember-Mittel 2018 für Erfurt (reell 3,8°C) um 1,3 K verfehlt; Note 5. Der Gesamtcharakter und der zeitliche Temperaturverlauf des Winters wurden grob richtig geschätzt; Gesamtnote 4.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 04.03.2019




Hurrikane und Klimawandel 3: Übertritte auf das Festland

Auf das Festland übertretende Hurrikane

Die globale Hurrikan-Statistik weist eine einfache Relation auf zu globaler und regionaler Klima-Variabilität und -Änderung. Allerdings gilt auf das Festland übertretenden Hurrikanen wegen deren sozio-ökonomischen Auswirkungen besonderes Interesse.

Wirtschaftliche Verluste durch auf das Festland übergreifende Hurrikane haben sich während der letzten Jahrzehnte erhöht, sowohl in den USA als auch global. Will man dabei ein Signal einer anthropogenen globalen Erwärmung ausmachen, erfordert dies die Identifikation eines Trends, welcher dieser Erwärmung zugeordnet werden kann, und zwar bei jedem der Faktoren, die zu den wirtschaftlichen Schäden beitragen. Zu diesen Faktoren gehören: Häufigkeit, Intensität, horizontale Ausdehnung, Verlagerungsgeschwindigkeit vor der Küste, Tornados und Regenmenge.

Kontinentale USA

Klotzbach et al. (2018) haben eine umfassende Evaluierung der Daten bzgl. auf das Festland übertretender Hurrikane durchgeführt, und zwar seit dem Jahr 1900.

Abbildung 5.1 (oben) zeigt die Zeitreihe der auf das Festland der USA übertretenden Hurrikane im Zeitraum von 1900 bis 2017. Während die Jahre 1986, 2004 und 2005 diesbezüglich Spitzenwerte aufweisen, zeigt sich seit 1900 eine insgesamt negative Trendlinie, wenngleich diese auch nicht statistisch signifikant ist. Abbildung 5.1 (unten) zeigt die gleiche Zeitreihe, aber für starke Hurrikane der Kategorie 3 bis 5. Den Spitzenwert in dieser Hinsicht hält das Jahr 2005 mit 4 derartigen Hurrikanen. Allerdings trat im Zeitraum 2006 bis 2016 kein einziger dieser starken Hurrikane auf das US-Festland über, was den längsten derartigen Zeitraum seit Beginn der Aufzeichnungen im Jahre 1900 markiert.

Abbildung 5.1: Zeitreihen von 1900 bis 2017 für auf das US-Festland tretende Hurrikane (oben) und starke Hurrikane (unten). Die gepunkteten Linien repräsentieren die jeweiligen Trendlinien über diesen Zeitraum, sind aber beide statistisch nicht signifikant. Nach Klotzbach et al. (2018)

Villarini et al. (2012) legen eine Auflistung der Festlands-Übertritte bis zurück zum Jahre 1878 vor (Abbildung 5.2). Während vielleicht einige Übertritte in den ersten Jahrzehnten nicht erfasst worden sein können, weil sie in dünn besiedelten Gebieten an der Golfküste stattfanden, ist es bemerkenswert, dass das Jahr mit der höchsten Anzahl von Übertritten in der gesamten Reihe das Jahr 1886 ist.

Abbildung 5.2: Zeitreihe der Anzahl auf das US-Festland übertretender Hurrikane im Zeitraum 1878 bis 2008. Nach Villarini et al. (2012).

Eine energetische Perspektive dieser Art von Hurrikanen zeigen Truchelut und Staehling (2017). Abbildung 5.3 zeigt die Zeitreihe der Akkumulierten Zyklon-Energie (ACE) dieser auf das Festland übertretenden Hurrikane, bezeichnet hier als Integrated Storm Activity Annually Over the Continental U.S. (ISAAC). Der Zeitraum 2006 bis 2016 ohne derartige Ereignisse hängt zusammen mit einem ACE-Wert, der unter 60% des Mittelwertes über den Zeitraum 1900 bis 2017 beträgt.

Abbildung 5.3: Zeitreihe von ISAAC 1900 bis 2017, mit einem bei zehn Jahren zentrierten mittleren Wert (rot). Nach Truchelut und Staehling (2017).

[Es folgen viele weitere Graphiken und Zahlen, die das oben Gesagte unterstreichen. Anm. d. Übers.]

Karibik

Klotzbach (2011) summiert auch die Hurrikane in der Karibik (Abbildung 5.8). Man erkennt keinen signifikanten langzeitlichen Trend. Der primäre Treiber der Variabilität in der Karibik ist die ENSO, wobei es bei La Nina-Bedingungen viel mehr Aktivität gibt als bei El Nino-Verhältnissen. Im multidekadischen Zeitmaßstab spielt die AMO eine signifikante Rolle bei der Hurrikan-Aktivität in der Karibik. Untersucht man ENSO und AMO kombiniert, findet sich sogar eine noch stärkere Relation. Beispiel: während der 10 stärksten La Nina-Jahre in einer positiven (warmen) AMO-Phase waren dort 29 Hurrikane aufgetreten, bei umgekehrten Verhältnissen beider Zirkulationssysteme waren es lediglich 2 Hurrikane.

Abbildung 5.8: Hurrikane in der Karibik im Zeitraum 1900 bis 2018. Aktualisiert nach Klotzbach (2011).

Chenoweth und Divine (2008) zeigen eine längerfristige Perspektive von Hurrikanen in der Karibik, indem sie auf der Grundlage eines historischen Dokumentes eine 318 Jahre lange Zeitreihe unter Einschluss der Kleinen Antillen im Zeitraum 1690 bis 2007 untersuchten. Zeitungsmeldungen, Logbuch-Eintragungen von Schiffen, meteorologische Journale und andere Quellen mit Dokumenten wurden herangezogen, um diesen Datensatz zu erstellen. … Die Anzahl tropischer Zyklone zeigt keine signifikanten Trends (Abbildung 5.9). Die meisten Hurrikane waren zu Beginn des 19. Jahrhunderts aufgetreten. Der Zeitraum 1968 bis 1977 war möglicherweise der inaktivste Zeitraum seit der Besiedlung der Inseln in den zwanziger und dreißiger Jahren des 17. Jahrhunderts.

Abbildung 5.9: Anzahl von Hurrikanen (oben), Tropical Storms (Mitte) und sowohl Hurrikane als auch Tropical Storms (unten) von 1690 bis 2007. Die rote Linie markiert ein gleitendes Mittel über 21 Jahre.

Global

Weinkle et al. (2012) fassen die Schwierigkeiten zusammen bei der Konstruktion eines homogenen Datensatzes bzgl. auf das Festland übertretender Hurrikane. Die Unsicherheit bei der Ortung und der Intensität ist eine Funktion des sich entwickelnden Beobachtungs-Netzwerkes über das gesamte vorige Jahrhundert. Das reicht von Schiffsbeobachtungen über Flugzeugmessungen bis hin zur Fernerkundung mittels Satelliten. Weinkle et al. (2012) erfassten alle Festlands-Übertritte im Nordatlantik, Nordost- und West-Pazifik, dem nördlichen Indischen Ozean und der Südhemisphäre. Sie nutzten dabei das International Best Track Archive for Climate Stewardship (IBTrACS).

Die globale Häufigkeit auf das Festland übertretender Hurrikane zeigt global eine beachtliche Variabilität von Jahr zu Jahr, aber keinen signifikanten linearen Trend (Abbildung 5.10). Außerdem gibt es bei Betrachtung jedes Ozeanbeckens individuell keinen signifikanten Trend außer auf der Südhemisphäre. Dies kommt nicht unerwartet angesichts der bekannten multidekadischen Signale der Aktivität tropischer Zyklone, was durch die kurze historische Reihe nicht adäquat aufgelöst werden kann.

Abbildung 5.10: Häufigkeit globaler Hurrikane im Zeitraum 1970 bis 2018. Aktualisiert von Weinkle et al. (2012)

Wasser – Regenmenge und Sturmfluten

Historisch waren die verhängnisvollsten Auswirkungen von Hurrikanen immer verursacht durch Sturmfluten und Überschwemmungen landeinwärts (Blake et al. 2011). In diesem Abschnitt wird beschrieben, ob es in dieser Hinsicht eine Zunahme gegeben hat.

Regenmenge

Es wurde geschätzt, dass im Mittel tropische Zyklone von mindestens der Stärke einer Tropical Depression etwa ein Viertel zur jährlichen Regenmenge im Südosten der USA beitragen. Soule et al. (2012) zeigten, dass tropische Zyklone in den südöstlichen USA häufig Dürren beendeten. In der Mehrzahl der Landkreise in Florida, Georgia, South Carolina und North Carolina sind mindestens 20% der dortigen Dürren durch einen tropischen Zyklon beendet worden, und zwar im Zeitraum 1950 bis 2008.

Hurrikane sind auch ursächlich für etwa 20% der gemessenen monatlichen Regenmenge von Juni bis November im Getreide-Gürtel der östlichen USA [U.S. Corn Belt]. Dieser umfasst die US-Bundesstaaten Wisconsin, Michigan, Illinois, Indiana, Ohio und Kentucky (Kellner et al. 2016).

Während Überschwemmungen landeinwärts typischerweise in einem auf das Festland übertretenden Hurrikan auftreten, führen verschiedene Faktoren zu exzessiven Regenmengen. Geringe Verlagerungsgeschwindigkeit der Hurrikane kann lokal zu sehr hohen Regenmengen führen. Berge/Gebirge in Küstennähe können durch erzwungene Hebung den Regen noch verstärken. Tröge der Höhenströmung und Kaltfronten können ebenfalls zu exzessiven Regenmengen führen. Größere tropische Zyklone haben auch einen größeren Regen-Fußabdruck. Hoher Feuchtigkeitsgehalt in der Luft trägt ebenfalls zu exzessiven Regenmengen bei. Verlagert sich ein Hurrikan weiter landeinwärts und wird dabei vom Nachschub von Wärme und Feuchtigkeit (aus dem Ozean) abgeschnitten, verringert sich die Regenmenge rasch, es sei denn, es kommt noch erzwungene Hebung im Luv von Gebirgen dazu.

Roth (2017) legt eine Liste mit Hurrikanen vor, welche die höchsten Regenmengen in jedem Land/jeder Insel im Nordatlantik mit sich brachten (Tabelle 5.2). In der Tabelle nicht enthalten ist die Regenmenge des Hurrikans Harvey mit 1539 mm Regen. Er war erst nach Erstellen der Tabelle aufgetreten. Man erkennt, dass die Hurrikane Mitch (1998), Wilma (2005), Flora (1963) und diejenigen im November 2009 jeweils Regenmengen lieferten, die über diejenige von Harvey hinausgingen.

Tabelle 5.2: Liste mit Hurrikanen, welche die größten Regenmengen im Nordatlantik mit sich brachten. Quelle: Roth (2017):

Sturmfluten

Die Magnitude einer Sturmflut ist abhängig von der Intensität, der Verlagerung, der Größe (= des Radius‘ maximaler Winde), dem Auftreff-Winkel an der Küste, dem Kerndruck, dem Zeitpunkt der jeweiligen Gezeiten und den Formen und Charakteristika küstennaher Landstriche.

Der Meeresspiegel beeinflusst ebenfalls die Höhe von Sturmfluten. Seit dem Jahr 1900 ist der Meeresspiegel global um 18 bis 20 cm gestiegen. Abhängig von der lokalen Topographie kann eine geringe Änderung der Höhe des Meeresspiegels zu einer signifikanten Zunahme der Ausbreitung von Sturmfluten landeinwärts führen.

Die höchste dokumentierte Sturmflut in den USA war im Zuge des Hurrikans Katrina aufgetreten, als an dem Messpunkt Pass Christian eine solche mit einer Höhe von ca. 8,5 m gemessen worden ist.

Tabelle 5.3: Hurrikan-Sturmfluten seit dem Jahr 1900 (Quelle):

Durch Hurrikane ausgelöste Tornados

Wie von Belanger et al. (2009) zusammengestellt, lösen die meisten Hurrikane auch Tornados aus. Hurrikane, die vom Golf von Mexiko aus auf das US-Festland übertreten, bringen mehr Tornadoereignisse mit sich als solche, die vom Atlantik her aufziehen. Die meisten dieser Tornados sind schwach, aber einige wenige verursachten auch schwere Schäden.

Schäden und Verluste

Von der MunichRe (2018) zusammengestellte Daten zeigen, dass die wirtschaftlichen Schäden weltweit durch auf das Festland übertretende tropische Zyklone während der letzten Jahrzehnte zugenommen haben. Historisch waren die größten Schäden durch Wind und Sturmflut aufgetreten. Jüngst gab es jedoch eine Reihe von Stürmen, bei denen die größten Schäden durch starken Regen verursacht worden waren, besonders bei sich nur wenig verlagernden Stürmen (z. B. Hurrikan Harvey 2017 und Hurrikan Florence 2018).

Während es aus Beobachtungen keinerlei Hinweise auf eine zunehmende Intensität derartiger Hurrikane gibt, weder im Atlantik noch global, gibt es klare Hinweise auf gestiegene Schäden durch diese Hurrikane. Ist diese Zunahme allein zunehmender Bevölkerung und Wohlstand in anfälligen Küstengebieten geschuldet, oder gibt es irgendein Element bzgl. Klimawandel, welches zu der Zunahme der Schäden beiträgt?

Um diese Frage zu beantworten, bedarf es einer korrekten Erkennung der relevanten Variablen, welche die Schäden treiben. Zusätzlich zu Häufigkeit und Intensität von auf das Festland übertretenden Hurrikanen tragen noch folgende Variablen zu den Schäden bei: horizontale Ausdehnung der Hurrikane, Verlagerungsgeschwindigkeit nahe der Küste, Sturmflut und Regenmenge.

Klotzbach et al. (2018) sowie Weinkle et al. (2018) haben sich der Frage gewidmet, ob die Schäden auf dem US-Festland inflationsbereinigt seit 1900 signifikant zugenommen haben. Beide Studien zeigen, dass seit dem Jahr 1900 weder die Häufigkeit noch die Intensität dieser Hurrikane signifikante Trends zeigen, einschließlich der verheerenden Saison 2017. Wachstum der Bevölkerung in küstennahen Gebieten und regionaler Wohlstand sind die überwältigend stärksten Faktoren bei der Zunahme von Schäden durch Hurrikane. Dieser Trend führte zu einer immer stärkeren Verwundbarkeit küstennahen Eigentums an der Ost- und der Golfküste.

Link: https://judithcurry.com/2019/02/27/hurricanes-climate-change-landfalls/#more-24758

Part II: https://judithcurry.com/2019/02/20/24737/#more-24737

Part I: https://judithcurry.com/2019/02/17/hurricanes-climate-change-detection/#more-24723

Übersetzt von Chris Frey EIKE




Dokument des Grauens Teil II – Svenja Schulze erläutert ihr Harakiri Gesetz den lieben Genossinnen und Genossen

Wenn es überhaupt noch eines Beweises bedurfte, dass die Merkel-Regierung gegen alle Interessen Deutschlands regiert, dann liefert ihn der Brief der Umweltbundesministerin Svenja Schulze (SPD) an die Mitglieder der SPD Bundestagsfraktion vom 4. März.  Darin versucht sie ihren „Lieben Genossinnen und Genossen“, den Sinn und Zweck, des von ihr vorgelegten Entwurfes für ein „Klimaschutzgesetz“ zu erläutern.

Gleich am Anfang bezieht sie sich auf den Koalitionsvertrag, den es abzuarbeiten gälte, aber auch auf die Ergebnisse der Kohleausstiegskommission, die auftragsgemäß (Hervorhebung vom Autor) „einen verbindlichen  Pfad zum Ausstieg aus der Kohleverstromung vorgeschlagen hat“.

Um dann mit dem vereinnahmenden „wir“ fortzufahren ..

„Damit schaffen wir die Grundlagen dafür, dass die Sektorziele 2030 erreicht werden. Auf dieser Grundlage wollen wirein Gesetz verab­schieden, das die Einhaltung der Klimaschutzziele 2030 gewährleistet.

Nach diesem kühnen Sprung, einen nicht bindenden Vorschlag, einer nicht gewählten, aber handverlesenen Kommission, die in der Mehrzahl ihrer Mitglieder aus voreingenommenen Klimaaktivisten bestand, oder aus Opportunisten, die schon immer nach der Pfeife der jeweiligen Regierung tanzten, zur bindenden Vorlage des wohl rabiatesten Gesetzes zur Einführung einer Ökodiktatur zu erklären, führt sie im Folgenden lauter Behauptungen auf, warum der (menschgemachte) Klimawandel so gefährlich sei.

Und nicht nur die Welt aufs Höchste gefährde, sondern auch sonst für alles Übel auf der Welt verantwortlich sei, wobei – nicht zu vergesseen- auch Deutschland „Teil des Problems“ sei:

Das liest sich dann so:

„Den vom Menschen verursachten Klimawandel einzugrenzen ist eine der zentralen Aufgaben unserer Zeit.Schon heute sind die Folgen wie Hungers­nöte, Wasserknappheit, Naturkatastrophen oder weltweit drastisch steigende Migrationsströme, die in nahezu alle Politikbereiche eingreifen, zu spüren. Und anders als oftmals behauptet wird, ist Deutschland Teil des Problems und hat seine Hausaufgaben längst nicht gemacht: Im Vergleich sind wir pro Kopf weltweit der viertgrößte Emittent von C02. Damit liegen wir zwar hin­ter den USA, Russland und Australien, aber deutlich vor China oder dem Durchschnitt der Europäischen Union.“

Doch obwohl nicht eine ihrer Behauptungen über die Gründe der Hungersnöte, Wasserknappheit  etc. belegt ist, weil nicht eine dieser Behauptungen den Tatsachen entspricht, und weil das alles – sowohl von Frau Ministerin, als auch ihren Ministerialen- leicht zu überprüfen wäre, ist all das, was die Politikerin da ihren Genossen schreibt, nichts weiter als eine Aneinanderreihung von groben Lügen.  Spricht jemand vorsätzlich, also wider besseres Wissen, die Unwahrheit, dann ist das eine Lüge!

So erwähnt sie mit keinem Wort, die massive Überbevölkerung, insbesondere in den arabischen Ländern, sowie weiten Teilen Afrikas, als Haupt-Ursache für Raubbau an den Ressourcen und anschließende Verteilungskämpfe, wie bspw. den Bürgerkrieg in Syrien..

Bspw. stieg die Bevölkerung Somalias in den letzten 50 Jahren von 1,6 auf 16 Millionen und wird in wenigen Jahrzehnten die 40 Millionen Grenze übersteigen.

Wenn dann noch Dürren, wie schon immer mal wieder, hinzukommen, die verhindern, dass sich die übernutzten Ressourcen bspw. an Wasser wieder auffüllen, dann kommt es zu dieser Wasserknappheit mit der Folge von Hungersnöten und allen dramatischen Folgen.

Das ist für Frau Schulze keiner Erwähnung wert.

Und so geht es munter weiter. Denn sie fährt fort, dass Deutschland sich ja verpflichtet hätte mehr für den „Klimaschutz“ zu tun, und nun würde das eben umgesetzt. Und Geld würde das ja auch alles nichts kosten. Jedenfalls nicht die Ressorts. Usw, usw, usw. Lüge reiht sich an Lüge.

Um schlussendlich mit diesem Gesetz, einen pseudo-objektiven „Sachverständigengremium für Klimafragen“ zu gründen, der, handverlesen wie andere bekannte „Sachverständigengremien“, genau das vorschlägt, was der „Klimaschutzplan“ 2050, nach ihrer getricksten Darstellung verlangt.

Und erfüllt damit punktgenau den schon lange geäußerten Wunsch des  Potsdamer Klimakatastrophenpapstes H.J. Schellnhuber und seines „Wissenschaftlichen Beirat Globale Umwelt“ (WBGU)[1], der schon seit langem fordert, genau einen solches Gremium zu gründen. Und dass es die letzte Instanz für alle Politik-Entscheidungen sein soll, die auf irgendeine Weise „das Klima“ betreffen. Also für alles und jedes.

Das ist Ökodiktatur pur. Und daran ändern auch die Lippenbekenntnisse zum Parlamentsvorbehalt nichts, denn wir haben ja erlebt wie schnell der ausgehebelt werden kann.

Nun kann man sich fragen, auf welche Seite sich die lieben Genossinnen und Genossen der Frau Svenja Schulze stellen werden. Auf die Seite einer nach Ökodiktatur strebenden Klimakirche mit ihren Erfüllungsgehilfen in Parteien, NGO´s und im Parlament, oder auf der Seite ihrer Wähler, die um Jobs bangen, ihre Steuern zahlen, weitestgehend auch die absurdesten Gesetze beachten und hart für ihren Lebensunterhalt jeden Tag arbeiten müssen.

Die kommenden Wahlen werden es zeigen. Vielleicht ist es aber dann schon zu spät.

Aber bitte lesen Sie selbst 190304_Brief-BM-Schulze_KSG

 

[1]Welt im Wandel (WBGU) 2011 https://www.wbgu.de/fileadmin/user_upload/wbgu.de/templates/dateien/veroeffentlichungen/hauptgutachten/jg2011/wbgu_jg2011.pdf




Vom Menschen verursachte Erderwärmung ? Uneinigkeit innerhalb der weltweiten Klimaforschung !

CO2  als Erwärmungsgrund

CO2 ist ein für den Menschen ungiftiges Spurengas, dessen Anteil an der Atmosphäre etwa 0,04 Volumen-Prozent beträgt und das etwa eineinhalb mal so schwer ist wie die Luft. 

CO2 zirkuliert ständig und in erheblichem Umfang zwi­schen Luft, Erde und Wasser.

Das in der Luft befindliche CO2-Gas ist nach den Gesetzen der Quantenmechanik In­frarot aktiv. Es  absorbiert einen Teil der von der Sonne kommenden, un­sichtbaren Wärmestrahl­ung (Infrarotstrahlung) und lässt die sichtbare kurzwelli­gere Strahlung pas­sieren. CO2-Moleküle, die infrarote Sonnenstrahlung absorbieren, werden ener­getisch an­geregt, ihre kinetische Energie nimmt zu. Von dem Teil der Sonnenstrah­lung, der beim Einfall aus dem Weltall nicht ab­sorbiert wird, wird wiederum ein Teil von der Oberfläche der Erde zunächst absorbiert und dann als langwellige Infrarot­strahlung in die Atmosphäre zurück gestrahlt, um dort nunmehr von einigen Spuren­gasen teilweise absorbiert und etwa zur Hälfte zur Erde zurück gestrahlt zu werden. Für diesen Prozess hat sich – physikalisch nicht korrekt, denn in einem Treibhaus herrschen andere physikalische Gesetze als in der erdnahen Atmosphäre) – der Be­griff „Treibhauseffekt“ eingebürgert. 

—————-  Fußnote: Soweit meteorologische Sachverhalte und Vorgänge gemeint sind, die die gesamte Erde betreffen. sollte „Klima“ als Begriff  unbedingt vermieden werden. „Erd-Klima-Wandel“, „Klimawandel“, „Klimakrise“, „Klimakatastrophe“, „Klimaskeptiker, „Klimaleugner“ sind sinnlose Begriffe. Es gibt kein „Erd-Klima“. „Klima“ beinhaltet neben „Temperatur“ zusätzlich unter anderem „Niederschlag“ (nach Art und Menge im Jahresverlauf) sowie „Wind“ (nach Stärke/Geschwindigkeit und Richtung, im Jahresverlauf). Diese Größen sind sinnvoll nur in Verbindung mit geographischen Räumen, auf die sie sich beziehen. Auf der Erde gibt es Ge­biete, Regionen oder Zonen, die ein  „Klima“ haben und deren „Klima“ sich wandeln kann. Aber dieser Wan­del des Klimas einer bestimmten Region ist nicht gemeint, wenn von „Klimawandel“ oder „Klimakrise“ gespro­chen wird. Dabei geht es stets um „Wärme“oder „Erwär­mung“, und deren Folgen.   —————–

Wer das aus seiner Infrarotaktivität resultierende „Treibhauspotential“ des CO2  grundsätzlich leugnet, mag  als „Leugner“ der anthropogenen globalen Erderwär­mung (AGW) bezeichnet werden. 

Alle Übrigen müssen so lange entweder als „Skeptiker“  oder aber als „Gläubige“ gel­ten, bis endlich der den Bedingungen wissenschaftlicher Beweispflicht genügende AGW-Beweis tatsächlich erbracht ist; oder bis das ganze Thema nach einem wissenschaftlich befriedigenden Gegenbeweis zu den Akten gelegt werden kann.

Ausmaß der Erwärmungswirkung des anthropogenen CO2  in der Wetterwirklichkeit

Die qualitative Aussage: „Anthropogenes CO2 hat einen Erwärmungseffekt“ ist in­haltsleer. Um sie mit Inhalt zu füllen, muss sie quantifiziert werden:

In welchem Ausmaß bewirkt CO2 , das von  Menschen verursacht in die Atmosphäre gelangt, unter den höchst komplexen Bedingungen und Wechselwirkungen der Wet­ter-Wirklichkeit eine Erwärmung der bodennahen Luft? 

Das AGW muss quantifiziert werden. Einer bestimmten Menge von menschen-verur­sachtem CO2 müssen die dieser Menge unter genau definierten Bedingungen (Erd­wärme, Gas-Mix der Erdatmosphäre etc.) zuzurechnenden Erwärmungsgrade zuge­ordnet werden. Nur wenn die Beziehung zwischen zusätzlichem anthropogenem CO2 einerseits und globaler Erderwärmung andererseits quantifiziert ist, gibt es über­haupt eine rationale Grundlage für:

 „Anthropogene Erderwärmung“ oder

 „Erwärmungsbegrenzung durch CO2-Emissionsbegrenzung“, 

Nur unter dieser Voraussetzung kann zum Beispiel das CO2-Restbudget bestimmt, also die zentrale AGW-Frage beantwortet werden: 

Wie viel CO2  darf die gesamte Menschheit weltweit noch emittieren, ohne dass die globale Erderwär­mung über die in Paris zugestandenen etwa 0,5 Grad Celsius ab 2016 hin­ausgehen wird ?

Einigkeit über dieses Restbudget setzt Einigkeit voraus – über die quantitative Verknüpfung zwischen künftigem an­thropogenem CO2 (z. B. in Gigatonnen) und künf­tiger Erderwärmung (z. B. in Zehntel Grad Celsius). 

Im Umkehrschluss bedeutet Uneinigkeit über das Restbudget zwingend Uneinigkeit über AGW:

Je geringer das Restbudget angesetzt wird, desto größer ist der dem an­thropogenen CO2 für die Zukunft zugemessene Erwärmungsbeitrag, und umgekehrt. 

Wie steht es  innerhalb der etablierten Klimaforschung um die Einigkeit über das der Menschheit noch verblei­bende CO2-Restbudget ?

Die Antwort ist ernüchternd: Es herrscht enorme Uneinigkeit – und entsprechend herrscht Streit. 

Ein einziges Zitat aus einer Spiegel-Online-Analyse vom 05.10.2018 zum CO2-Rest­budget reicht als Beleg: Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenfor­schung (PIK) beschreibt dort den globalen Dissens zur Bedeutung des anthropoge­nen CO2 für die künftige globale Er­wärmung wie folgt:

„Es gibt große Unsicherheiten über das Budget. Je nach Rechenmodell und den ge­machten Annahmen liegt das Budget zum Erreichen der Pariser Klimaziele zwischen 150 und 1050 Gigatonnen.“ ( Holger Dambek: „CO2-Budget der Menschheit“, Spiegel-Online, 5. 10. 2018). 

Mit anderen Worten: 

Innerhalb der unter dem Dach des IPCC versammelten etablierten Klimaforschung variiert die dem anthropogenen CO2 für die Zu­kunft zugeschriebene Erd-Erwär­mungswirkung um siebenhundert Prozent (Faktor sieben).

Um das Ausmaß der Uneinigkeit innerhalb der vorgeblich in überwältigender Mehr­heit völlig einigen Klimaforschung zu verdeutlichen, mag ein kleines Beispiel genü­gen: 

Der Bauherr eines neuen Hauses erhält von zwei anerkannten Heizungsinstallateu­ren je ein Angebot über die nach deren Berechnung für eine gute Beheizung erfor­derliche Installation von Heizkörpern gleichen Fabrikates. Als er die Gesamtzahl der vorgeschlagenen Heizrippen aufaddiert, liegt diese beim 1. Angebot bei 150 und beim 2. Angebot bei 1050, also dem Siebenfachen des 1. Angebotes.

Für das im IPCC maßgeblich vertretene PIK selber reklamiert Rahmstorf, ebenfalls  lt. Spiegel-Online, ein Restbud­get von 600 Gigatonnen. 

Einen Tag später, im „Spiegel“ vom 6. Oktober 2018, kündigt Prof. Jo­chem Ma­rotzke, Direktor am Max-Planck-Institut für Meteoro­logie in Hamburg und einer der Leitau­toren des Weltklimarats (IPCC) an, der Weltklimarat wer­de zur Erreichung des 1,5-Grad-Erwärmungszieles den Höchstwert für das C02-Restbudget gegenüber den bisherigen Vorgaben  auf etwa 1000 Gigatonnen mindes­tens verdoppeln. Dies bedeu­tet im Klartext, dass allein zwischen nur zwei maßgeblichen deutschen Klimafor­schern ein AGW-Dissens von 67 Prozent besteht: Das PIK veranschlagt den Erwär­mungsbeitrag des anthropogenen CO2  1,67 mal so hoch wie das benachbarte MPI für Meteorologie in Hamburg.  

Derart können wir fortfahren, Dissens in der etablierten Klimaforschung aufzuzei­gen. In der anerkannten Fachliteratur findet man klimawissenschaft­lich begründete Fürsprache für fast jedes CO2-Restbudget innerhalb der von Rahm­storf genannten Grenzen von 150 Gigatonnen und 1.050 Gigaton­nen, d. h. innerhalb einer Spannweite von 700 Prozent. (vgl.  Holger Dambek: „CO2-Budget der Menschheit“, Spiegel-Online, 5. 10. 2018). 

Richard Millar von der Oxford University hat  im Fachblatt „Nature Geoscience“ das Restbudget ab 2018 laut neuer Berechnungen von bisher 200 Giga­tonnen mal eben auf wei­tere 800 Gigatonnen vervierfacht, seine quantitative Einschätzung des an­thropogenen CO2-Erwärmungsbeitrages demnach geviertelt.

Eine andere Forschergruppe dagegen plädiert im Fachblatt „Nature“ für ein verblei­bendes CO2-Budget von 600 Gigatonnen. Dieses gegenüber der Millar-Studie um 200 Giga­tonnen geringere CO2-Restbudget soll die Erwärmung mit nur 50-prozen­tiger Wahrscheinlichkeit  auf 1,5 Grad begrenzen. Auch für Rest-Budgets weit über 1000 Gigatonnen gibt es klimawissenschaftlich an­erkannte Fürsprecher. 

Ebenso für die These, dass es überhaupt keines CO2-Rest-Budgets bedarf, da der Zusammenhang zwischen tatsächlicher Erdwärme und anthropogenem CO2 ver­nachlässigbar gering sei. Bereits 2012 schrieben M. Beenstock u. a. in ei­ner umfang­reichen und mehrfach geprüften Studie:

„Die Tatsache, dass seit der Mitte des 19. Jahrhunderts die Erdtemperatur in keinem Zusammenhang mit anthropogenen Einflüssen steht, verstößt nicht gegen die Gesetze der Thermodynamik, der Quantentheorie oder irgendeiner anderen physikalischen Theorie.“

Angesichts der Komplexität des Erdklimas und unseres unvollständigen Verständ­nisses des Klimaprozesses ist es schwierig, Kohlenstoff-Emissionen und anderen an­thropogenen Phänomenen die Hauptursache für die globale Erwärmung im 20. Jahr­hundert zu geben. Dies ist kein Urteil über Physik, sondern ein Urteil über die In­terpretation der vorliegenden Daten.

Wir haben gezeigt, dass anthropogene Erwärmungsbeschleuniger nicht polynomial kointegrieren mit der globalen Temperatur und der Sonneneinstrahlung.

Daher unterstützen die Daten für 1880-2007 nicht die These einer anthropogenen globalen Erwärmung in diesem Zeitraum.“ (zitiert nach: M. Beenstock et al.: Polynomial cointegration tests of anthropogenic impact on glo­bal warming , www.earth-syst-dynam.net/3/173/2012).

Wem diese Aussagen und erst recht die zugrunde liegende, mit Zahlen und Gleichun­gen über mehrere Druckseiten bestückte Arbeit zu mathematisch und zu komplex sind, muss zur Kenntnis neh­men, dass „Komplexität“ bis zur Unverständlichkeit Merk­mal aller ernsthaften Ar­beiten zur „Anthropogenen Globalen Erwärmung“ (AGW) ist; und auch sein muss, an­gesichts des überaus komplizierten Sachverhaltes, um den es geht: „Wetter und Klima welt­weit.“ 

Zusammenfassend ist zu sagen:

Die etablierte Klimaforschung ist in der AGW-Frage in höchstem Maße uneins. Wer „Klimaskeptiker“ oder gar „Klimaleugner“ sucht, braucht die etablierte Klimawissenschaft nicht zu verlas­sen. Die Positionen reichen von „kein Zusammenhang zwischen anthropogenem CO2  und Erderwärmung“ bis zu „sehr enger und exakt quantifizierbarer Zusammenhang zwi­schen anthropogenem CO2 und Erderwärmung“. 

Die Uneinigkeit resultiert aus Unterschieden in den wissenschaftlichen Arbeiten und Forschungsergebnissen zu erwärmungsrelevanten Fragen jenseits der allseits ak­zeptierten Eigenschaft des Spurengases Kohlenstoff-Dioxid (CO2) als eines Infrarot aktiven Gases mit grundsätzlichem Erwärmungspotential.

Sie betreffen zum Bei­spiel: 

–  den Anteil des anthropogenen CO2 am gesamten CO2  – Gehalt der Atmosphäre

–  den Verbleib des anthropogenen CO2 in der Atmosphäre nach Menge und Zeit

–  den Strahlungsaustausch der erdnahen Atmosphäre (IR-aktive Gase wie CO2 und IR-erzeugende Wolken (Aerosole))

–  die Wechselwirkungen zwischen primärem anthropogenem CO2-Erwärmungseffekt, Meeres-Temperatur, Verdunstung, Wolkenbildung und deren Beitrag zu Erwär­mung versus Abkühlung

–  die konzentrations- und temperaturabhängigen Veränderungen der Wechselwirkungen zwischen CO2 und weiteren Treibhausgasen ( z. B. Wasserdampf, Methan)

–  die Bedeutung des LAMBERT-BEER’schen Gesetzes der logarithmisch abnehmenden Aufnahmefähigkeit der atmosphärischen Spurengase in den Strahlungsbanden. 

Diese Beispiele sind vorsichtige Hinweise auf die kaum zu überschätzenden Er­kenntnis-Schwierigkeiten, die dann auftreten, wenn man das „Labor der theoreti­schen Physik“ verlässt und sich in die weite Welt des weltweiten Wetters begibt. 

Nur wer diese Schwierigkeiten negiert oder nicht wenigstens ansatzweise in ihrer riesigen Dimen­sion erfasst, wird den „Mut“ oder die „Dummheit“ aufbringen, wissen­schaftliche Einigkeit und Übereinstim­mung auf dem nahezu unendlich komplexen Gebiet der Wetter- und in deren Gefolge der Klimaforschung zu unterstellen. 

So lange die Gebote der naturwissenschaftlichen Beweispflicht im Sinne eindeutig belegbarer und wiederholbarer Ergebnisse nicht erfüllt sind, ist es Aufgabe der Wis­senschaft zu fragen, zu zweifeln und auch zu streiten. 

Der wissenschaftliche Streit muss ohne wenn und aber bis zum eindeutigen Ende belegbarer und nachvollziehbarer Ergebnisse ausgetragen werden. Wissenschaftlicher Streit darf niemals dadurch umgangen werden, dass er, aus welchen Gründen auch immer, aus der Wissenschaft in die Politik  getragen und dort auf dem Wege der Ver­handlung durch „Kompromisse“ verkleistert wird, also willkürlich.

Diese Umgehung wurde im IPCC nach Struktur wie Verfahrensweise zum Prinzip er­hoben. Wissenschaftlichen Dissens durch politisch dramatisierte Kompromisse zu verkleistern hat sich dort als alltägliche Praxis und mit verheerenden Folgen einge­bürgert. Bereits 1999 gab Prof. Stephen Schneider, IPCC-Leit-Autor, die Aufgabe zur Dramatisierung vor:

„Deshalb müssen wir Schrecken einjagende Szenarien ankündigen, vereinfachende, dramatische Statements machen und irgendwelche Zweifel, die wir haben mögen, wenig erwähnen. Um Aufmerksamkeit zu erregen, brauchen wir dramatische State­ments und keine Zweifel am Gesagten. Jeder von uns Forschern muss entschei­den, wie weit er eher ehrlich oder eher effektiv sein will.“ (Bachmann, H.: Die Lüge von der Klima-Katastrophe, 4.Aufl., Frieling-Vlg. Berlin, 2008, S.9)

Aber der Kleister wird brüchig. Die innerwissenschaftliche Uneinigkeit und der Drang zu Drama und Katastrophe treten zutage. Angesprochen auf die politische Wirkung der bevorstehenden Verdoppelung des CO2-Restbudgets – also der AGW-Halbierung – durch den IPCC-Leitautor Prof. Marotzke (MPI HH) im o. a. Spiegel-Interview:

Einige von meinen Kollegen machen sich deshalb schon Sorgen, dass dies falsch ankommt. Wenn sich das herumspricht, so ihre Befürchtung, legen alle wieder die Hände in den Schoß. 

Mit anderen Worten:

Die klimawissenschaftliche Wahrheit steht beim IPCC stets in Konkurrenz zu politischer Opportunität und Dramatisierung. Ein Blick auf die nach ähnlichem Rezept – allerdings noch krankhaft gesteigert – agierende 16-jährige schwedische Klimaaktivistin Greta Thunberg zeigt, wie „weit“ man es inzwischen mit sach- und faktenferner Krisen- und Katastrophenpredigt in der ohnehin fast religiös aufgeheizten Klimadebatte bringen kann. 

Angesichts der riesigen energiepolitischen, wirtschaftlichen, verkehrspolitischen, gesellschafts- und sozialpolitischen sowie umweltpolitischen Dimension des Pro­jektes „Dekarbonisierung“ ist die Tatsache ein Skandal, dass bis heute jeder ernst­hafte Versuch fehlt, die AGW-These im Sinne einer umfassenden Klärung der Strahlungs- und Energie-Bilanz-Debatte experimentell zu überprüfen und abzusichern. 

Wie soll man verstehen, dass für experimentelle physikalische Grundlagenfor­schung, beispielsweise für den Bau und Betrieb von Teilchenbeschleunigern, Milliar­den aufgewendet werden, während die AGW-Debatte im Sumpf höchst spekulativer „Modell-Szenarien“ vermengt mit politischer Dramatisierung verkommt? Die Ant­wort kann auf jeden Fall nicht lauten, dass  AGW experimentell grundsätzlich nicht zu erforschen sei. (michael-schnell-experimentelle-verifikation-des-treibhauseffektes, https://www.youtube.com/watch?v=uyatWldokc4)




Selbst Lehrern geht das Klimageheuchel schon auf den Geist

Mich wunderte das etwas – war die politische Schlagseite der Schüler doch spätestens seit den 90ern von vielen Lehrern selber hervorgerufen worden. Heutzutage soll sogar die Mehrheit der Lehrer nach Aussage vieler kritisch eingestellter Schüler links-ökologisch eingestellt sein. Ein Praktikant bei der CDU berichtete mir dies beispielsweise von seinem Bildungsinstitut vor Ort, einem naturwissenschaftlich fokussierten Gymnasium.

Was stört die Lehrer also? Während der Arbeitszeit dürfen sie nicht jede Woche mit ihrer Klasse zum Demonstrieren ausschwärmen, müssten also freitags im Schulgebäude untätig herumsitzen, und würden ihren festgelegten Lehrplan fürs Abitur nicht absolvieren können.

Der entscheidende Grund allerdings scheint tatsächlich die Vernunft zu sein, wie ein von unserem geschätzten Leser Herrn Leibner kürzlich in den Kommentaren erwähntes Video nahe legt. Dort beteuert ein Schuldirektor zwar seinen Glauben an die Klimakatastrophe, kritisiert aber schwänzwillige Schüler heftig, indem er ihnen Heuchelei vorwirft. Konkret mahnt er an, dass der Klimaschutz nicht nur Freitagvormittag stattfinde, sondern schon viel früher. Wer klimademonstrieren wolle, müsse zuerst aufs Autofahren zur Bewältigung von Kurzstrecken, auf Flugreisen, Plastikverpackungen und vieles andere verzichten.

Wo er Recht hat, hat er Recht; nur sind seine Forderungen recht allgemein. Oder doch nicht? Ich hatte den Eindruck, dass er von konkreten Beobachtungen vor seiner Schule und im umgebenden Viertel berichtet. Er spricht von den vielen „SUVs“, diesen riesigen Halb-Limousine-halb-Geländewagen-Vehikeln, die mir selber gerne den Platz für meinen Drahtesel vorm Haus wegnehmen. Mit solcherlei Gefährten werden offenbar morgens viele Schüler von den Eltern zum Unterricht gebracht. Weiterhin spricht unser Rektor von den üppig mit Kunststoff verpackten Nahrungsmitteln, die er wohl in den Einkaufswagen des Schülermilieus beobachtet. Daher verlangt der kritische Lehrer in seinem Video, dass all die Ökobewegten, die nicht bereit seien, auf all diese CO2-erzeugenden Bequemlichkeiten zu verzichten, das Kommentieren unterlassen sollten. Auch hier kann man ihm nur zustimmen.

Allein, wird es etwas nützen? Nein, natürlich nicht. Der Mann im Video erinnert mich an die marxistischen Dissidenten in der DDR, die der SED-Regierung anhand der kommunistischen Theorie Inkonsequenz, Missbrauch der Ideale und Heuchelei vorwarfen. Es geht den „Idealisten“ nach aller Erfahrung aber nie tatsächlich um die Sache, sondern nur um die Vorteile, die man aus ihr ziehen kann. Sei es, dass man sich nur als Mitglied der „richtigen“ Gruppe präsentieren kann; sei es, dass man via Moralindustrie richtig viel Geld machen kann. Und mit dem Geld wiederum kann man Flugreisen buchen und teure SUVs kaufen….

Was in dem durchaus beeindruckenden Video auffällt, ist, dass der Direktor erstaunlich häufig betont, dass er der Klimakatastrophentheorie zustimme. Ich glaube ihm durchaus. Es scheint aber, als ob er erhebliche Angst davor habe, in den Verdacht zu geraten, etwas Verbotenes getan zu haben. Was meinen Sie, lieber Leser? Hier das Video:

 

 




Lernen Sie den neuen Chefberater der „Klimaskeptiker“ des Weißen Hauses kennen

William Happer, ein Wissenschaftler aus Princeton, der an den Gefahren des Klimawandels zweifelt, scheint die Beratungen des Weißen Hauses zu leiten, in Bezug auf der Schlussfolgerung, dass die globale Erwärmung eine Bedrohung darstellt.

Vor fünfundzwanzig Jahren hatte William Happer eine Begegnung mit dem Weißen Haus, die schlecht endete.

Zu dieser Zeit, im Jahr 1993, machte der Princeton-Professor eine Pause von der Wissenschaft, um wissenschaftliche Forschung am US-Energieministerium zu leiten. Er warf einen skeptischen Blick auf eines der Lieblingsprobleme des damaligen Vizepräsidenten Al Gore: die Risiken, die von Chemikalien ausgehen, die Ozon in der Stratosphäre zerstören sollen und dadurch gefährliche ultraviolette Strahlung einzulassen. Wie die Geschichte so geht, ging Happer ins Weiße Haus und sagte Gores Stab, dass er keine Beweise dafür sehe, dass das Ozonloch tatsächlich irgendwann mal jemanden verletzt hätte.

Gore war darüber sichtlich verärgert und Prof. Happer verlor seinen Job.

Heute ist Happer wieder im Weißen Haus und kämpft immer noch gegen unbegründete Behauptungen, wie z.B. die, dass unsere Welt in Gefahr ist. Aber dieses Mal wird sein Anliegen durch den Mann im Oval Office unterstützt.

Happer, 79, wurde im vergangenen Herbst in den Stab des Nationalen Sicherheitsrats von Präsident Trump berufen. Laut den an die Washington Post durchgesickerten Dokumenten, scheint er das Weiße Haus dazu zu drängen, die offizielle Einschätzung der Regierung zum Klimawandel zu überdenken, der zufolge, der Klimawandel als ernsthafte Gefahr für die nationale Sicherheit angesehen wird.

Am Donnerstag (28.02.2109) schickten die Vorsitzenden von vier verschiedenen Ausschüssen im Repräsentantenhaus einen Brief an Präsident Trump und äußerten sich besorgt über die jüngsten Berichte, wonach der Nationale Sicherheitsrat (NSC) ein geheimes Gremium zusammenstellen möchte, das von einem diskreditierten Leugner des Klimawandel geleitet wird. Man befürchtet, dass der überwältigende wissenschaftliche Konsens über Natur und Bedrohungen des Klimawandels untergraben werden könnte.“

Die vier Demokraten erklärten sich „zutiefst besorgt darüber, dass Dr. Happer diese Ausschüsse anzuführen scheint“.

Happer ist eine faszinierende und kontroverse Figur. Er wurde in Indien geboren, als es eine britische Kolonie war, als Sohn eines schottischen Oberst und einer amerikanischen, medizinischen Missionsschwester. Seine Mutter, mit dem jungen Will im Schlepptau, verbrachte einen Teil des Zweiten Weltkriegs als Ärztin am geheimen Standort des Manhattan-Projekts in Oak Ridge, Tenn. Die Familie ließ sich später in North Carolina nieder.

Happer wurde Physiker. Er lehrte an der Columbia University und trat 1980 der Princeton University bei.

„Er ist ein verdammt guter Wissenschaftler“, sagt Steven Koonin , ein prominenter Physiker, der jetzt Professor an der New York University ist und Happer seit 30 Jahren kennt. „Es gibt zwei wirklich bedeutende Beiträge, die mit ihm verbunden sind.“

Eine seiner Arbeiten ermöglichte es, viel bessere Bilder von den Lungen der Menschen aufzunehmen. Eine andere erlaubt es den Astronomen, die Sterne klarer zu sehen.

Gleichzeitig erlangte Happer einen Ruf als skeptischer Wissenschaftler, der unbewiesene Schlussfolgerungen in Frage stellt – insbesondere in Bezug auf die Umweltwissenschaften.

Dieser Ruf wurde durch die Konfrontation von Happer mit Gores Mitarbeitern hinsichtlich der Risiken durch das Ozonloch gefestigt. Der Vorfall wurde in wissenschaftlichen Veröffentlichungen ausführlich behandelt – Physics Today brachte einen Artikel mit dem Titel (~) „Happer verlässt das Energieministerium in einer Ozonwolke, wegen Verletzung der politischen Korrektheit“.

Koonin glaubt, dass Happer das tat, was ein Wissenschaftler tun sollte und verlangte bessere Beweise. „Ich denke, es hat ihn für die Schwammigkeit vieler Umweltwissenschaften sensibilisiert“.

Einige von Happers wissenschaftlichen Kritikern, sehen es jedoch als Misstrauen gegenüber den Wissenschaftlern an, die Umweltrisiken untersuchen.

In den letzten zehn Jahren hat Happer eine leidenschaftliche Kampagne durchgeführt, um Ängste vor der globalen Erwärmung durch Kohlendioxidemissionen und anderer Treibhausgase zu entkräften.

In einer 2015 vom Heartland Institute organisierten Konferenz, die gegen Beschränkungen der fossilen Brennstoffe argumentierte, spottete Happer diese Ängste und bezeichnete sie als Alice-in-Wonderland-Fantasie. „Als ich mich in diese Gebiete einarbeitete musste ich lernen, dass man davon ausging, dass CO2 eine schädliche Erwärmung verursachte. Extremes Wetter und Noahs Flut, wie es ihnen gesagt wird. Ich erinnere mich, das ich dachte:“ Sind die verrückt?“

Tatsächlich ist Kohlendioxid gut für den Planeten, macht Happer geltend. Es ist wie Dünger und macht die Ernte produktiver. „Wir müssen die Dämonisierung fossiler Brennstoffe energisch zurückdrängen. Sie sind überhaupt keine Dämonen, sie sind uns zu diensten.“

Einige Kollegen von Happer in Princeton sprechen öffentlich nur ungern über ihn. Es ist wie eine Verwandtschaft, die aus dem Ruder gelaufen ist.

„Ich meine, ich mochte ihn. Nach unseren Ausschusssitzungen sind wir ein paar Mal auf einen Kaffee gegangen“, sagt Michael Bender , emeritierter Professor für Geowissenschaften und Klimaforscher.

Aber jetzt würde er es jetzt nicht mehr tun. Dies liegt zum Teil am wissenschaftlichen Streit, weil Bender der Meinung ist, dass Happer die Beweise falsch versteht. Aber es liegt auch am Stil von Happer – er hat die Klimawissenschaft als Kult bezeichnet und andere Wissenschaftler beschuldigt, Klimaängste aufgebauscht zu haben, um ihre eigene Karriere anzukurbeln. Ergrimmt ist Bender durch Happers Behauptung: „Die Dämonisierung von Kohlendioxid ist genauso wie die Dämonisierung der Juden unter Hitler.“

„Wissen Sie, es gab einen Punkt, an dem er die Integrität meiner Kollegen angegriffen hat“, sagt Bender, „und ich hatte das Gefühl, dass ich danach keine herzliche Beziehung mehr mit ihm haben könnte.“

Happer, der letzten Herbst im Weißen Haus als leitender Mitarbeiter des Nationalen Sicherheitsrats gearbeitet hatte, war nicht autorisiert, zu dieser Geschichte Stellung zu nehmen.

Robert Socolow , ein anderer Princeton-Kollege, hat gemischte Gefühle in Bezug auf Happers Botschaft. Socolows eigene Biografie – zuerst Physiker, dann Umweltfachmann – macht ihn zu einer Art Brücke zwischen Happer und den Umweltwissenschaftlern auf dem Campus von Princeton. Er bezweifelt nicht das technische Verständnis von Happer in Bezug auf die Klimawissenschaft, sagt jedoch, dass „jeder [Wissenschaftler] Bereiche von Irrationalität hat“.

„Ich denke, dass die Umwelt im Allgemeinen und der Klimawandel im Besonderen ein Bereich von Wills Irrationalität ist. Trotzdem denke ich, dass er etwas erreichen kann“, sagt Socolow.

Socolow hofft, dass Happer sich im Weißen Haus weniger wie ein argumentierender Physiker verhält und eher wie eine Person, die sich auf jede Möglichkeit vorbereitet – einschließlich der Möglichkeiten, die er für unwahrscheinlich hält.

„Ein Soldat unterschätzt den Feind nicht. Eine Geschäftsmann unterschätzt nicht die Konkurrenz“, sagt Socolow. „Und selbst wenn, wie Happer es betont, Ungewissheit über den Verlauf des Klimawandels besteht, dürfen die USA diese Risiken nicht unterschätzen.“

Gefunden auf National Public Radio vom 01.03.2019

Übersetzt durch Andreas Demmig

https://www.npr.org/2019/03/01/698073442/heres-the-white-houses-top-climate-change-skeptic?t=1551553550345&t=1551644137049




Geschenk von oben : Der Klimawandel bietet Behörden neue Eingriffsmöglichkeiten ; Sozialistische Politiker und NGOs sind begeistert.

Wahltaktisch geschickt hat der Basler Grosse Rat zudem zur Freude der Jugendlichen auf der Tribüne über Klimanotstand und Klimanotfall debattiert. Und aus Schulklassen tönt es: Maturareise per Bahn statt per Flugzeug.

Der Druck kommt von oben, und zwar von ganz oben, nämlich von der Uno, die seit Jahren den grossen Herausforderungen für die Zukunft der Weltbevölkerung hilf- und tatenlos gegenübersteht. Seien es Kriege, Machtkämpfe, Terror, Unterdrückung, Verfolgung, Korruption – Erfolge fehlen. Das gilt auch mit Blick auf die Bevölkerungsexplosion. Die Anzahl Füsse ist mindestens so wichtig wie der Fussabdruck. Da kommt der Klimawandel wie gerufen. Er ist ein echt globales Phänomen und eine erstklassige Gelegenheit für die Uno, sich weiter in Richtung Weltregierung vorzuarbeiten.

Jetzt kann man das sündhafte Atmosphärengift CO2 vor alle anderen Krisen, von Armut bis Krieg, setzen. CO2 ist wie die radioaktive Strahlung weder sichtbar noch riechbar und eignet sich bestens als Sündenbock für quasireligiöse Kampagnen. Das Höllen-Desaster liegt nicht im Jenseits, sondern im Diesseits des nächsten Jahrhunderts. Das Ziel, die Erwärmung auf 1,5 Grad Celsius zu begrenzen, kann nämlich erst im 22. Jahrhundert erreicht werden – oder eben nicht. Die Rettung des Planeten, bezogen auf eine, politisch betrachtet, sehr ferne Zukunft, verleitet zu Jahrhundertfehlern.

Jahrhundertchance

Das völlig unverbindliche und wirkungslose Pariser Abkommen wird so zum irdischen Wunder erklärt, das der Uno eine Art Weltherrschaft und den nationalen Regierungen Vollzugsgewalt verspricht. Dabei könnte man das viel nüchterner sehen. Sollte die Temperatur tatsächlich empfindlich steigen, kämen unvergleichlich billigere Methoden zur Klimasteuerung in Betracht, beispielsweise künstlich erzeugte Wolken. Jetzt einen Klimanotstand für das 21. Jahrhundert auszurufen und die Welt in ein Energiedesaster zu stürzen, ist nicht nur hysterisch, sondern zynisch. Der Klimaprophet Professor Thomas Stocker verkündet die radikale Beseitigung von CO2-Emissionen auch gleich noch als Jahrhundertchance für die Wirtschaft.

Mit einigen Ausnahmen machen die meisten Länder schuldbewusst bis freudig mit. Indien und China dürfen ihren Ausstoss noch bis 2030 vergrössern. Den ärmsten Entwicklungsländern werden jährlich hundert Milliarden Dollar Abgeltung versprochen. Die Amerikaner sind schon offiziell ausgestiegen, und die Australier gehen eigene Wege. Aber warum ist man gerade in der Schweiz so eifrig bei der Sache?

Die Antwort: Für marktfeindliche Gruppen wie linke oder grüne Parteien sowie NGOs ist das ein Geschenk – nicht vom Himmel, aber immerhin von der Uno. All die gleichgefärbten Bürokraten der internationalen Organisationen verbünden sich mit ihren Kollegen in Bundesämtern. Hinzu gesellen sich kollektivistisch gesinnte Mitläufer aus dem Bürgertum. Heute haben es die Öko-Sozialisten viel leichter als früher, weil es ja um die Existenz unserer Kinder und Enkel geht und wir uns schuldbewusst geben können, ohne den Preis bezahlen zu müssen. Ein vom Parlament kürzlich abgelehnter unsinniger Schweizer Alleingang in weltrekordverdächtig hoher CO2-Besteuerung wird jetzt mit dem Support der einmal mehr kippenden FDP wiederbelebt. Lenkungsabgaben werden als Zukunftsinvestition begrüsst, dabei werden sie irgendwann in Subventionen für Sonderinteressen umgemünzt. Das Forcieren von Solar- und Windenergie sowie der Nuklearausstieg fördern in diesem Jahrhundert paradoxerweise das Gas.

Schon die sozialistische Planwirtschaft hatte gerade bei Menschen mit höherer Bildung viele Anhänger. Erst das Versagen bei der Umsetzung und der Niedergang nach zwei bis drei Generationen führten zur Abkehr davon. So weit ist es heute im modernen Öko-Sozialismus noch nicht, zumal staatliche Bürokratien und wissenschaftliche Propaganda die Medien und die Volksstimmung dominieren. Anzeichen der Ernüchterung gibt es jedoch. Im Musterland für opferbereite Klimahysterie hat das Berner Stimmvolk kürzlich ein unsoziales und ineffizientes Energiepaket abgelehnt. Wenn Wunschträume sich als falsch erweisen und die Portemonnaies der breiten Bevölkerung leeren, sind Illusionen schnell vom Tisch, allerdings sind die Täter dann auch schon von der Bühne verschwunden.

================================================================

)**  Anmerkung der EIKE-Redaktion: Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : Geschenk von oben | Die Weltwoche, Nr. 9 (2019) | 22. Februar 2019 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Silvio Borner für die Gestattung der ungekürzten Übernahme des Beitrages. Silvio Bornerist Mitglied im Carnot-Cournot-Netzwerk, einem Interdisziplinären Think Tank für Politikberatung in Technik und Wirtschaft  [http://www.c-c-netzwerk.ch/].

=================================================================




Hurrikane und Klimawandel 2: Zuordnung

Erkennung und Zuordnung von Änderungen der Hurrikan-Aktivität

Der gängigen Argumentation zufolge sollte die Hurrikan-Aktivität und besonders deren Intensität zunehmen, wenn sich die Ozeane im Zuge des Klimawandels erwärmen. Allerdings wird in jedem der im 1. Teil erwähnten Zustandsberichte der Zuordnung von Änderungen aus jüngerer Zeit der Hurrikan-Aktivität zur vom Menschen verursachten globalen Erwärmung nur geringes Vertrauen entgegen gebracht (low confidence).

Welche wissenschaftliche Grundlage gibt es, um die Frage zu beantworten, ob es die vom Menschen verursachte globale Erwärmung ist, die eine Änderung der Hurrikan-Aktivität nach sich zieht, oder ob es irgendetwas anderes ist?

Die Erkennung und Zuordnung anthropogener Signale im Klimasystem ist ein neues und rapide sich ausweitendes Feld. Will man eine beobachtete Änderung oder auch nur ein Teil derselben einem kausalen Faktor zuordnen (wie etwa einem anthropogenen Klima-Antrieb), so muss man normalerweise diese Änderung erst einmal erkennen. Eine erkannte Änderung ist eine solche, bei der es aufgrund von Beobachtungen sehr unwahrscheinlich ist (weniger als 10% Wahrscheinlichkeit), dass sie allein der internen natürlichen Variabilität geschuldet ist. Eine Zuordnung einer Änderung zu irgendetwas impliziert, dass der relative Beitrag kausaler Faktoren evaluiert worden ist, zusammen mit statistischem Vertrauen.

Es gibt einige Umstände, unter denen eine Zuordnung ohne Erkennung angemessen sein kann, obwohl eine Zuordnung immer nur geringes Vertrauen enthält, wenn sie nicht durch eine beobachtete Änderung gestützt wird. Zum Beispiel muss eine Trendanalyse für ein extrem seltenes Ereignis nicht bedeutsam sein. Schließt man eine Zuordnung ohne Erkennung in die Analyse von Auswirkungen des Klimawandels mit ein, reduziert man die Chance einer falschen negativen Zuordnung – und folgert fälschlich, dass der Klimawandel keine Auswirkungen auf gegebene Extrem-Ereignisse hat. Allerdings besteht bei einer Zuordnung ohne vorherige Erkennung das Risiko falscher positiver Zuordnungen – wobei man fälschlich folgert, dass der anthropogene Klimawandel einen Einfluss darauf hat, obwohl das in Wirklichkeit nicht der Fall ist.

Das konzeptionelle Modell der meisten Analysen bzgl. Erkennung und Zuordnung enthält vier Elemente:

Zeitreihen relevanter Beobachtungen

die geschätzte Zeitreihe relevanter Klima-Antriebe (wie etwa Treibhausgas-Konzentrationen oder vulkanische Aktivität)

eine Abschätzung der Auswirkung von Klima-Antrieben auf die interessierenden Klima-Variablen

eine Abschätzung der internen Variabilität der interessierenden Klima-Variablen – z. B. natürliche Variationen von Ozean, Atmosphäre, Festland, Cryosphäre usw. beim Fehlen externer Antriebe

Paläoklimatologische Antriebe aus geologischen Aufzeichnungen sind nützlich für Studien bzgl. Erkennung, bieten sie doch eine Grundlage dafür, dass man die gegenwärtige Variabilität mit derjenigen im vorigen Jahrhundert oder so vergleichen kann. Zeit des Entstehens ist der Zeitrahmen, in welchem Klimawandel-Signale in verschiedenen Regionen erkennbar werden – ein wichtiges Thema, kann doch die natürliche Variabilität erzwungene Klimasignale über Jahrzehnte verschleiern, vor allem in kleinräumigeren Gebieten.

Erkennung

Es gibt drei Hauptschwierigkeiten bei der Erkennung von Signalen der Änderung der Hurrikan-Aktivität:

sehr lange Zeitmaßstäbe in den Ozeanen, was zu einer substantiellen Verzögerung zwischen externen Antrieben und der Auswirkung auf den Klimawandel nebst dessen Auswirkungen führt

natürliche Variabilität mit hohen Amplituden in den Ozeanbecken in Zeitmaßstäben von Jahr zu Jahr und von Jahrtausend zu Jahrtausend.

starke regionale Variationen, sowohl innerhalb der Ozeane als auch der Hurrikan-Aktivität

Auf der Grundlage der zuvor zusammengefassten Beobachtungen kann man folgende Zusammenfassung hinsichtlich der Änderungen globaler oder regionaler Hurrikan-Aktivitäten geben:

globale Hurrikan-Aktivität: kleine, aber signifikante Trends abnehmender Hurrikan-Häufigkeit und zunehmender Stärke von Hurrikanen

globaler Anteil in Prozent von Hurrikanen der Stärke 4/5: zunehmender Trend seit 1970, obwohl die Qualität der Daten vor dem Jahr 1988 umstritten ist

Rate der Verstärkung: Hinweise auf eine globale Zunahme trotz nicht übereinstimmender Datensätze

Zugbahnen: im Zeitraum 1982 bis 2012 polwärtige Verlagerung der Breite, in der Hurrikane im Mittel die maximale Intensität ihres Lebenszyklus‘ erreicht haben

Atlantische Hurrikane: zunehmender Trend seit 1970, jedoch wurde eine vergleichbare Aktivität auch im Zeitraum 1950 bis 1960 beobachtet.

Hurrikane in anderen Gebieten: Aufzeichnungen von Beobachtungen sind zu kurz, aber es gibt keinerlei Hinweise auf Trends, die über die natürliche Variabilität hinausgehen.

Die Grundlage von Beobachtungsdaten (seit 1970 oder sogar seit 1850) ist zu kurz, um die volle Auswirkung der natürlichen internen Variabilität abzuschätzen, welche mit großräumigen Meeresströmen assoziiert ist. Paläoklimatologische Analysen zeigen aber, dass die derzeitige Hurrikan-Aktivität nicht ungewöhnlich ist.

Quellen von Variabilität und Änderung

Erkennt man keinerlei signifikante Änderungen der globalen oder regionalen Hurrikan-Aktivität, müssen Zuordnungs-Verfahren ohne Erkennungen angewendet werden. Diese Verfahren erfordern die Abschätzung der Beiträge externer Antriebe (z. B. CO2, Vulkane, solar) zur Klima-Variabilität/-Änderung plus der natürlichen internen Variabilität im Zusammenhang mit den großen Meeresströmen. In einem Zuordnungs-Verfahren in zwei Schritten sind Änderungen von Zwischen-Variablen (Wassertemperatur der Ozeane, Windscherung, Luftfeuchtigkeit) nützlich bei der Identifikation physikalischer Vorgänge, wobei eine Erwärmung zu einer Änderung der Hurrikan-Aktivität beitragen kann.

Der Schwerpunkt in diesem Abschnitt liegt auf der Identifikation von Quellen der Änderung und der Variabilität während des Zeitraumes seit 1850, also seit historische Daten verfügbar sind.

Häufig wird hinsichtlich einer Zunahme der Hurrikan-Aktivität argumentiert, dass sie einher geht mit einem Anstieg der globalen Wassertemperatur. Abbildung 4.1 zeigt die Variabilität global gemittelter Wassertemperaturen (SST) seit 1850 zusammen mit externen Antrieben durch CO2 aus Vulkanen und der Sonne.

Man erkennt in Abbildung 4.1a, dass die Wassertemperaturen im Jahre 1910 global ein Minimum durchlaufen haben, um danach bis etwa 1945 rapide zu steigen. Die erhöhte atlantische Hurrikan-Aktivität von den dreißiger bis zu den fünfziger Jahren war aufgetreten, als die globalen Wassertemperaturen etwa 0,8°C niedriger lagen als heute. Dieser Erwärmungsphase folgte eine Periode mit leichter Abkühlung bis etwa zum Jahre 1976, nach welchem die Temperaturen wieder zu steigen begannen.

Abbildung 4.1: (oben) Wassertemperatur-Anomalien global (°C) aus HadSST. (Mitte) anthropogene CO2-Emissionen; Quelle: IPCC AR 5. (Unten) jährliche mittlere Zeitreihe von Klima-Treibern: atmosphärische CO2-Konzentration, stratosphärische Aerosole (Vulkanausbrüche), solare Gesamt-Einstrahlung sowie troposphärische Aerosole; Quelle: Hegerl et al. (2018)

Die globale Erwärmung der Ozeane von 1910 bis 1945 um 0,6°C ist vergleichbar mit der Erwärmung um 0,7°C im Zeitraum 1976 mit 2018. Hinsichtlich der jüngsten Erwärmung zeichnete das IPCC folgende Zuordnung:

● „Es ist extrem wahrscheinlich, dass über die Hälfte der beobachteten Erwärmung von 1951 bis 2010 der Zunahme anthropogener Treibhausgase und anderen anthropogenen Antrieben geschuldet ist. Das best estimate des anthropogenen Beitrags zur Erwärmung ist ähnlich der beobachteten Erwärmung während dieses Zeitraumes“.

Mit anderen Worten, das best estimate des IPCC ist, dass die gesamte Erwärmung seit 1951 vom Menschen verursacht ist.

Was aber war dann die Ursache der Erwärmung zu Beginn des 20. Jahrhunderts? Dieser Frage ist bemerkenswert wenig Aufmerksamkeit seitens der Klimawissenschaftler zuteil geworden. Eine fehlende Erklärung der Ursachen jener Erwärmung vermindert die Glaubwürdigkeit des IPCC-Statements bzgl. der Erwärmung ab 1951.

Eindeutig waren hinsichtlich der Erwärmung zu Beginn des 20. Jahrhunderts noch andere Faktoren außer CO2 im Spiel (Abb. 4.1 Mitte). Hinsichtlich externer Strahlungsantriebe würde eine Periode relativ geringer vulkanischer Aktivität im Zeitraum 1920 bis 1960 einen relativen Erwärmungseffekt haben, obwohl der Zeitraum 1945 bis 1960 Schauplatz einer leichten insgesamten Abkühlung war. Der solare Antrieb zu Beginn des 20. Jahrhunderts auf Erwärmungen unterschiedlicher Magnitude ist unklar, obwohl diese Magnituden unzureichend bzgl. eines solaren Einflusses sind, um ein direkter Haupt-Antrieb der globalen Erwärmung Anfang des 20. Jahrhunderts sein zu können.

Ändert die globale Erwärmung die internen Zustände der Variabilität?

Die internen Zustände der Variabilität im Zusammenhang mit großräumigen Ozean-Zirkulationen werden oftmals als ,Oszillationen‘ bezeichnet. Es ist jedoch unrichtig, diese Oszillationen als ,zyklisch‘ zu betrachten, sind doch deren Periode und Häufigkeit unregelmäßig. Im Prinzip kann eine bestimmte Oszillation aufhören zu bestehen oder ihren Zustand der Variabilität ändern, weil deren internen Zustände assoziiert sind mit der nicht linearen Dynamik des gekoppelten Atmosphäre-Ozean-Systems.

Weil die historischen Aufzeichnungen nicht besonders weit zurückreichen, vor allem in anderen Gebieten als dem Atlantischen Ozean, ist es sinnvoll, paläoklimatische Hinweise dieser Oszillationen in Betracht zu ziehen.

Der NCA4 (2017; Kapitel 5) kam zu dem Ergebnis, dass das Vertrauen gering ist hinsichtlich der Auswirkung einer vom Menschen verursachten globalen Erwärmung auf Änderungen dieser internen Zustände im Zusammenhang mit der großräumigen Ozean-Zirkulation.

Schlussfolgerungen

Modelle und die Theorie zeigen, dass Hurrikan-Intensität und Regenmenge in einem sich erwärmenden Klima zunehmen sollten. Es gibt aber keine Theorie, die eine Änderung der Anzahl der Hurrikane oder eine Änderung von den Zugbahnen derselben im Zusammenhang mit höheren Temperaturen umfasst.

Eine überzeugende Zuordnung jedweder Änderungen erfordert, dass eine Änderung der Hurrikan-Charakteristika mittels Beobachtungen erkannt wird mit einer Änderung, die über die natürliche Variabilität hinausgeht.

Aus Beobachtungen geht hervor, dass der globale Prozentsatz von Hurrikanen der Kategorien 4/5 zunimmt, obwohl die Stärke der Zunahme abhängig ist vom untersuchten Zeitraum, wobei aus manchen Gebieten vor dem Jahr 1987 nur fragwürdige Beobachtungen vorliegen. Wegen der kurzen Zeit mit Datenaufzeichnungen erfordert die Zuordnung jedweden Anteils dieser Zunahme zur anthropogenen globalen Erwärmung eine sorgfältige Auswertung der Daten und der Zustände der natürlichen Variabilität in jeder einzelnen Region, in der Hurrikane auftreten.

Während Theorie und Modelle zeigen, dass die Regenmenge bei Hurrikanen in einem sich erwärmenden Klima zunehmen sollte, sind Beobachtungs-Analysen aufgrund von Satellitendaten bisher in bedeutsamer räumlicher oder zeitlicher Auflösung nicht durchgeführt worden.

Es gibt einige Hinweise für eine globale Verlangsamung der Verlagerung tropischer Zyklone im letzten halben Jahrhundert, aber diese beobachteten Änderungen sind bis jetzt noch nicht halbwegs zuverlässig dem anthropogenen Klimawandel zugeordnet worden.

Zwar hat es im Atlantik seit 1970 eine gewisse Zunahme der Hurrikan-Aktivität gegeben, doch ist diese vermutlich getrieben durch Änderungen der Atlantischen Multidekadischen Oszillation (AMO) und des Atlantic Meridional Mode (AMM). Simulationen von Klimamodellen zeigen, dass die jüngste Rate der Intensivierung atlantischer Hurrikane über das hinausgeht, was man von der natürlichen internen Variabilität erwarten kann.

Falls die anthropogene globale Erwärmung eine Zunahme bzgl. mancher Aspekte der Hurrikan-Aktivität verursacht, sollte diese Zunahme global auftreten und nicht nur in einem einzelnen Ozeanbecken. Ein Problem dabei besteht darin, dass die Daten für eine Erkennung auf globaler Ebene unzureichend sind. Betrachtet man ein einzelnes Ozeanbecken, ist eine korrekte Interpretation und Simulation der natürlichen internen Variabilität unabdingbar wichtig, doch ist unser Verständnis und unsere Fähigkeit, die natürliche interne Variabilität zu simulieren, äußerst begrenzt.

Alles in allem ist das Trendsignal der Hurrikan-Aktivität noch nicht über die Hintergrund-Variabilität natürlicher Prozesse hinausgegangen. Anthropogener Klimawandel kann Änderungen der Hurrikan-Aktivität verursacht haben, die noch nicht erkennbar sind, und zwar wegen der geringen Größenordnung dieser Änderungen im Vergleich zur geschätzten natürlichen Variabilität oder wegen grenzen der Beobachtbarkeit. Aber an diesem Punkt gibt es keinen überzeugenden Beweis dafür, dass die anthropogen verursachte globale Erwärmung eine Änderung der Hurrikan-Aktivität verursacht hat.

Link: https://judithcurry.com/2019/02/20/24737/#more-24737

Übersetzt von Chris Frey EIKE




Weiberfastnacht 2: Kopfwäsche. Greta und die massenbewegte Jugend

von Heinz Horeis

Eine einfache Lösung, die „ein kleines Kind“ verstehen könne, hat die schwedische Nachwuchsaktivistin auch: „Wir müssen den Ausstoß von CO2 stoppen“, fordert sie. Man kann es ihr nicht verübeln; einfache Lösungen sind ein Vorrecht von Kindern. Sie bekommen Angst, wenn ihnen grüne Politiker, Journalisten oder Lehrer täglich das „Ende der Welt“ ausmalen.

Unnötige Angst. Denn die Katastrophenszenarios sind Potemkinsche Dörfer. Hinter deren Fassaden geht es recht normal zu: wechselnde Wetter, mal ruhige, mal stürmische Zeiten, mal Starkregen, Überschwemmungen oder Taifune. Warme und heiße Sommer, kühle und sehr kalte Winter und umgekehrt. Wetter halt – Vielfalt, wie gehabt. Dazu eine im Schnitt freundliche Temperatur. Bullerbü-Wetter, wie im letzten Sommer, vor dem Greta sich nicht fürchten müsste.

Doch Greta hat Pech. Sie wächst in einer Zeit auf, wo Schuld und Angst leicht zu haben sind, wo die Zukunft bedrohlich und die Endzeit nahe ist. Denn ein Planet steht auf dem Spiel. Wetter ist jetzt Extremwetter. Klimapolitische Glaubenssätze haben sich tief in den modernen Gesellschaften festgesetzt. Sie sind alternativlos: Es droht die „menschengemachte katastrophale Erderwärmung“, verursacht durch vom „fossilen Energiesystem freigesetztes Kohlendioxid“. Das ist heute selbstverständliches Dogma, über das man nicht mehr diskutiert. Fakten, selbst Fragen, die dem widersprechen, stören nur. Was zählt, ist Haltung. Und viel Emotion.

Große Gefühle, die eine massenbewegte Jugend braucht

Hier passt Greta gut hinein. Sie erweckt die großen Gefühle, die eine massenbewegte Jugend braucht. „Außergewöhnlich“ sei sie, sagte Joan Baez jüngst der NZZ. Diese „jungen Klimademonstranten“ seien alles, was wir haben. Die legendäre Protestsängerin steht mit dieser Meinung nicht allein. Im Gegenteil: Der Klimawandel hat sich inzwischen fest in Geisteswissenschaft und Kunst eingenistet. Die wohlhabende Prominenz – Schauspieler, Sänger, Schriftsteller – ist zum großen Teil klimabewegt, wie der „Sternenkrieger“ Harrison Ford. Er zog in seiner Videobotschaft an den World Government Summit in Dubai kräftig vom Leder: „Unser Planet leidet … Wasserknappheit … beispiellose Waldbrände … weltweite Zerstörung … die größte moralische Krise unserer Zeit“.

Der indische Romanautor Amitav Gosh, der vor kurzem im amerikanischen Politikmagazin Foreign Policy einen Essay über die kommende Klimakrise veröffentlichte, geht mit dem Thema zwar etwas intelligenter, dennoch nicht weniger ängstlich um. Gosh, 1956 in Kalkutta geboren, Geschichtsstudium in Neu-Delhi, Promotion in Oxford, schreibt lesenswerte historische Romane, die sich vorwiegend um seine indische Heimat drehen. Sie sind weltweit Bestseller. Vor knapp drei Jahren veröffentlichte er ein Sachbuch, betitelt The Great Derangement: Climate Change and the Unthinkable. Goshs erfolgreiche, ebenfalls lesenswerte Kollegin Annie Proulx zählt sein Buch zu den besten Büchern zum Thema Klimawandel; Foreign Policy reihte den Autor jüngst bei den 100 wichtigsten globalen Denkern des Jahres 2018 ein.

Gosh wendet sich der Klimageschichte zu, insbesondere der Mitte des 19. Jahrhunderts zu Ende gegangenen Kleinen Eiszeit. Damit hofft er, die „kommende Klimakrise“ besser zu verstehen. Sein Ansatz ist deshalb interessant, weil die herrschenden Klimatologen die Klimageschichte nur mit Feuerzange anfassen. Der Weltklimarat (IPCC) hatte sich jahrelang bemüht, jeglichen Wandel aus dem Klimageschehen des letzten Jahrtausends zu entfernen. Der aktuelle Temperaturanstieg sollte als singuläres, bedrohliches Ereignis hervorstechen. Das Resultat war die berüchtigte „Hockeyschläger-Kurve“ des Klimatologen Michael Mann; die Warmzeit des Mittelalters und die folgende Kleine Eiszeit sind in dieser Grafik einfach verschwunden.

Inzwischen hat sich die Hockeykurve als fehlerhaft entpuppt. Warm- und Kaltzeit sind wieder zurück. Naheliegend wäre nun, dass Gosh die heutige Erwärmung an der mittelalterlichen Warmzeit misst. Er wählt allerdings die Kleine Eiszeit. Ihn hat „das ungeheure Ausmaß der ökologischen, gesellschaftlichen und politischen Umbrüche jener Ära“ schockiert. Die menschengemachte Erderwärmung, so meint er, werde nun in ihren Auswirkungen diese Periode noch übertreffen. Mit dieser Annahme begibt sich auch Gosh in den Katastrophenmodus.

Die Kleine Eiszeit dauerte vom 14. bis zum Ende des 19. Jahrhunderts, hin und wieder unterbrochen durch kürzere Erwärmungen. Diese turbulente Periode der „Klimaverschlechterung“ war eine der kältesten Phasen der vergangenen zehntausend Jahre. Lange, extrem kalte Winter folgten aufeinander; einmal, Anfang der 14. Jahrhunderts, fror sogar die Ostsee zu. Häufig gab es Missernten und Hungersnöte, extreme Hochwasser und Sturmfluten. Kriege und Seuchen verwüsteten das Land. Wälder wurden verheizt. Menschen wurden schwermütig, Fürsten gemütskrank, schreibt Wolfgang Behringer in seiner Kulturgeschichte des Klimas. Extreme Wetter wurden als Strafe Gottes, als Zeichen für das Ende der Welt interpretiert. Endzeitsekten entstanden; Hexenverbrennungen und Judenpogrome folgten.

Warmzeiten sind keine Katastrophenzeiten

Schlimme Zeiten, zweifellos. Aber was haben diese Ereignisse mit der jetzigen Erwärmung zu tun? Ist ein wärmeres Klima ebenso bedrohlich wie ein kaltes? Warmzeiten, zeigt die Geschichte, sind keine Katastrophenzeiten. Und auch keine Seltenheit. Seit dem Jahre Null gab es diverse größere und kleinere Warmzeiten, unterbrochen von kalten Perioden. Alle natur-, nicht menschengemacht. Permanenter Klimawandel. Den findet man auch (siehe diese anschauliche Grafik), wenn man weiter bis zum Ende der letzten großen Eiszeit vor etwa zehntausend Jahren zurückgeht. Warme Perioden, die ähnlich warm oder sogar noch wärmer waren als heute, kalte Perioden. Beim Klima ist Wandel die Regel, nicht die Ausnahme.

Gut hat es der, der in einer Warmzeit lebt. Der eminente britische Klimaforscher H.H. Lamb sprach vom „genialen Klima des Hochmittelalters, das mit der Hochzeit kultureller Entwicklung im 12. und 13. Jahrhundert zusammenfiel.“ Der Münchener Evolutionsbiologe Josef H. Reichholf schreibt in Eine Kurze Naturgeschichte des letzten Jahrtausends: „Katastrophen wie Pest, verheerende Hochwasser, riesige Heuschreckenschwärme passen mit den kalten und feuchten Zeiten in Mitteleuropa zusammen. Das warme Mittelalter wurde von ihnen verschont“. Die warmen Jahrzehnte und Jahrhunderte seien die ‚guten‘ gewesen, so seine Bilanz.

Nicht nur die Europäer, auch die Chinesen hatten ihre guten Zeiten. Dort wandelte sich das Klima während der vergangenen 2.000 Jahre annähernd so wie in unserem Teil der Welt. Dabei wirkten sich Klimaänderungen in den kalten Zeiten negativ und in den warmen positiv aus, so eine 2017 von der Chinesischen Akademie der Wissenschaften veröffentlichte Studie: 25 der 31 Hochphasen im kaiserlichen China der vergangenen zwei Jahrtausende entwickelten sich während der Warmzeiten.

Diese Studie ist kein Einzelfall. Es gibt zahlreiche Untersuchungen, die weltweit die Existenz von Warmzeiten und ihre positiven Auswirkungen belegen. Alles andere wäre auch verwunderlich: Mensch und Natur mögen Wärme. Wir können deshalb froh sein, dass mit dem ausgehenden 19. Jahrhundert auch ein Warmtrend begonnen hat. Ohne diesen steckten wir immer noch in der Kleinen Eiszeit.

Die Angst vor einem Klimawandel, wie sie sich bei Gosh und Greta zeigt, ist unnötig und wirkungslos. Das Klima wandelt sich – ständig, mehr oder weniger schnell und unaufhaltsam. Allerdings sagt uns die Überlieferung, dass ein Wandel in Richtung Warmzeit vorzuziehen sei. Aber auch eine Abkühlung von der Intensität der Kleinen Eiszeit, die für die Zukunft nicht ausgeschlossen werden kann, muss nicht mehr zur Katastrophe führen. Das danken wir der Kohle.

Kohle schütze vor der Unbill von Wetter und Klima

Das Kohlezeitalter begann noch während der Kleinen Eiszeit in England. Um 1800 lieferte Kohle dort bereits 79 Prozent der Energieversorgung. Dank Kohle wurde London zur ersten europäischen Millionenstadt. Kohle heizte die Haushalte. Kohle lieferte die Wärme für Glashütten und Ziegeleien. Ziegelmauern und Glasfenster hielten Häuser (und Menschen) warm. Während man im übrigen Europa noch mit dem immer knapper werdenden Holz heizte, konnten sich die englischen Bürger schon mittels (damals) moderner Energie und Technologie vor der Unbill von Wetter und Klima schützen.

Inzwischen hat die durch fossile Brennstoffe und Kernenergie angetriebene wissenschaftlich-technische Revolution Lebensweise und Lebensstandard in den Industrienationen von Grund auf verändert, und zwar zum Positiven. Moderne Gesellschaften verfügen über eine technische Umwelt, die sie weitgehend vor den Härten von Natur, von Wetter und Klima schützt.

Ein starker Hurrikan in Haiti oder Myanmar bringt Tausenden den Tod, in den USA sind es nur wenige Dutzend. Reiche Länder verfügen über genügend Know-how, Technik, Energie und Wirtschaftskraft, um sich an Wetter und Klimawandel anzupassen. Den ärmeren Ländern fehlen diese Mittel weitgehend. Sie müssen, wie es derzeit China oder Indien tun, erst die industriell-technische Basis schaffen, um ihre Verwundbarkeit gegenüber Natur und Klima zu verringern. Das geht nicht mit Biomasse, Wind- und Sonnenenergie. Im Gegenteil. Diese „Natur“-Energien sind selbst wieder anfällig für Klimaereignisse, im Gegensatz zur billigen, stets verfügbaren Energie aus Erdöl, Erdgas, Kohle oder Uran.

Für Menschen, die vergessen haben, wem sie ihr Wohlleben verdanken, ist mit der Kohle allerdings das Böse in die Welt gekommen. Der Erfolg der Klimabewegung beruht auf einer einfachen Botschaft: Vom Menschen erzeugtes Kohlendioxid erwärmt die Erde; Erwärmung führt zur Katastrophe; ohne das böse, vom Menschen gemachte Kohlendioxid, wird alles wieder gut. Die Botschaft kommt an, bei Greta und den demonstrierenden Schülern, bei grünen Politikern und Journalisten, bei der globalen Prominenz.

Keine der drei Aussagen hält der Wirklichkeit stand. Atmosphärischer CO2-Gehalt und Temperatur korrelieren im besten Falle schwach. Während der mittelalterlichen Warmzeit, die so warm, vielleicht sogar wärmer als heute war, lag der CO2-Gehalt deutlich unter dem heutigen Wert. Heute können gute Klimaforscher guten Gewissens nur sagen, dass das Kohlendioxid einer (und nicht einmal der wichtigste) von mehreren Faktoren im Klimageschehen ist. Und dass Erwärmung zur Katastrophe führt, ist durch die Geschichte nicht belegt. Im Gegenteil: Warmzeiten waren gute Zeiten.

Auch der dritte Punkt des Klimaevangeliums ist hinfällig. Es ist keineswegs sicher, dass eine Senkung der CO2-Emissionen den Klimawandel signifikant beeinflussen kann. Sicher aber ist, dass die Methoden, mit denen diese Senkung erreicht werden soll, größeren Schaden anrichten werden als jede Klimaänderung. Wer leistungsstarke Energiequellen wie Kohle, Erdgas und Erdöl kurzerhand abschafft und durch Sonne, Wind und Biomasse ersetzt, bringt die Welt in eine Situation, wo auch kleine Kaltzeiten wieder zu Katastrophenzeiten werden.

Einfache Lösungen, liebe Greta, sind dann doch nicht so einfach.
–                              –                                       –

Heinz Horeis arbeitete als Lehrer für Physik und Mathematik, Programmierer und EDV-Dozent bevor er als freier Wissenschaftsjournalist tätig wurde. Er war ständiger Autor von bild der wissenschaft, schrieb für Welt, Zeit, Berliner Zeitung u.a. Seit 1990 arbeitet er mit dem Yazawa Science Office in Tokio zusammen und hat dabei an über dreißig populärwissenschaftlichen Büchern als Autor bzw. Mitautor mitgewirkt. Mit dem Thema Energie befasst er sich seit der ersten großen Energiedebatte in den 1980er Jahren.

Mit freundlicher Genehmigung des Autors und der Achse des Guten.