1

Gavins falsifi­zierbare Wissen­schaft

Nun hatten Gavin und ich schon früher einige Berührungspunkte. Wir begannen unsere Korrespondenz in Gestalt einer Klima-Mailing-Liste, moderiert von Timo Hameraanta etwa um die Jahrtausendwende, vor Facebook und Twitter.

Der interessante Teil unseres Austausches war das, was mich davon überzeugte, dass er ein miserabler Programmierer war. Ich befragte ihn bzgl. seines Programms, dem GISS globalen Klimamodell. Mich interessierte, wie in diesem Modell die Energieerhaltung sichergestellt wurde. Ich fragte, wie am Ende eines jeden Zeitschritts im Modell verifiziert wird, dass Energie weder erzeugt noch vernichtet wird.

Er erwiderte, was ich bereits aus meiner eigenen Erfahrung wusste beim Schreiben iterativer Modelle, dass es nämlich immer ein gewisses Energie-Ungleichgewicht gibt von Beginn bis Ende des Zeitschritts. Falls sonst nichts weiter stellt die diskrete digitale Natur jeder Berechnung sicher, dass es leichte Rundungsfehler geben dürfte. Falls diesen nicht Rechnung getragen wird, können sie sich leicht akkumulieren und das Modell herabziehen.

Er sagte, dass das GISS-Modell diesem Ungleichgewicht Rechnung trägt mittels gleichmäßiger Verteilung der überschüssigen bzw. der fehlenden Energie über den gesamten Planeten.

Nun, das scheint vernünftig für triviale Größen des Ungleichgewichtes durch Digitalisierung. Aber was ist bei größerem Ungleichgewicht, wenn es durch irgendwelche Probleme bei den Berechnungen auftritt? Was dann?

Also fragte ich ihn, wie groß dieses Energie-Ungleichgewicht typischerweise sei … und zu meinem Erstaunen erwiderte er, dass er es nicht wisse.

Verblüfft fragte ich, ob es irgendeine Computer-Version einer „Murphy Gauge“ bzgl. der überschüssigen Energie gibt. Eine Murphy Gauge (unten) ist ein Messgerät, welches das Murphy’sche Gesetz berücksichtigt, indem es Ihnen erlaubt, einen Alarm ertönen zu lassen, wenn die Variable außerhalb des erwarteten Bereichs liegt … was natürlich der Fall sein wird, Murphy gibt es vor. Im Computer wäre das Äquivalent etwas in seinem Modell, das ihn warnt, falls zu viel oder zu wenig Energie einen gewissen Wert überschreitet.

Nein! Nicht nur, dass er kein Murphy-Messgerät hat, sondern auch, dass er keine Ahnung hat, wie weit sich das Modell von der Realität entfernt hinsichtlich der Energieerhaltung, weder im Mittel noch bei individuellen Zeitschritten. Er brachte es einfach mit jedem Zeitschritt wieder zurück ins Gleichgewicht, drehte sich um und ließ es laufen.

An dieser Stelle kam ich zu der Überzeugung, dass Gavin gegenüber seinem Modell viel zu unkritisch war. Ich schrieb mein erstes Computer-Programm im Jahre 1963, etwa zu der Zeit, als Gavin geboren worden war. Und ich traue Computermodellen nicht ein bisschen über den Weg. Sie beißen die Hand desjenigen, der sie füttert, schon bei der kleinsten Gelegenheit, selbst wenn man sie mit Murphy-Messgeräten eingrenzt … und dieses grundlegende Problem hat Gavin nie verstanden.

Dieses Problem stellt sich besonders bei dem, was „iterative“ Modelle genannt wird. Hierbei handelt es sich um Modelle, die Schritt für Schritt durch die Zeit rechnen, wobei das Ergebnis eines jeden Zeitschrittes in die Berechnung des nächsten Zeitschrittes eingeht. In solchen Modellen neigen die Fehler dazu, sich zu akkumulieren, so dass sie sehr leicht außer Kontrolle geraten … und Klimamodelle sind durch die Bank iterative Modelle. Die folgende Graphik zeigt eine große Anzahl von Modellläufen eines iterativen Klimamodells:

Abbildung 1: 2017 Läufe eines Klimamodells von climateprediction.net

Abbildung 1b (unten) zeigt die Temperaturänderung. Man beachte, wie während der „Kontrollphase“, wenn es keine Änderung der Eingangsgrößen gibt, selbst ein kleiner kontinuierlicher Temperaturrückgang dazu führen kann, dass das Modell vom Boden des Graphen bis zur „Schneeball-Erde“ hinunterspringt, wie es die Kontrollphase der modellierten Temperatur in Abbildung 1a (oben) zeigt.

Also bin ich so argwöhnisch wie es nur geht hinsichtlich sämtlicher moderner iterativer Klimamodelle. Sie sind alle frisiert, um zur Vergangenheit zu passen … aber in allen davon sind die Klima-Sensitivitäten unterschiedlich. Wie kann das sein? Nun … es kann nicht sein. Es bedeutet, dass sie sich das nur ausdenken. Ich habe dieses Problem bereits hier beschrieben, und es ist ein großes Problem.

Als Nächstes möchte ich eine Kehrtwende vollziehen, um die Grundlage für eine Übersicht über Änderungen des Klimas in jüngerer Zeit zu bilden. Damals im Mittelalter, etwa im Zeitraum 1300 bis 1500 oder so, war es genauso warm oder sogar wärmer als heute. Aber dann im 17. Jahrhundert kühlte sich die Erde ab und trat in die „Kleine Eiszeit“ ein. Das war eine schwierige Zeit für Pflanzen, Tiere und uns Menschen gleichermaßen. Kürzere Wachstumszeiten, zugefrorene Flüsse und Häfen, Missernten.

Warum war es im Mittelalter so warm? Wir wissen es nicht. Warum gab es so relativ plötzlich den Übergang in die Kleine Eiszeit? Wir wissen es nicht. Warum kam die Abkühlung um das Jahr 1600 und nicht 1400 oder 1800? Wir wissen es nicht.

Nach einem sehr kalten Jahrhundert begann die Temperatur wieder zu steigen. Und seit etwa dem Jahr 1750 oder so setzte sich dieser Anstieg mit Unterbrechungen fort, etwa mit einem halben Grad pro Jahrhundert während der letzten zwei Jahrhunderte.

Warum wurde es nach der Kleinen Eiszeit nicht noch kälter? Wir wissen es nicht. Warum begann es nach der Kleinen Eiszeit wieder wärmer zu werden, anstatt dass die Temperatur auf dem niedrigen Niveau verharrte? Wir wissen es nicht. Warum begann es um das Jahr 1700 wärmer zu werden und nicht erst 1900? Wir wissen es nicht. Warum kam es zu der langsamen Erwärmung seit der Kleinen Eiszeit? Wir wissen es nicht.

Wie man sieht – obwohl wir viel über das Klima wissen … wissen wir aber auch NICHT viel über das Klima.

In jedem Falle, hiermit als Prolog folgt hier eine Kurzversion seiner „falsifizierbaren Wissenschaft“ aus seinem Tweet.

Wir entwickeln Theorien.

1) Strahlungstransport (z. B. Manabe and Wetherald, 1967)

2) Energiebilanz-Modelle (Budyko 1961 und viele nachfolgende Studien)

3) GCMs (Phillips 1956, Hansen et al 1983, CMIP etc.)

Wir geben falsifizierbare Prognosen aus. Hier sind einige davon:

1967: Zunehmendes CO2 wird zur Abkühlung der Stratosphäre führen

1981: Zunehmendes CO2 wird Erwärmung an der Erdoberfläche verursachen, die bis zu den 1990er Jahren messbar sein wird.

1988: Erwärmung durch zunehmende Treibhausgase wird den ozeanischen Wärmegehalt zunehmen lassen.

1991: Der Ausbruch des Pinatubo wird etwa 2 bis 3 Jahre Abkühlung bringen.

2001: Zunehmende Treibhausgase werden in Weltraum-Spektren erkennbar

2004: Zunehmende Treibhausgase werden zu einer fortgesetzten Erwärmung um ~0,18°C pro Dekade führen

Wir überprüfen die Prognosen:

Abkühlung der Stratosphäre?

Erkennbare Erwärmung? ✅

Zunahme des ozeanischen Wärmegehaltes? ✅

Abkühlung im Zusammenhang mit dem Pinatubo-Ausbruch? ✅

Weltraum-basierte Änderungen der IR-Absorption? ✅

Erwärmung nach dem Jahr 2004?

Beginnen möchte ich damit, darauf hinzuweisen, dass er drei sehr separate und unterschiedliche Theorien aufbläht:

● Theorie 1: Zunehmendes CO2 lässt die atmosphärische Absorption zunehmen, was die Temperatur insgesamt der verschiedenen atmosphärischen Schichten beeinflusst und die nach unten gerichtete so genannte „Treibhaus“-Strahlung zunehmen lässt.

● Theorie 2: Kurzfristig ändert eine große Änderung der abwärts gerichteten Strahlung die Temperatur am Erdboden.

● Theorie 3: Langfristig führen geringe fortschreitende Zunahmen der abwärts gerichteten Strahlung zu korrespondierenden geringen Steigerungen der globalen Temperatur in den bodennahen Luftschichten.

Und hier die Einwände: Ich denke, dass die ersten beiden zutreffend sind (mit Schwachpunkten), aber wir haben praktisch keinerlei Belege, ob die dritte wahr oder falsch ist.

Gehen wir also durch seine sechs Wege der Beweisführung; betrachten wir, von welche Theorie er gerade redet und sehen wir, ob diese Beweisführung einer kritischen Überprüfung standhält.

a) Zunehmendes CO2 wird zur Abkühlung der Stratosphäre führen. Dies soll offensichtlich Theorie 1 stützen. Der Verlauf der Temperatur in der Stratosphäre, ermittelt durch Mikrowellen-Sensoren an Bord von Satelliten, sieht so aus:

Abbildung 2: Globale Temperatur in der Stratosphäre, gemessen aus dem Weltall.

Wie man sieht, ist es zwar in der Stratosphäre tatsächlich kälter geworden, aber diese Abkühlung war ziemlich komplex. Die zwei Spitzen sind den in der Graphik markierten Vulkanausbrüchen geschuldet. Nach jedem davon ist es in der Stratosphäre etwa fünf Jahre lang wärmer geworden. Jedes Mal scheint sie sich auf einer niedrigeren Temperatur stabilisiert zu haben. Es gab einen geringen Rückgang seit der zweiten Eruption.Vielleicht kann man diese Änderungen Theorie 1 zuschreiben, obwohl das alles andere als klar ist.

b) Zunehmendes CO2 wird an der Erdoberfläche Erwärmung bringen, die bis zu den 1990er Jahren messbar sein wird. Das soll ein Beleg für Theorie 3 sein. Das ist zwar so, jedoch ist die Temperatur seit mehreren hundert Jahren gestiegen. Glaubt man nicht, dass es in der Kleinen Eiszeit schon SUVs gab, ist dies kein Beweis für die CO2-Temperatur-Theorie.

c) Erwärmung durch zunehmende Treibhausgase wird den ozeanischen Wärmegehalt OHC zunehmen lassen. Das Gleiche wie unter Punkt b) und der gleiche Einwand. Das soll Theorie 3 stützen, aber in einer sich erwärmenden Welt ist ein sich erwärmender Ozean für überhaupt nichts beweiskräftig.

d) Der Ausbruch des Pinatubo wird ~2 bis 3 Jahre Abkühlung bringen. Das soll Theorie 2 belegen … aber die Temperatur steigt auch nach Sonnenaufgang. Wir wissen, dass starke vorübergehende Änderungen der abwärts gerichteten Strahlung (in der Klimawissenschaft „forcing“ genannt) zu Änderungen der Temperatur in den bodennahen Luftschichten führen.

Allerdings waren die Modelle nicht gerade gut bei der Prognose des Ausmaßes der Abkühlung. Hier folgen einige Ergebnisse, die ich bereits vor zehn Jahren angesprochen habe:

Abbildung 3: Vergleich jährlicher Prognosen mit jährlichen Beobachtungen. Die Graphik oben ist Abbildung 2(b) aus der GISS-Prognosestudie, darunter ist meine Nachbildung aus digitalisierten Daten. Man beachte, dass sich vor dem Jahr 1977 die neue Version der GISS-Temperaturdaten von der Version 1992 unterscheidet. Ich habe eine Anomalie von 1990 = 0,35 in den neuen GISS-Daten angebracht, um zu der alten GISS-Version zu Beginn des Prognosezeitraumes zu passen. Alle anderen Daten entsprechen der Original-GISS-Prognose. Die Pinatubo-Prognose (blaue Linie) ist ein jährliches Mittel ihrer in ihrer Abbildung 3 dargestellten monatlichen Ergebnisse.

Man beachte, dass das Hansen/Schmidt GISS-Modell eine mehr als doppelt so starke Pinatubo-Abkühlung prophezeit hat als in der Realität tatsächlich eingetreten. Es wurde auch prognostiziert, dass die Abkühlung länger dauern sollte als es tatsächlich der Fall war. Ich komme gleich noch einmal hierauf zurück, aber für den Moment wollen wir festhalten, dass Theorie 2 zutreffend ist – kurzfristige Änderungen des Antriebs, erfolgen diese nun täglich, monatlich oder durch Vulkane, ändern in der Tat die Temperatur.

e) Zunahme von Treibhausgasen wird in Weltall-basierten Spektren erkennbar sein. Mit mehr Treibhausgasen in der Atmosphäre kann man erwarten, dass mehr IR-Strahlung absorbiert wird. Wir haben dies auf vielfältige Weise gemessen. Dies ist ein Beleg für Theorie 1.

f) Zunehmende Treibhausgase werden zu einer fortgesetzten Erwärmung von ~0,18°C pro Dekade führen. Das soll Theorie 3 stützen. Allerdings findet die Erwärmung bereits seit zwei oder mehr Jahrhunderten statt, und diese Prognose aus dem Jahr 2004 ist nichts weiter als eine Fortsetzung der dreißig Jahre Erwärmung zuvor. Noch einmal: die Tatsache einer nach wie vor stattfindenden Erwärmung ist kein Beweis für irgendetwas.

Zusammenfassung

Die Theorien 1 und 2 sind eindeutig zutreffend und durch eine Reihe von Belegen gestützt. Drei seiner sechs Punkte stützen diese beiden Theorien.

Die anderen drei Beweispunkte sagen, dass nach über zwei Jahrhunderten einer allmählichen Erwärmung … sich die Erwärmung fortsetzt. Das sagt genau gar nichts über Theorie 3.

Und das ist auch das ungelöste Problem mit der CO2-Theorie … es sind wirklich drei sehr unterschiedliche Theorien, zusammengeschustert zu einer Theorie. Während zwei dieser Theorien eindeutig zutreffen, gibt es kaum Belege für das dritte Standbein des Stuhls. Und kein Stuhl kann mit nur zwei Beinen stehen bleiben.

Gavin schließt seine Twitterfolge hiermit:

Wir können auch die überprüfbaren, falsifizierbaren überprüften Theorien betrachten, die sich als falsch herausgestellt haben.

Solarer Antrieb? Scheitert am Test einer stratosphärischen Abkühlung

Änderung der ozeanischen Zirkulation? Keine Zunahme des OHC

Orbitaler Antrieb? Scheitert auf multiplen Ebenen

Falls man eine Theorie hat, von der man nicht glaubt, dass sie falsifiziert worden ist, oder falls man glaubt, die Mainstream-Folgerungen falsifizieren zu können – wunderbar! Das können wir auch überprüfen. (Aber viele Leute haben das bereits versucht, so dass es hierzu demnächst eine Antwort geben könnte).

Tatsächlich ist es noch etwas schwieriger. Nicht nur, dass man eine Theorie finden muss, die genauso gut ist wie die derzeit bestehende Theorie, sondern auch, dass man zeigen muss, warum die bestehende Theorie nicht angewendet werden kann.

Nun, ich habe in der Tat eine Theorie. Ich habe auch einen Haufen Beweise für dieselbe. Aber ich bin kein Klimaskeptiker – ich bin ein Klima-Häretiker; jemand, der deren grundlegende Behauptung leugnet, der zufolge Änderungen der Temperatur einfach eine einfache lineare Funktion von Änderungen des Antriebs sind.

Man ist daran interessiert herauszufinden, warum sich die Temperatur des Planeten mit der Zeit ändert. Das ist das Zentrum der modernen Klimawissenschaft. Meine Theorie andererseits fußt auf einer total anderen Frage bzgl. Klima – warum ist die Temperatur so stabil? Zum Beispiel variierte die Temperatur über das 20. Jahrhundert nur um ±0,3°C. In der gigantischen Wärmemaschine, die das Klima nun einmal ist, die fortwährend die Sonnenenergie nutzt, um Ozeane und Atmosphäre zirkulieren zu lassen, macht diese Variation gerade mal 0,1% aus … für jemanden, der es schon mit vielen Wärmemaschinen zu tun hatte, ist das eine erstaunliche Stabilität. Das System wird durch nichts weiter gesteuert als durch Wellen, Wind und Wasser. Meine Frage lautet also nicht, warum sich das Klima so ändert wie es das tut.

Meine Frage lautet: Warum ist das Klima so stabil?

Und meine Antwort lautet, dass es eine ganze Palette dessen gibt, was „auftauchende Phänomene“ sind, die auftauchen, wenn lokale Temperaturen über eine bestimmte lokale Schwelle steigen. Darunter fällt auch Timing und Menge der sich in den Tropen entwickelnden Kumulusbewölkung, die Bildung von Gewittern, das Auftreten von Staubteufelchen, wenn es zu heiß wird, die Art und Weise, wie El Nino/La Nina warmes Wasser in Richtung der Pole pumpen sowie verschiedene „Oszillationen“ wie etwa die Pazifisch-Dekadische Oszillation PDO.

Diese Phänomene tauchen aus dem Nichts auf, dauern eine Weile und verschwinden dann wieder vollständig. Und im Zusammenwirken arbeiten diese Phänomene daran zu verhindern, dass sich die Erde überhitzt oder zu stark abkühlt. Wie oben schon erwähnt sage ich, dass diese Phänomene auf Länge und Stärke der Folgen des Pinatubo-Ausbruches ihren Einfluss ausübten.

Ursprünglich veröffentlichte ich diese Theorie im Journal Energy and Environment. Dem folgte ein Beitrag mit den gleichen Gedanken hier bei WUWT in einem Beitrag mit dem Titel The Thermostat Hypothesis.

Ich habe diese Mission mit der Abfassung einer Anzahl von Beiträgen während der letzten 20 Jahre fortgesetzt, wobei ich beobachtete Belege der Theorie hinzugefügt und deren Verzweigungen erkundet habe. Darunter sind Beiträge mit der Überschrift „Emergent Climate Phenomena“, in welchem beschrieben wird, was Auftauchen bedeutet und warum das so wichtig ist; „The Details Are In The Devil“, in welchem erklärt wird, warum eine Analyse nach Art von „Klimasensitivität“ in einem thermostatisch kontrollierten System nicht funktioniert; „Watching Thunderstorms Chase The Heat“ worin beschrieben wird, wie Gewitter agieren, um die warmen Gebiete der tropischen Ozeane zu kühlen; und zuletzt „Drying The Sky“, wo die Evolution verschiedener Phasen im tropischen thermischen Regulierungssystem diskutiert wird.

Alles in allem habe ich rund 40 Artikel geschrieben, in welchen es darum ging, mittels dieser Theorie zu erklären, wie das Klima funktioniert. Einen Index zu einer Anzahl davon gibt es hier. Andere Beiträge aus jüngerer Zeit von mir stehen hier.

Nun fürchte ich, dass im Klima-Establishment kaum Interesse an meiner Theorie besteht, weil man dort nach Schlagzeilen Ausschau hält wie THERMAGEDDON! KLIMA-NOTSTAND! In meiner Theorie gibt es dafür keinen Raum, vielmehr ist eigentlich das Gegenteil der Fall. Meiner Theorie zufolge ist die zukünftige Erwärmung langsam und gering. Folglich bin ich von den Mächtigen ausgegrenzt, wie es bei allen guten Häretikern der Fall ist.

Abschließend möchte ich noch sagen, dass ich keinerlei akademische Qualifikationen vorweisen kann. Physik und Chemie auf dem College – das war’s.

Seitdem jedoch habe ich mich selbst hinsichtlich vieler Themen weitergebildet. Neben vielem Anderen habe ich dafür Abertausende Stunden zugebracht, alles über Klima zu erfahren … ohne auch nur ein einziges Zertifikat an meiner Wand hängen zu haben.

Link: https://wattsupwiththat.com/2020/01/18/gavins-falsifiable-science/

Übersetzt von Chris Frey EIKE




Studie, welche Modell­vorhersa­gen preist, beweist, wie sehr die Modelle über­treiben

Hier die Summary in „normaler Sprache“ aus der Studie mit dem Titel „Evaluating the performance of past climate model projections“ von Hausfather et al. (2019):

Klimamodelle stellen eine bedeutende Art und Weise dar, um zukünftige Änderungen des Klimas der Erde zu verstehen. In dieser Studie nehmen wir eine sorgfältige Evaluierung der verschiedenen Klimamodelle vor, welche von Anfang der 1970er Jahre bis zum Ende der 2000er Jahre veröffentlicht worden waren. Besonders betrachten wir, wie gut die Modelle die globale Erwärmung projiziert hatten über die Jahre nach deren jeweiliger Veröffentlichung und vergleichen sie mit beobachteten Temperaturänderungen. Modellprojektionen stützen sich auf zweierlei, um genau zu den Beobachtungen zu passen: genaue Modellierung der Klimaphysik und genaue Annahmen bzgl. zukünftiger CO2-Emissionen und anderer das Klima beeinflussender Faktoren. Das beste, auf physikalischer Grundlage stehende Modell wird ungenaue Ergebnisse liefern, falls zukünftige Emissionen eingehen, die nicht der Realität entsprechen. Um dem Rechnung zu tragen, betrachten wir, wie die Relation zwischen Temperatur und atmosphärischem CO2 (und anderen Klimatreibern) sich zwischen Modellen und Beobachtungen unterscheiden. Wir kommen zu dem Ergebnis, dass die während der letzten fünf Jahrzehnte veröffentlichten Klimamodelle ziemlich genau waren hinsichtlich der Vorhersage der globalen Erwärmung während der Jahre nach deren Veröffentlichung, besonders hinsichtlich Differenzen zwischen modellierten und tatsächlichen Änderungen des atmosphärischen CO2 und anderer Klimatreiber. Diese Forschung sollte helfen, die Verwirrung der Bevölkerung hinsichtlich der Genauigkeit von Klima-Modellierungen in der Vergangenheit aufzulösen. Außerdem lässt sie unter Vertrauen zunehmen, dass die Modelle die globale Erwärmung korrekt projizieren“.

Abbildung 1: Projektionen der general circulation models (GCMs; rot) des IPCC (1990, 1995, 2001) und Energiebilanz-Modelle (grün) im Vergleich mit der beobachteten Temperaturänderung (blau) in K pro Dekade – ausschließlich aus Datensätzen der Temperatur am Boden (Hausfather et al. 2019)

Wie Abbildung 1 belegt, haben einfache Energiebilanz-Modelle (wie dasjenige von Monckton of Brenchley et al. 2015) viel bessere Projektionen geliefert als die GCMs. In IPCC (1990) prophezeiten die Modelle eine mittlere Erwärmung von 2,78 oder 0,33 K pro Dekade. Bis 1995 waren die Projektionen sogar noch extremer. Im Jahre 2001 waren die Projektionen realistischer, wurden jedoch noch extremer in IPCC 2006 und 2013 in den jeweiligen Zustandsberichten. Die terrestrische Erwärmung seit 1990 von 1,85 K pro Dekade war nur etwa halb so groß wie die in jenem Jahr vom IPCC prophezeite Rate:

Abbildung 2: terrestrische Erwärmung von 1990 bis 2018 (Datensätze HadCRUT4, GISS und NCEI). Selbst wenn man das kleinere der beiden Intervalle von Globale-Erwärmung-Prophezeiungen des IPCC (1990) heranzieht und sogar annimmt, dass die terrestrische Temperaturaufzeichnung selbst nicht übertrieben ist, liegt die beobachtete Erwärmung am unteren Ende des Intervalls.

Abbildung 3: Erwärmung der unteren Troposphäre (UAH) von 1990 bis 2018. Sie leigt deutlich sogar noch unter der Untergrenze der Modellprojektionen, auf welche das IPCC seine Vorhersagen der mittelfristigen globalen Erwärmung gründete.

Hausfather et al. lassen es so aussehen, als ob die Modelle bzgl. von deren Projektionen akkurat waren nach dem Vergleich der beobachteten Erwärmung mit der Projektion des Energiebilanz-Modells in IPCC (1990). Allerdings stellte das IPCC seine Original-Projektionen auf die Grundlage der komplexeren und mehr für Übertreibungen anfällige GCMs – und macht das auch heute noch:

Abbildung 4: Wäre der El Nino 2016 nicht aufgetreten, läge die originale mittelfristige Prophezeiung aus dem Jahr 1990 immer noch exzessiver aussehen als es ist.

Ungeachtet der wiederholten Übertreibungen in den Projektionen der GCMs, welche zu minimieren Hausfather et al. in der Tat versucht haben, treiben die Modellierer das tote Pferd ,globale Erwärmung‘ in immer extremere Projektionen:

Abbildung 5: Projektionen der Charney-Sensitivität in 21 Modellen des CMIP5-Ensembles

Im Jahre 1979 prophezeite Charney eine mittlere Gleichgewichts-globale-Erwärmung pro CO2-Verdoppelung von 2,4 bis 3 K. Das IPCC (1990) wählte den höheren Wert als seine eigene mittelfristige Prophezeiung. Jetzt jedoch zeigen die neuen CMIP6-Modelle diese mittlere Prophezeiung als deren untere Grenze, und deren neue mittlere Projektion beträgt wie oben gezeigt 4,1 K.

Da die Erwärmung bei einer Verdoppelung der CO2-Konzentration in etwa gleich der Erwärmung ist, wie sie über das 21. Jahrhundert durch alle anthropogenen Einflüsse erwartet wird, projizieren die heutigen GCMs im Endeffekt eine Erwärmung um 0,41 K pro Jahrzehnt. Das wollen wir jetzt einmal in Abbildung 4 hinzufügen um zu zeigen, wie übertrieben die Projektionen sind, aufgrund welcher es Politiker und Banken derzeit ablehne, der Dritten Welt Kredite für die dringend benötigte Elektrifizierung zu gewähren:

Abbildung 6: Prophezeiung vs. Realität, dieses Mal mit der impliziten CMIP5-Prophezeiung.

Liniengraphiken wie Abbildung 6 neigen dazu, das wahre Ausmaß der Über-Prophezeiung zu verbergen. Abbildung 7 korrigiert die Verzerrung und zeigt das wahre Ausmaß der Über-Prophezeiung:

Abbildung 7: Projizierte mittlere Charney-Sensitivitäten (CMIP5 3,35 K orange, CMIP6 4,05 K rot). Sie liegen um das 2,5 bis 3-fache über den 1,4 K (grün), die erwartet werden können bei der gegebenen beobachteten globalen Erwärmung von 0,75 K von 1850 bis 2011 und einem erkannten anthropogenen Antrieb von 1,87 W/m² bis 2011. Der gesamt-anthropogene Antrieb von 2,5 W/m² bis 2011 wird auf die 3,45 W/m² geschätzten Antriebe skaliert als Reaktion auf eine CO2-Verdoppelung. Folglich würde die Charney-Sensitivität nach CMIP6 von 1850 bis 2011 eine Erwärmung um fast 3 K implizieren, also drei mal so hoch wie die zu erwartende und vier mal so hoch wie die beobachtete Erwärmung von 0,75 K.

Obwohl diese Analyse hier simpel ist, so ist sie doch kompliziert genug, um an den wissenschaftlich ungebildeten Politikern vorbeizugehen. Diese werden einfach von Klima-Kommunisten umschwärmt, die ihre Laufbahn bedrohen, falls sie es wagen, denjenigen beizuspringen, die sich gegen den Holocaust an den Machtlosen aussprechen.

Darum möchte ich schließen mit der Vereinfachung des Argumentes. Es ist das, was in keiner einzigen „wissenschaftlichen“ Studie bzgl. globaler Erwärmung angesprochen wird, was am aufschlussreichsten ist. Es ist das, von dem gesagt wird, dass es keine Rolle spielt. Ich konnte bislang keine einzige Studie finden, in welcher die ideale globale mittlere Temperatur festgestellt und glaubwürdig begründet wird.

Die Tatsache, dass Klima-„Wissenschaftler“ diese Frage anscheinend nie gestellt haben zeigt, dass das Thema globale Erwärmung ein politisches und kein wissenschaftliches Anliegen ist.

Die Tatsache, dass die Antwort auf diese Frage unbekannt ist zeigt, dass es keine rationale Grundlage gibt dafür, irgendetwas hinsichtlich des allgemein wärmeren Wetters zu tun, welches sich als höchst vorteilhaft dort herausgestellt hat, wo es am schnellsten dazu gekommen war – in den hohen Breiten und besonders an den Polen.

Es gibt mit Sicherheit keinen einzigen Grund, weder wissenschaftlicher, ökonomischer, moralischer oder anderer Natur, den 1,2 Milliarden Menschen den elektrischen Strom vorzuenthalten, die ihn nicht haben und die im Mittel 15 bis 20 Jahre früher sterben, weil sie ihn nicht haben.

Link: https://wattsupwiththat.com/2020/01/12/paper-praising-models-predictions-proves-they-greatly-exaggerate/

Übersetzt von Chris Frey EIKE




Neue Klimamodelle – sogar noch falscher

Im IPCC-Report AR5 wurde das folgende Diagramm gezeigt, woraus hervorgeht, wie sehr die Modelle die jüngste Erwärmung übertreiben:

Dabei handelt es sich um die Abbildung 11.25, die auch in der Technical Summary als Abbildung TS-14 erschien. In Kasten TS3 wird darüber Folgendes ausgeführt:

Eine Analyse sämtlicher historischer Simulationen der CMIP5-Modellkette (ergänzt für den Zeitraum 2006 bis 2012 mittels RCP4.5-Simulationen) zeigt, dass 111 der 114 Realisationen von 1998 bis 2012 einen GMST-Trend zeigen, der höher ist als der Trend im gesamten HadCRUT4-Ensemble (Kasten TS.3, Abbildung 1a; der mittlere Trend des Ensembles laut CMIP5 beträgt 0,21°C pro Dekade). Diese Differenz zwischen simulierten und gemessenen Trends könnte zustande kommen durch eine Kombination von a) der internen Klima-Variabilität, b) fehlendem oder falschem RF und c) Fehler der Modell-Reaktion“.

Nun könnte man denken, dass die neuen Modelle besser sind als ihre Vorgänger. Dies ist mathematische Modellierung 101: Falls ein Modell nicht zu den Daten passt, verbessert man das Modell entsprechend, um die Daten besser zu repräsentieren. Aber diese elementare Logik kommt im Bereich Klimawissenschaft in keiner Weise zum Tragen.

Das Hauptmerkmal (-fehler?) der neuen Modelle ist deren hohe Klima-Sensitivität. Man erinnere sich an die Aussage des IPCC, dass die Gleichgewichts-Sensitivität 1,5 bis 4,5°C beträgt, also eine Bandbreite, die sich über 30 Jahre nicht geändert hat. Die Studie des Met.-Office wartet mit einer Graphik von 5,4°C auf und die GFDL-Gruppe mit rund 5°C. Beide liegen also weit außerhalb der vom IPCC angegebenen Bandbreite. Natürlich haben die nützlichen Idioten in den Medien nichts Eiligeres zu tun als zu posaunen, dass sich die Erde noch schneller erwärmt als ursprünglich gedacht (hier). Aber solches wird nicht einmal in den Studien selbst behauptet.

Angesichts des Umstandes, dass die früheren Modelle zu warm laufen, wie es aus obiger IPCC-Graphik hervorgeht, und des Umstandes, dass in die neuen Modelle eine viel höhere Sensitivität eingeht, lautet die offensichtliche Frage, wie gut die Modelle sind hinsichtlich der Reproduktion im 20. Jahrhundert. Nun, man muss sich durch die gesamte UKESM1-Studie wühlen, um die Antwort auf diese Frage zu finden, aber vielleicht geht sie auch aus Abbildung 29 hervor, in welcher das neue Modell verglichen wird mit HadCRUT4 von 1850 bis zur Gegenwart:

(Die GFDL-Studie zeigt eine sehr ähnliche Grafik in Abbildung 12). Das Modell zeigt eine Erwärmung in jüngster Zeit, die erheblich über derjenigen der Beobachtungen liegt. Das Modell ist eindeutig viel zu sensitiv. Und was sagen die Autoren dazu? Es ist unglaublich, aber sie behaupten gleich oben in der Studie im Abschnitt „key points“:

UKESM1 zeigt gute Ergebnisse, mit einem stabilen vorindustriellen Zustand, und es zeigt eine gute Übereinstimmung mit Beobachtungen in einer breiten Vielfalt von Zusammenhängen.

Dann wiederholen sie diese Falschaussage im Abstract und behaupten, dass die Übereinstimmung genau dort besonders gut ist, wo sie besonders schlecht ist:

Alles in Allem zeigt das Modell gute Ergebnisse, mit einem stabilen vorindustriellen Zustand und guter Übereinstimmung mit den Beobachtungen im späteren Teil seiner historischen Simulationen.

Und noch einmal wiederholen sie das in der „plain language summary“ darunter. Vermutlich ist beabsichtigt, dass diese Lüge von den ahnungslosen Medien immer wieder herausgewürgt wird.

Selbst der alarmistische Klimawissenschaftler und BDS-sufferer [?] James Annan spottet über die Behauptungen in der Studie (hier) und schlägt die Formulierung vor „UKESM1 funktioniert großartig in jeder anderen Hinsicht als in seine primären Funktion“.

Betrügen sich diese Klima-Schussel am Met.-Office wirklich so sehr, dass sie von einer guten Übereinstimmung ausgehen? Hierzu kann man nur Richard Feynman mit seinen Worten zitieren:

Oberste Priorität muss es haben, sich nicht selbst zu betrügen – denn man selbst kann sich am leichtesten betrügen. [Siehe Bild oben!]

Link: https://cliscep.com/2019/11/05/new-climate-models-even-more-wrong/

Übersetzt von Chris Frey EIKE




Wie oft müssen nutzlose Klimamodelle sterben, bevor sie aufgegeben werden?

Der Artikel ist zu finden unter https://quadrant.org.au/opinion/doomed-planet/2019/09/a-climate-modeller-spills-the-beans/ und der Link wurde in Kommentaren von Pat in früheren WUWT-Posts veröffentlicht. [Danke, Pat. Ich dachte, die Information wäre einen eigenen Artikel wert, also ist es das.]

Dr. Mototaka Nakamura ist ein Ozeanograph und Meteorologe auf höchstem Niveau, der von 1990 bis 2014 an der Wolkendynamik sowie an atmosphärischen und ozeanischen Strömungen arbeitete. Er hat ungefähr 20 Klimastudien über Fluiddynamik veröffentlicht und hat jetzt einfach genug von den Taschenspielertricks, die für Klimawissenschaft und Klimamodellierung gelten.

Im Juni veröffentlichte er ein kleines Buch in japanischer Sprache mit dem Titel „ Bekenntnisse eines Klimaforschers: Die Hypothese der globalen Erwärmung ist eine unbewiesene Hypothese “. Hinter diesem milden Titel verbirgt sich jedoch ein eindringliches Bild der Nutzlosigkeit von Klimamodellen für Prognosen. In einer vernünftigen Welt würde dies die aktuellen Klimamodelle töten, die absolut tot sind. Aber zurzeit ist die Welt natürlich alles andere als gesund.

Dr. Nakamura geht detailliert auf viele der Misserfolge von Klimamodellen ein. Einige dieser Fehler sind bei WUWT bekannt, und ich vermute, dass sie auch einigen Modellprogrammierern bekannt sind. z.B.

In diesen Modellen fehlen einige entscheidend wichtige Klimaprozesse und Rückkopplungen vollständig und sie repräsentieren einige andere wichtige Klimaprozesse und Rückkopplungen in stark verzerrter Weise, was diese Modelle für eine aussagekräftige Klimavorhersage völlig unbrauchbar macht.

Ich selbst verwendete Klimasimulationsmodelle für wissenschaftliche Studien und nicht für Vorhersagen und lernte dabei deren Probleme und Grenzen kennen.

und

Die Ad-hoc-Darstellung von Wolken dürfte die größte Quelle der Unsicherheit bei der Vorhersage des Klimas sein. Eine fundierte Tatsache ist, dass bereits eine sehr kleine Änderung, die so klein ist, dass sie nicht genau gemessen werden kann… in den globalen Wolkeneigenschaften den Erwärmungseffekt des verdoppelten atmosphärischen CO2 vollständig ausgleichen können.

und

Eine genaue Wolkensimulation ist in Klimamodellen einfach nicht möglich, da Prozesse in einem Maßstab von weniger als 1 mm berechnet werden müssen. “Stattdessen gaben die Modellbauer ihre eigenen Wolkenparameter ein. Wer sich mit realer Wolkenbildung und dann mit der Behandlung in Klimamodellen befasst, ist verblüfft über die oberflächliche Behandlung von Wolken in den Modellen.

… Aber es lohnt sich, den vollständigen Quadrant Online-Artikel zu lesen – und den Link an alle Ihre Freunde und natürlich an alle Ihre Feinde weiterzuleiten.

Hier noch ein kleiner Auszug aus dem genannten Originalartikel

Die Temperaturvorhersagemodelle, die versuchen, mit den schwierigen Bedingungen des Klimas fertig zu werden, sind nicht besser als „Spielzeug“ oder „Mickey-Mouse-Geschichten“ der realen Welt, sagt er. Dies ist eigentlich keine radikale Idee. Das IPCC räumte in seinem dritten Bericht (2001) selbst ein (Hervorhebung hinzugefügt),

In der Klimaforschung und -modellierung sollten wir erkennen, dass es sich um ein gekoppeltes nichtlineares chaotisches System handelt und daher die langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist. (Kapitel 14, Abschnitt 14.2.2.2.)]

Irgendwie wurde diese offizielle Warnung von den Alarmisten jedoch tief vergraben. Jetzt hat Nakamura es wiedergefunden und die orthodoxen Wissenschaftler der „Datenverfälschung“ beschuldigt, indem sie frühere Temperaturdaten angepasst haben, um die scheinbare Erwärmung zu erhöhen. „Die globalen Daten zur mittleren Änderung der Oberflächentemperatur haben keinen wissenschaftlichen Wert mehr und sind nichts anderes als ein Propaganda-Werkzeug für die Öffentlichkeit“, schreibt er.

Danke, Pat.

Gefunden auf WUWT vom 29.09.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/09/29/how-many-times-do-useless-climate-models-have-to-be-killed-before-they-die/




Gespenstische Klimamodelle*

Gestatten Sie, dass ich mich kurz vorstelle. Ich arbeite am SLAC National Accelerator Laboratory der Stanford University. Mein Spezialgebiet sind Versuche, Messungen und Theorie. Es geht dabei, wie in jeder Wissenschaft, um Zuverlässigkeit. Wie zuverlässig sind die Messungen? Wie treffgenau sind die von der Theorie gelieferten physikalischen Beschreibungen? Wissen setzt Zuverlässigkeit voraus.

Im Jahr 2001 beschloss ich, die Thesen über den Zusammenhang zwischen CO2-Emissionen und Klima zu überprüfen. Ich wollte einfach wissen, ob die Schreckensmeldungen gerechtfertigt waren. Ich vertiefte mich in die Materie, und zwei Jahre später wusste ich, dass der Alarmismus nicht gerechtfertigt war.

Die Überzeugung, dass menschengemachte CO2-Emissionen zu einer Klimaerwärmung führen, erfordert zuverlässige Klimamodelle. Klimamodelle sind Ausdruck der physikalischen Klimatheorie und gegenwärtig die einzige Informationsquelle, die uns sagen kann, wie das Klima auf anthropogene CO2-Emissionen reagieren könnte.

Wenn Klimamodelle gewissermassen Vergrösserungsgläser sind, die man verwendet, um die Auswirkungen von CO2 auf das Klima zu betrachten, dann ist das so, als würde man mit einer Uhrmacherlupe Atome sehen wollen.

Wie naive Studenten

Vor zwei Wochen wurde meine Studie zu Klimamodellen nach entsprechenden Peer-Reviews in der Sektion «Atmospheric Science» der ZeitschriftFrontiers in Earth Scienceveröffentlicht. Ich beschäftige mich in meiner Arbeit mit den Fragen: Wie zuverlässig sind die Klimamodelle, und wie glaubwürdig sind ihre Prognosen einer CO2-getriebenen Erwärmung? Meine Antwort lautet: Sie sind weder zuverlässig noch glaubwürdig. Mehr dazu im Folgenden.

Im Laufe meiner Arbeit stellte ich fest, dass Klimaforscher nie die Treffgenauigkeit ihrer Klimamodelle geprüft haben.

Treffgenauigkeit besagt, wie nahe eine Antwort den realen Verhältnissen kommt. Die Streuung dagegen besagt, wie sehr verschiedene Antworten miteinander übereinstimmen. Die erste Grafik (r.) macht den Unterschied zwischen Treffgenauigkeit und Streuung deutlich. Bis heute werden Klimamodelle nur hinsichtlich ihrer Streuung beurteilt, nicht hinsichtlich ihrer Treffgenauigkeit. Natürlich müssen wir wissen, wie es um die Treffgenauigkeit von Klimamodellen bestellt ist, wenn wir den Prognosen über CO2-Emissionen und Klimaerwärmung glauben sollen. Da die Klimamodellierer aber so nachlässig mit ihren Modellen umgehen, ist das Einzige, was wir mit Sicherheit über das Verhalten von Klimamodellen wissen, in dem Kreis rechts oben in der Grafik dargestellt.

Aber die Realität ist noch schlimmer. Der Weltklimarat (IPCC) muss sich einen sogenannten Zielscheibenfehler (Texas sharpshooter fallacy) vorwerfen lassen. Gemeint ist damit ein Vorgehen in der Art eines texanischen Cowboys, der Löcher in ein Scheunentor schiesst und dann einen Kreis um die Einschusslöcher zieht, und zwar so, dass die meisten Einschüsse in der Mitte sind. Bei der Scheibe rechts oben wissen wir nicht einmal, wo der CO2-Mittelpunkt ist – bezogen auf die Klimamodell-Einschusslöcher. Er könnte meilenweit entfernt sein.

2013 war meine Untersuchung fertig. Ich schickte sie an eine wissenschaftliche Zeitschrift. Die Herausgeber waren nicht einmal bereit, das Manuskript zu lesen. Damit begann meine sechsjährige Reise durch neun wissenschaftliche Journale, mit dreissig Rezensenten und fünfunddreissig Besprechungen, auf die ich reagieren musste. Man kann also sagen, dass ich mit vielen Klimaforschern korrespondiert hatte, bevor meine Studie schliesslich veröffentlicht wurde.

Es geht darin um Fehleranalyse. Aber etwa dreiundzwanzig der dreissig Rezensenten waren offenbar Klimamodellierer. Es stellte sich nämlich heraus, dass ihnen nicht klar war, wie man physikalische Fehler evaluiert. Sie machten Fehler, die man bei einem naiven Studenten erwarten würde, der noch nie etwas von Laborwissenschaft gehört hat.

Diese Rezensenten hatten den obenerwähnten Unterschied zwischen Treffgenauigkeit und Streuung nicht verstanden. Sie wussten nichts von physikalischen Fehlern. Sie wussten nicht, dass Fehler in Berechnungen weitertransportiert werden. Sie wussten nicht, was Unsicherheit in einem Ergebnis bedeutet. Diese wissenschaftlichen Grundlagen waren ihnen fremd. Ihre Rezensionen sind Zeugnisse von Inkompetenz.

Die Methoden der Fehleranalyse gehören zum Grundinstrumentarium eines Wissenschaftlers. Sie sind unabdingbar, wenn man die Zuverlässigkeit eines Ergebnisses bestimmen will. Keiner dieser Rezensenten war mit diesen Methoden vertraut. Sie sind nicht imstande, die Treffgenauigkeit ihrer eigenen Modelle zu evaluieren. (Diese bemerkenswerte Unfähigkeit geht aus den Dokumenten hervor, die über den Link am Ende dieses Artikels aufgerufen werden können.)

Doch drei der vier Rezensenten, die meine Studie fürFrontiers in Earth Sciencegelesen haben, waren sehr wohl mit den Methoden der Fehleranalyse vertraut. Sie bewiesen das durch die kenntnisreiche und konstruktive Art ihrer Auseinandersetzung mit meiner Studie. Drei Rezensenten bei anderen Zeitschriften gingen ähnlich vor, aber sie waren eine Minderheit, die einer inkompetenten Mehrheit gegenüberstand.

Meine Studie stützt sich auf die Ergebnisse eines veröffentlichten Klimamodellabgleichs. Dieses Experiment zeigte, wie fehlerhaft ein durchschnittliches Klimamodell bei der Beschreibung der Wärmeenergie in der Atmosphäre ist. Der Fehler lässt sich auf einen Fehler in der physikalischen Theorie zurückführen, die jedem Modell zugrunde liegt. Leider ist der Zustand der Klimaphysik dergestalt, dass niemand weiss, wo dieser Fehler auftritt. Aber er ist vorhanden.

Klimamodelle gehen bei der Berechnung des künftigen Klimas Schritt für Schritt vor. Der grundsätzliche Fehler in der Theorie verzerrt die Treffgenauigkeit jedes einzelnen Schritts. Diese Verzerrungen verstärken sich mit jedem Schritt, so dass eine Unsicherheit in das berechnete Klima einfliesst. Wie falsch wird es – Schritt für Schritt? Das weiss niemand. Die Klimaphysik kann darauf noch keine Antwort geben.

Die Unsicherheit ist Ausdruck dieses Nichtwissens. Folglich wächst auch die Unsicherheit mit jedem Schritt, den Klimamodelle bei der Voraussage des künftigen Klimas machen. Die Unsicherheit wächst, weil mit jedem Schritt unser Nichtwissen hinsichtlich der Unzuverlässigkeit zunimmt.

Die Unsicherheit kann mit Hilfe von Fehlerfortpflanzungsgesetzen berechnet werden. In diesem Fall wird der Fehler des Modells durch die Temperaturprojektion gejagt, um seine Verlässlichkeit zu bestimmen. Diese Methode, weit verbreitet in Physik, Chemie, Biologie und allen Ingenieurswissenschaften, ist den Klimamodellierern jedoch fremd.

Die zweite Grafik (S. 18) zeigt die sukzessive Zunahme von Nichtwissen/Unsicherheit in einer Klimamodellprojektion des durch CO2-Emissionen verursachten Anstiegs der Lufttemperatur.

 

Als Beispiel habe ich das Klimamodell EC-Earth herangezogen. Es handelt sich dabei um ein Klimamodell, das von einem Konsortium von siebenundzwanzig Laboratorien in zehn europäischen Ländern entwickelt wurde. Die Schweiz gehört diesem Konsortium nicht an, und keines der Laboratorien befindet sich in der Schweiz.

Das EC-Earth-Modell wird für Prognosen und Handlungsempfehlungen hinsichtlich der Auswirkungen von CO2-Emissionen auf das Klima herangezogen. Den europäischen Hintergrund von EC-Earth muss man nicht unbedingt bedenklich finden, denn alle anderen existierenden Klimamodelle funktionieren ähnlich.

Die Punkte in der linken Darstellung sind EC-Earth-Projektionen von zwei sogenannten RCP-Szenarien (Representative Concentration Pathways), die vom IPCC vertreten werden. Die roten Punkte stehen für RCP8.5, der annimmt, dass die CO2-Emissionen bis zum Jahr 2100 rasch ansteigen werden. Die blauen Punkte stehen für RCP4.5, der annimmt, dass die CO2-Emissionen kurz vor dem Ende des Jahrhunderts ihren Höchsstand erreicht haben werden.

Absolut unzuverlässig

Die Linien, die die Punkte verbinden, wurden mit Hilfe einer simplen Gleichung gezogen, die die Lufttemperaturprojektionen hochentwickelter Klimamodelle abbildet. Mit Hilfe dieser Gleichung kann dann die Unsicherheit eingeschätzt werden, die von den Fehlern der Klimamodelle verursacht wird.

Und die rechte Grafik – farbig dargestellt sind die möglichen Entwicklungen ab 2005 – zeigt die Unsicherheitskurven, die entstehen, wenn sich die Fehler der Klimamodelle fortsetzen. Die hier dargestellte Lufttemperaturprojektion von EC-Earth besagt, dass hohe CO2-Emissionen bis zum Jahr 2100 die Luft um 3,8 Grad Celsius erwärmen werden, allerdings mit dem Spielraum von plus/minus 22 Grad Celsius. In Zahlen: 3,8 °C ± 22 °C.

Was bedeutet es, wenn man sagt, dass die Unsicherheit ± 22 Grad Celsius beträgt? Es bedeutet nicht, dass die Luft 22 Grad wärmer oder kälter sein könnte, sondern dass für das Jahr 2100 die Unsicherheit so gross ist, dass niemand sagen kann, wie die Lufttemperatur aussehen wird. Der Wert 3,8 Grad Celsius hat keinerlei Aussagekraft.

Das Gleiche gilt für das RCP4.5-Szenario der CO2-Emissionen. Laut EC-Earth wird die Luft im Jahr 2100 1,8 ± 23 Grad Celsius wärmer sein. Auch hier verrät ± 23, dass diese Projektion keine Aussagekraft hat. Die Unsicherheit ist so gross, dass von einem Wissen über die mögliche Lufttemperatur keine Rede sein kann. Unser Unwissen ist total.

All das bedeutet, dass EC-Earth absolut unzuverlässig ist. Dieses Modell kann uns nicht sagen, wie sich die CO2-Emissionen in der Zukunft auswirken werden. Es verrät uns nicht, wie CO2-Emissionen sich in der Vergangenheit ausgewirkt haben. Es verrät uns nichts über Lufttemperaturen. Das Gleiche gilt für alle anderen hochentwickelten Klimamodelle auf der Welt. Klimamodelle können die im 20. Jahrhundert stattgefundene Erwärmung nicht erklären. Sie können die Auswirkungen (wenn überhaupt vorhanden) von CO2-Emissionen im 21. Jahrhundert nicht vorhersagen. Sie sind viel zu unzuverlässig.

Die ganze Panikmache wegen einer künftigen Erwärmung durch CO2 gründet auf falschen Klimamodellen. Sie basiert auf nichts als Schreckensbildern, produziert von Wissenschaftlern, die nicht imstande sind, ihre Arbeit ordentlich zu evaluieren.

Das CO2 in der Atmosphäre hat sich von etwa 295 parts per million vor 150 Jahren auf fast 410 parts per million erhöht. Obwohl es keine gute Theorie über CO2 und das Klima gibt, können wir doch prüfen, ob sich das Klima ungewöhnlich verhält.

Die Antwort: Es geschieht nichts Ungewöhnliches. Der Anstieg des Meeresniveaus hat sich in den letzten hundert Jahren und mehr kaum verändert. Es gibt keine ungewöhnliche Häufigkeit oder Intensität von Überschwemmungen, Dürren, Hitzewellen, Wirbelstürmen oder Tornados. Kiribati und Tuvalu verschwinden nicht im Ozean.

Mit Freude in die Zukunft

Wir können weit in die Geschichte zurückgehen und die sieben Eiszeiten betrachten, die sich in der letzten Jahrmillion ereignet haben. Jedes Mal sank zuerst die Lufttemperatur, bevor Jahre später die CO2-Werte sanken. Nach dem Ende der letzten Eiszeit stieg zunächst die Lufttemperatur und dann, viele Jahre später, wieder das CO2-Niveau. Das CO2 in der Atmosphäre hatte keine ursächliche Wirkung auf die Eiszeit. Es war offensichtlich ein passiver Zuschauer.

Selbst wenn wir noch weiter zurückgehen, um Milliarden Jahre, gibt es keinen Beweis für einen Zusammenhang zwischen CO2 in der Atmosphäre und der Lufttemperatur. Am Ende müssen wir erkennen, dass es keinen Grund zu der Annahme gibt, dass die Erwärmung in der jüngsten Vergangenheit auf das Konto von menschengemachten CO2-Emissionen geht. Und ebensowenig gibt es irgendeinen Grund, sich Sorgen um die Zukunft zu machen.

All die Beschuldigungen, all die Rufmorde, all die beschädigten Karrieren, all die winterlichen Todesfälle, die durch Engpässe in der Energieversorgung verursacht werden, all die Männer, Frauen und Kinder, die in verräucherten Wohnungen leben, all die zweckentfremdeten Gelder, all die verschandelten Landschaften, all die zerfetzten und verbrannten Vögel und die desorientierten Fledermäuse, all die gigantischen Subventionen, die in die Landwirtschaft fliessen – all das war offenkundig umsonst.

Es gibt keinen Grund für Eltern und Grosseltern, sich Sorgen um ihre Kinder und Enkelkinder zu machen. Es gibt keinen Grund für junge Menschen, am Leben zu verzweifeln, auf das Glück zu verzichten, eine Familie zu gründen und die Kinder hinaus in das Leben zu schicken. Es gibt ganz gewiss keinen Grund, Schüler mit Schauermärchen und Horrorgeschichten von einer nahenden Klimakatastrophe zu ängstigen.

Wir alle, verehrte Leser, sollten uns vielmehr des Lebens erfreuen, einander zugewandt und erfüllt von der absolut begründeten Hoffnung auf eine wunderbare Zukunft.

Aus dem Englischen von Matthias Fienbork, Rezensionen einsehbar unter: https://uploadfiles.io/vyu9e78n

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : „Gespenstische Klimamodelle“ | Die Weltwoche, Nr. 38 (2019)| 19. Sept. 2019 ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Patrick Franck für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================

A n l a g e :  PDF WeWo.190919.K-Modelle.FRANK




Noch ein ketzerischer Klima-Artikel: Patrick Frank aus Stanford stellt grundsätzlich Klimamodelle infrage

Und spätestens an dieser Stelle wird man feststellen müssen, dass auch Klimawissenschaftler nur Menschen sind und zutiefst menschlich reagieren. Mit Ablehnung, Verdrängung, Empörung und sogar mit Gegenangriffen. Sie holen ihre „großen Brüder“ zu Hilfe, versuchen sich Mehrheiten zusammenzutrommeln und schrecken manchmal sogar vor Tricksereien, Verleumdung und Betrug nicht zurück.

Dazu kommt das Problem einer sehr knappen Ressource, die im Wissenschaftsbetrieb als Währung gilt und bei der Frage nach Reputation oder Förderung eine immense Rolle spielt: die Veröffentlichung. Dabei handelt es sich aber nicht um Bücher oder Maischberger-Auftritte, sondern um Artikel in anerkannten wissenschaftlichen Journalen, wo man nur dann publizieren kann, wenn die Arbeit einer mehr oder weniger anonymen mehrstufigen Prüfung durch andere Experten auf eben diesem Gebiet standhält. Das hält zwar sicher einigen Unsinn aus den Blättern heraus und hilft, Fehler zu finden, kann sich aber als fast unüberwindbare Hürde erweisen, wenn man davon ausgehen kann, dass ein „Konsens“, gegen den man anschreibt, für ausreichend Vorurteile und Ignoranz sorgt. Stellen Sie sich einfach vor, liebe Leser, Galileo Galilei hätte sein „Paper“ im Vatikan zur Begutachtung vorlegen müssen und fragen Sie sich, ob sich dort eine demokratische Mehrheit von Gelehrten für eine Veröffentlichung ausgesprochen hätte. Die Sonne würde sich wohl immer noch um die Erde drehen.

Video des Vortrages von EIKE Vize Michael Limburg zur großen Unsicherheit die auch Zeitreihen aus historischen Temperaturdaten begleiten müssen. (Mehr Details dazu hier) zur Behandlung seiner Dissertation zum Thema durch die Universität Leipzig hier

Zunächst noch ein paar Worte zu den Wissenschaftsjournalen, die zwar große Namen haben, aber natürlich auch nicht frei sind von wirtschaftlichen Erwägungen und Trends. Gerade, wenn diese politisch verstärkt werden. Wer der scheinbar übermächtigen Einheitsmeinung nur ein paar weitere Krümel Gewissheit hinzufügt, ihr aber insgesamt nicht schadet und dem Trend folgt, hat es leichter. Falls Sie, sagen wir, die verheerende Wirkung von Brausepulver auf das Erdklima untersuchen wollen oder ein weiteres Treibhausgas auf die Anklagebank bringen möchten… das wird sich sicher machen lassen. Rechnen Sie aber nicht mit wohlwollenden Reviews, wenn sie die heiligen Knochen ausbuddeln, die das Fundament eines verfestigten Konsenses sind, um sie auf ihren Calciumgehalt zu prüfen. Man muss sich durch viel Beton durchkämpfen, bis man am Ziel ist und darf bei denjenigen, die sich behagliche Häuser auf dem Fundament gebaut haben, nicht auf große Liebe hoffen.

„Mehr vom Selben” statt „Probier was Neues”

Große Schwierigkeiten bekommt man zum Beispiel, wenn man eine der Säulen des Klimaalarmismus als Baugutachter unter die Lupe nimmt. Also die Rolle von CO2, die Qualität der Klimamodelle, welche als Werkzeuge der Vorhersage und als Alarmglocken dienen oder die Paläo-Messreihen, die aus Eisbohrkernen oder anderen Bohrungen indirekt auf Temperaturen der Vergangenheit schließen. Letzteres führte beispielsweise zu den Auseinandersetzungen rund um Manns Hockeystick-Kurve, von denen ich berichtete.

Warum das so ist, kann man leicht erraten. Denn seit Politiker vor etwas mehr als 100 Jahren begannen, bei Gesundheitsprogrammen auf die Expertise von Medizinern zu vertrauen, hatte noch nie eine so kleine Gruppe von Wissenschaftlern so große Macht über die Politik wie die Klimaforscher heute. Sogar ein bei der UN angesiedeltes Wächtergremium mit enger Agenda haben sie sich geschaffen. Der Weltklimarat, das IPCC, muss man wissen, hat nicht die Aufgabe, den Klimawandel zu untersuchen und Maßnahmen vorzuschlagen – das wäre ja ein Segen. Nein, das IPCC hat die Aufgabe, den menschengemachten Klimawandel zu untersuchen und Maßnahmen vorzuschlagen. Das sperrige Adjektiv macht den Unterschied und gibt die einzige Richtung vor, in die der Blick gehen darf. Raten Sie, was man herausfindet: Der Klimawandel ist menschengemacht. Und zwar ausschließlich! Damit konnte natürlich niemand rechnen…

Flankiert von mit Parolen ausgestatteten Aktivisten, die häufig nicht einmal die elementarsten Zusammenhänge verstehen, exekutiert die Politik die ausgesprochenen Empfehlungen: ruft in Städten den Klimanotstand aus, denkt laut über Klimasteuern nach und bereitet Verbote vor, gibt großzügig Forschungsgelder… Kurz: Man hängt auch als Wissenschaftler tief drin im Aktionismus und dem Umbau der Gesellschaft und ist Stichwortgeber bei einem gigantischen Gesellschaftsexperiment, das nach Meinung aller Ökonomen auch und nach Meinung vieler nur schief gehen kann. Es steht für einen Wissenschaftler also mehr auf dem Spiel als ein paar Drittmittel. Aber Geld schafft Begehrlichkeit, wenn es auf den Tisch gelegt wird und das Paris-Abkommen allein (bei dem jedes teilnehmende Land völlig verschiedene Verpflichtungen auf je einen Zettel schrieb, welche dann zusammengebunden und als Abkommen proklamiert wurden) sorgt dafür, dass es um hunderte Milliarden Dollar und Euro geht.

Die westliche Gesellschaft (und nur diese) hat sich hineinziehen lassen in eine offene wissenschaftliche Debatte und sich dort binnen kurzer Zeit auf jene Seite geschlagen, die ihr den meisten Aktionismus und die umfassendste politische Einflussnahme versprach. Dabei sind die Protagonisten und die Argumente im Wesentlichen dieselben wie vor 30 Jahren, wie man in dieser sehenswerten Channel4-Doku aus dem Jahr 1990 sehen kann. Aber die Zeit lässt sich nicht zurückdrehen, und man kann denjenigen, die schon vor 30 Jahren zu Sachlichkeit und Vernunft rieten, kaum vorwerfen, dass sie nicht deutlich genug vor dem Gedanken-Kollektivismus warnten, in den wir uns heute freiwillig begeben.

Gleichschaltung, Hysterie, Faktenfreiheit

Als ich neulich über einen Zivilprozess wegen Verleumdung berichtete, den einer der bekanntesten Vertreter der Klimaalarmisten gegen einen seiner Kritiker angestrengt hatte und der nun eingestellt wurde, erhielt mein Artikel viel Aufmerksamkeit. Sowohl Skeptiker als auch Alarmisten sahen sich bestätigt und spannen einen Faden weiter, der so im Artikel überhaupt nicht zu finden war. Dr. Mann sei verurteilt worden, das Gericht hätte dem Klimaschwindel ein Ende bereitet, war vielerorts zu lesen.

Nichts davon habe ich geschrieben, weil nichts davon passiert war. Selbst der sonst so besonnene Boris Palmer – sicherlich genervt, weil er von verschiedener Seite meinen Artikel zugeschickt bekam – konnte nicht an sich halten und unterstellte mir Aussagen, die ich nie geschrieben hatte. Auf der anderen Seite schlugen die reflexhaften Verteidiger von Manns Hockeystick-Kurve Purzelbäume, weil sie sich veranlasst sahen, ein Paper aus dem Jahr 1998 zu verteidigen, von dem viele glaubten, es sei nach jahrelangen Kontroversen endlich in Vergessenheit geraten. Nun wurde es wieder ans Licht gezerrt, und die Verteidiger stellten sich schützend vor einen Leichnam, bei dessen Beerdigung sie wohl noch zur Schule gingen.

Da waren Aussagen zu lesen wie „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“, was nochmal einen Zacken mehr falscher Gewissheit enthält als die üblichen Eröffnungszüge solcher Debatten, bei denen man als erstes etwas von 97 Prozent oder 99 Prozent zu hören bekommt – ganz so, als sei die Dimension von DDR-Wahlergebnissen jemals Beleg für Wahrhaftigkeit gewesen.

Wie dem auch sei, den voreiligen Skeptikern sei gesagt, dass die Theorie Manns in Kanada nicht vor Gericht stand, sondern sein Kontrahent Ball in Person und dass Gerichte generell nicht über wissenschaftliche Theorien entscheiden. Noch nicht. Auch wenn wir aktuell nur noch ein Augenzwinkern davon entfernt zu sein scheinen, „Klimaleugnung“ als Straftatbestand zu betrachten. Doch was Gerichte noch unterlassen, exekutieren längst die Aktivisten. In der deutschen Wikipedia werden bereits fleißig Markierungen angebracht, um gute von bösen Wissenschaftlern und Publizisten zu unterscheiden. Weitere mentale Infektionen sind also zu erwarten.

Die menschengemachte Klimawissenschaft

„Sobald der Menschenseele ein neues Dogma eingepflanzt ist, inspiriert es die Institutionen, die Künste und das Verhalten der Menge. Die von ihm über die Seelen geübte Herrschaft ist dann eine absolute. Die Männer der Tat denken nur an dessen Verwirklichung, die Gesetzgeber nur an dessen Anwendung, die Philosophen, Künstler, Schriftsteller beschäftigen sich nur mit dessen Umsetzung in verschiedene Formen.”

(Gustave Le Bon, „Psychologie der Massen”, 1895)

Dass es sich beim „Menschengemachten Klimawandel“ um ein Dogma handelt, wie es Le Bon beschrieb, zeigte sich wieder einmal in Gesprächen, Kommentaren und e‑Mails, die mich nach dem Artikel erreichten. Ich unterschlage hier die Beschimpfungen und „guten Reisewünsche“ und bringe nur dieses, leicht eingedampfte Beispiel:

A: 97% der Wissenschaftler sind sich einig: Der Klimawandel ist menschengemacht. Es muss also stimmen!

Ich: Die Zahl 97% ist ein Mythos, die zugrundeliegende Metastudie von Cook et al. klammerte viele jener Studien aus, die sich nicht festlegten, ob oder ob nicht und wenn ja, wieviel Einfluss der Mensch hat.

A: Ob nun 97 Prozent, 50 Prozent oder 20 Prozent – das ist dem menschengemachten Klimawandel doch egal!

Das heißt, eine unbewiesene Hypothese ist längst ins Fundament eingesickert und dort fest geworden. Unerhört, diese noch infrage zu stellen – man würde den Aktivisten ja ihre liebsten Satzanfänge wegnehmen. Deshalb auch die absolutistische Verteidigung der Mann’schen Hockeystick-Kurve, die sehr wohl im Feuer der Kritik stand und bis heute steht.

Die Sache mit der Genauigkeit

Ich möchte an dieser Stelle nur den Beweis führen, dass die Aussage „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“ schlicht falsch ist, ohne die Diskussion wieder auf das juristische Geplänkel zwischen Mann und Ball zu lenken. Zu nennen ist hier insbesondere die Arbeit von Stephen McIntyre und Ross McKitrick von 2005, in der sie, vereinfacht gesagt, besonders die Temperatur-Messreihen Manns in Zweifel ziehen, die dieser aus den Baumringen amerikanischer Borstenkiefern herleitete und nach Meinung von McIntyre und McKitrick (M&M) die historischen Temperaturwerte als zu niedrig angab. (Wer übrigens wissen möchte, was man mit historischen Messreihen so alles machen kann, dem empfehle ich dieses Video.)

Der Vorwurf von M&M zielte mitten ins Herz der Klimaalarmisten, weil er sich mit einem Feld befasst, dem schon so manche schöne Theorie zum Verhängnis wurde: mangelhaftes Fehlerbewusstsein und Fehlerdiskussion. Die Debatte über die von M&M gefundenen Ungereimtheiten ist hochinteressant und gleicht eher einem spannenden Krimi als der bloßen Kollision zweier wissenschaftlicher Interpretationen. Und sie ist keinesfalls entschieden oder abgeschlossen, auch wenn es heute etwas ruhiger ist an dieser Front, weil sich das Feuer längst auf andere Schauplätze verlagert hat. Die vorlaute Verteidigung, Manns Kurve hätte einhellige Zustimmung erfahren und sei allgemein unumstritten, darf jedoch als widerlegt betrachtet werden.

Während Mann sich auf der Seite der Messreihen in einem alten Krieg befindet, gibt es andere Wissenschaftler, die eher die prognostische Seite der IPCC-gesteuerten Klimaforschung in Zweifel ziehen: die Klimamodelle. Richtige Panik kann nämlich erst aufkommen, wenn man der Menschheit mit schrecklichen Graphen droht, die für die Zukunft nichts Gutes prophezeien. Auch alle politischen Ziele wie die Begrenzung des CO2-Ausstoßes oder das 1,5°-Ziel von Paris gehen aus diesen Prognosewerkzeugen hervor. Vereinfacht gesagt, füttert man die Modelle – und es gibt Dutzende davon – mit Werten für Temperatur und CO2 und ändert die Werte solange, bis die gewünschte Kurve dabei herauskommt. Die Werte erhält die Politik und übersetzt diese in Verbote und Steuern. Wie gesagt, etwas komplizierter ist es schon, aber die zweite (Was soll ich tun?) und dritte (Was darf ich hoffen?) Grundfrage der Vernunft, wie sie Kant formulierte, beantwortet die Klimawissenschaft mit diesen Werkzeugen. Handeln und Glaube sind gesetzt, doch sollten wir die erste Frage „Was kann ich wissen?“ nicht aus dem Auge verlieren. Womit wir wieder bei der Genauigkeit wären und der Frage, was die Klimamodelle wirklich taugen, aus deren Orakeln die Politik Handlungsanweisungen ableitet.

Die Klimawissenschaft als „nackter Kaiser“?

„Nach dem gegenwärtigen Stand der Theorie wird sich ein AGW-Signal (siehe 1., Roger Letsch), falls vorhanden, niemals aus dem Klima-Rauschen hervorheben, egal wie lange die Beobachtungsaufzeichnung dauert, da die Unsicherheitsbreite notwendigerweise viel schneller zunimmt als ein projizierter Trend der Lufttemperatur. Jegliche Auswirkung von Treibhausgasen geht immer innerhalb des Unsicherheitsintervalls verloren. Selbst fortgeschrittene Klimamodelle weisen eine schlechte Energieauflösung und sehr große Projektionsunsicherheiten auf. Die unvermeidliche Schlussfolgerung ist, dass ein Temperatursignal von anthropogenen CO2-Emissionen (falls vorhanden) nicht in Klima-Observablen nachgewiesen werden konnte oder kann.“

Da stellt jemand grundlegend infrage, ob die Klimamodelle – und zwar alle – überhaupt in der Lage seien, die Einflüsse von Treibhausgasen auf das Klima zu zeigen, weil die Mess- oder Regelgröße vollständig im Fehlerrauschen untergehe. Wer ist dieser „Klimaleugner“, dieser Ketzer, der da so frech die Offenbarung der Orakel-Modelle stört?

Sein Name ist Dr. Patrick Frank vom SLAC National Accelerator Laboratory der Stanford University, Menlo Park, Kalifornien und er hat sein Paper „Fehlerausbreitung und Zuverlässigkeit globaler Lufttemperaturprojektionen  gerade eben im Journal „frontiers in Earth Science“ veröffentlicht.

Hier kommentiert er den langen Weg bis zur Veröffentlichung in einem angesehenen Journal – es dauerte sechs Jahre – und legt auch die kompletten Schriftwechsel (ZIP-Datei), Einwände und seltsamen Schummeleien offen, (ich verwende das Wort, ohne hier inkriminieren zu wollen, mir fällt dazu einfach nichts passenderes ein) welche die Veröffentlichung so lange behinderten. Die Einwände waren zum Teil hanebüchen, weil die Reviewer wohl teilweise Franks Mathematik nicht verstanden oder die angefragten Journale sein Paper ausgerechnet an jene zur Durchsicht gaben, die von der Entwicklung der angegriffenen Klimamodelle leben. Diese „peers“ sollten nun also den Daumen über Franks Arbeit heben oder senken. Der Spruch vom Bock und dem Gärtner ist das einzige, was mir zu solchen Possen einfallen will.

„Physikalisch bedeutungslos“

Ich möchte Dr. Frank hier aber nicht zum Galileo Galilei hochschreiben, auch seine Arbeit muss sich Kritikern stellen und das tut sie bereits (logisch, angesichts ihrer Brisanz). Aber das Vorspiel zur Veröffentlichung zeigt, dass eine zum Konsens neigende, voreingenommene wissenschaftliche Community, die alle wesentlichen Forschungen für abgeschlossen und in Stein gemeißelt hält, Gift für die Klimawissenschaft sein kann. Die Frage nach der Erkenntnisfähigkeit in Bezug auf das Klima von übermorgen beantwortet Frank so:

„Meine Arbeit zeigt, dass fortschrittliche Klimamodelle die Lufttemperatur lediglich als lineare Extrapolation des Treibhausgaseffekts projizieren. […] Eine einfache Gleichung, deren Forcierung linear ist, emuliert erfolgreich die Lufttemperaturprojektionen von praktisch jedem Klimamodell. Willis Eschenbach (siehe 2., Roger Letsch) hat das auch vor einiger Zeit ebenfalls untersucht.

Kurz gesagt, Klimamodelle können zukünftige globale Lufttemperaturen nicht vorhersagen. Nicht für ein Jahr und nicht für 100 Jahre. Klimamodell-Lufttemperaturprojektionen sind physikalisch bedeutungslos. Sie sagen überhaupt nichts über die Auswirkungen von CO₂-Emissionen auf die globalen Lufttemperaturen aus.

Die Unsicherheit allein aufgrund des jährlichen durchschnittlichen Modellfehlers beim Wolken-Anteil (siehe 3., Roger Letsch) (± 4 Wm⁻²) ist ungefähr ± 114-mal größer als der jährliche durchschnittliche Anteil des CO₂ (ungefähr 0,035 Wm⁻²). Eine vollständige Bestandsaufnahme von Modellfehlern würde eine enorm größere Unsicherheit erzeugen. Klimamodelle sind somit völlig unfähig, Auswirkungen der geringen Störung durch Treibhausgasemissionen aufzulösen. Die unvermeidliche Schlussfolgerung lautet, dass die Auswirkungen von CO₂-Emissionen auf das Klima in der Vergangenheit oder heute nicht gefunden werden können. Es scheint, dass Exxon (siehe 4., Roger Letsch) „es“ doch nicht wusste. Exxon hätte es nicht wissen können. Auch sonst niemand.“

Einige Panikattacken weiter

Es ist also möglicherweise nicht viel, was wir über das künftige Klima wissen können. Die Ergebnisse, mit denen die Klimamodelle unsere Politiker füttern, enthalten nach Franks Annahme Fehler, die um den Faktor 114 größer sein können als die Resultate. Wenn man aber erklärt, „1“ gemessen zu haben und dabei verschweigt, dass das statistische Rauschen um den Faktor 114 höher war als der Messwert – was genau hat man dann eigentlich „gemessen”? Die Fehlerdiskussion erweist sich also nicht nur bei den Paläo-Messreihen Manns, sondern auch bei den Forecast-Szenarien der Klimamodelle als Achillesferse. Der aktuelle Alarmismus steht also möglicherweise auf sehr dürftigen Argumenten.

Es bleibt also spannend, wenn man die Augen offenhält und vorurteilsfrei die Forschung beobachtet. Aber um ehrlich zu sein, ich erwarte nicht, dass sich die Hysterie legen wird. Nicht wegen einem Gallieo Dr. Frank! Die Zweifler und Häretiker kommen schnell unter die Räder des Zugs mit der Aufschrift „Klimakatastrophe“ oder sind wie A. von weiter oben komplett borniert und ideologisiert. Aber vielleicht kann ja wenigstens jemand Greta sagen, dass sie ruhig mit dem Flieger nach Europa zurückkehren kann? Denn das Klima „kippt“ nicht um und geht auch in zehn Jahren nicht so kaputt, dass es für sie unbenutzbar wird.

Das letzte Wort möchte ich diesmal einem Journalisten überlassen, der über das Dilemma spricht, in dem sich Klimawissenschaft und Politik befinden. Sie werden kaum glauben, aus welcher Zeitschrift das Zitat stammt:

Experten sind demnach im Dilemma: Sie haben kaum eine Chance, den richtigen Rat zu geben. Bleibt die Warnung aus, wird ihnen mangelndes Pflichtbewusstsein vorgeworfen. Eine alarmistische Vorhersage wird jedoch kritisiert, sofern sich nicht wenig später entsprechende Veränderungen zeigen. Die Unsicherheiten der Forschungsergebnisse bleiben in der Klimaforschung wohl auch bei weiterem Fortschritt bestehen. Nun sei die Frage, ob Wissenschaftler und Gesellschaft damit umzugehen lernen […]. Vor allem Politiker müssten lernen, dass es keine einfachen Resultate gibt. Auf Wissenschaftler, die simple Antworten versprechen, sollten Politiker nicht mehr hören.“

Quelle: Spiegel

Ja, sie haben richtig gelesen. Aber der Artikel ist ja auch noch aus dem Jahr 2010, also aus dem Jahr 8 v. H. (vor Hysterie). Heute ist man auch beim Spiegel bereits einige Panikattacken weiter.

Dieser Beitrag erschien zuerst auf Roger Letschs Blog Unbesorgt und auf der Achse des Guten. Mit freundlicher Genehmigung des Autors.

Anmerkungen

1. AGW = Anthropogen Global Warming. Die Abkürzung finden sie in Fachjournalen überall

2. Eschenbach untersuchte das GISSE-Klimamodell wie eine Blackbox, von der man wissen möchte, wie sie funktioniert. Es gilt nämlich das Prinzip der Ergebnisgleichheit. Das heißt, zwei Blackboxen sind gleichwertig, wenn sie bei identischen Eingaben identische Ergebnisse produzieren, ganz gleich, welcher Hokuspokus im Inneren vollführt wird. Eine y=x*8/4 Blackbox ist gleichwertig mit einer y=2x Blackbox. Eschenbach zeigte nun, dass das GISSE-Modell auf simpelsten linearen Gleichungen basiert. Er glaube nicht, dass das Klima so funktioniere, meint Eschenbach.

3. Im Original: „cloud forcing” error, womit im weitesten Sinne die Wirkung von Wolken bei der Reflektion von Infrarotstrahlung bei Ein- und Rückstrahlung gemeint ist. Die Tatsache, dass sich die Wolkenbildung ab-so-lut nicht vorhersagen lässt und deshalb nur als extrem unsichere statistische Größe in jedes Klimamodell eingeht, ist Franks Ansatzpunkt für seine oben erwähnte Arbeit.

4. Gemeint ist eine Untersuchung der Firma Exxon, in der schon 1977 vom Klimawandel und der vermeintlichen Ursache CO2 die Rede war. Diese Studie wird gern als der ultimative Beweis für den anthropogenen Klimawandel und dessen Auslöser CO2 betrachtet, weil er „von der anderen Seite“, also von den Bösen kam. Dass die Studie „geheim gehalten” wurde, bestreitet Exxon (heute Exxon-Mobile).




Neue Studien belegen, wie Klimamodelle scheitern

Die von der University of Pennsylvania geleitete Studie ist Teil eines größeren Projektes mit der Bezeichnung ArchaeoGLOBE, wobei Online-Umfragen herangezogen werden, wie sich der Landverbrauch in 146 verschiedenen Gebieten der Welt verändert hat. Landverbrauch, das kann alles sein von der Jagd über Ackerbau bis zu grasenden Viehherden.

„Wir sehen eine beschleunigte Trajektorie umweltlicher Auswirkungen“, sagte der Anthropologe Ryan Williams, ein Mitautor der Studie. „Während die Rate heutiger Umweltänderungen viel drastischer ist, können wir die Auswirkungen erkennen, welche das menschliche Einwirken schon vor tausenden von Jahren hatte“.

„Alles begann vor 3000 Jahren“, sagt Feinman. „Es zeigt, dass die Probleme, vor denen wir heute stehen, sehr tiefe Wurzeln haben, und es braucht viel mehr als lediglich einfache Lösungen, diesen zu begegnen. Sie dürfen nicht ignoriert werden“.

Das Phytoplankton-Puzzle

Ebenfalls in Science Advances veröffentlicht ist eine Abschätzung der Phosphat-Verteilung auf der Meeresoberfläche der Ozeane weltweit. Dabei zeigen sich erhebliche Differenzen zwischen Modellen und Beobachtungen.

Martiny et al. analysierten über 50.000 hoch sensitive Phosphat-Beobachtungen von 42 Schiffen. Dabei zeigten sich eindeutige Differenzen der Phosphat-Konzentration innerhalb und zwischen den ozeanischen Becken. Auch konnten verschiedene, zuvor unbekannte Regionen mit geringer Phosphat-Konzentration entdeckt werden. Es ist grundlegend für Wissenschaftler, die globale Verteilung von Phosphat genau zu kennen, wobei auch spezifische Variationen bei einem geringen Phosphat-Niveau berücksichtigt werden müssen, um die zukünftige Auswirkung des Klimawandels bzgl. der Kohlenstoff-Speicherung in den Ozeanen sowie die Produktivität ozeanischer Ökosysteme modellieren zu können.

Die neuen Forschungen zeigen, dass die derzeitigen Klimamodelle die künftig zu erwartende Abnahme von Phytoplankton überschätzen – jene mikroskopischen Algen, welche die Basis der ozeanischen Nahrungskette bilden und Phosphor für die Photosynthese verbrauchen. Das ist bedeutsam, weil selbst geringe Differenzen der Phosphat-Konzentration ozeanische Ökosystem-Prozesse radikal beeinflussen können.

Neubewertung des Kohlenstoff-Zyklus‘

Außerdem haben die Wissenschaftler Beweise gefunden, dass die horizontale Zirkulation Kohlenstoff-reichen Ozeanwassers in den subpolaren Südlichen Ozeanen vereint mit der vertikalen Zirkulation erfolgt. Dies kontrolliert, wie viel Kohlenstoff in der in der Tiefsee gespeichert oder in die Atmosphäre freigesetzt wird.

MacGilchrist et al. untersuchten den Weddell Gyre mittels Daten von Schiffen sowie Satellitenbeobachtungen. Sie entdeckten, dass der Wirbel Kohlenstoff enthaltendes Phytoplankton vom offenen Ozean aus dem Gebiet hinaus transportiert mit einer Rate von etwa 80 Billionen Gramm pro Jahr. Das belegt, dass der Wirbel eine Schlüsselrolle spielt im Kohlenstoff-Transport der Südlichen Ozeane. Wichtig dabei ist, dass diese Studien dem konventionellen Verständnis des Kohlenstoff-Zyklus‘ in antarktischen Gewässern widersprechen, wonach die Kohlenstoff-Aufnahme der vertikalen Zirkulation zugeordnet wird, während die Verteilung großräumiger Systeme von Ozean-Wirbeln, Gyres genannt, übersehen werden.

Die Neubewertung des Kohlenstoff-Zyklus‘ im Südlichen Ozean ist ein unabdingbarer Schritt hin zu genaueren Computermodellen für die Prognose, wie der Klimawandel die Versauerung der Ozeane beeinflusst und Änderungen der Meereis-Bedeckung auslöst.

Link: https://www.thegwpf.com/new-studies-show-how-climate-models-fail/

Übersetzt von Chris Frey EIKE




Fehler-Fort­pflanzung und die Zuver­lässigkeit von Projek­tionen der globalen Lufttem­peratur

Bevor ich in die Materie einsteige, möchte ich meinen tief empfundenen Dank an Anthony Watts aussprechen, weil er unabhängigen Gedanken Stimme verleiht. So viele haben versucht, sie zu unterdrücken (Freiheits-Leugner?). Sein Geschenk an uns ist gar nicht hoch genug zu bewerten.

Die Studie ist frei zugänglich, und zwar hier. Die Supporting Information SI steht hier.

Ich möchte auch dem Herausgeber meines Manuskriptes Dr. Jing-Jia Luo meine Verehrung ausdrücken, welcher den Mut eines Wissenschaftlers bewiesen hatte – ein Niveau professioneller Integrität, die ich so oft schon vermisst habe während meines 6 Jahre langen Trips.

Dr. Luo benannte vier Begutachter, von denen drei keine Interessenkonflikte hatten durch Involvierung im Status Quo von AGW. Sie schrieben kritisch konstruktive Begutachtungen, welche das Manuskript zu verbessern halfen. Diesen Begutachtern bin ich sehr dankbar. Sie legten die leidenschaftliche Professionalität und Integrität an den Tag, was ich bei meinen Einreichungen zuvor kaum einmal erlebt hatte.

Ein kleiner Exkurs in den Stand der Praxis:

Jeder, der einen tiefen Tauchgang machen möchte, kann hier den gesamten Korpus an Bewertungen und Antworten für alle 13 vorherigen Einreichungen herunterladen (60 MB zip-Datei, Webroot virenfrei gescannt). Wählen Sie „kostenloser Download“, um Werbeeinbußen zu vermeiden.

Etwa 25 der vorigen 30 Begutachtungen wurden von Klima-Modellierern geschrieben. Man findet wiederholt Zurückweisungen des Manuskriptes seitens der Herausgeber auf der Grundlage objektiv inkompetenter negativer Begutachtungen. Über diese außerordentliche Realität habe ich bei WUWT hier und hier berichtet. Während meiner 30 Jahre von Veröffentlichungen im Bereich Chemie habe ich niemals eine so schändliche Verfahrensweise erlebt.

Nach meinen früheren Erfahrungen stellte ich hinsichtlich von Klima-Modellierern fest:

Sie unterscheiden nicht zwischen Genauigkeit und Präzision.

Sie verstehen nicht, dass beispielsweise eine ±15°C-Unsicherheit keine physische  Temperatur ist.

Sie verstanden nicht, dass die Ableitung einer ±15°C-Unsicherheit zur Aufbereitung einer projizierten Temperatur NICHT bedeutet, dass das Modell selbst rapide zwischen Eishaus- und Treibhaus-Bedingungen hin und her schwingt (das war wirklich ein tatsächlicher Einwand der Begutachter).

Für sie ist die „Standardfehlerfortpflanzung“ ein unbekannter Begriff

Sie verstanden nicht die Bedeutung oder die Auswirkung eines Kalibrierungs-Experimentes

Sie verstanden nicht das Konzept der instrumentellen oder Modell-Auflösung oder, dass dies empirische Grenzen hat

Sie verstanden überhaupt nicht, was eine physikalische Fehler-Analyse ist.

Sie verstanden nicht, dass ,±n‘ etwas anderes ist als ,+n‘.

Einige dieser Merkmale zeigen sich in ihren Studien. Ich habe nicht einen gesehen, der angemessen mit physikalischem Fehler, Modell-Kalibrierung oder den Auswirkungen eines physikalischen Fehlers in den Modellen umgeht hinsichtlich der Zuverlässigkeit eines projizierten Klimas.

Weitere sorgfältige Analysen sind bei WUWT hier, hier und hier erschienen.

In den Studien zu Klimamodellen geht es in den typischen Unsicherheits-Analysen um Präzision, nicht um Genauigkeit. Sie sind geeignet für Ingenieur-Modelle, welche Messgrößen reproduzieren können innerhalb ihrer Kalibrierungs-Grenzen. Sie sind nicht geeignet für physikalische Modelle, welche die Zukunft prophezeien oder für unbekannte Messgrößen.

Klimamodellierer haben nachweislich keine Erfahrung bzgl. des wissenschaftlichen Verfahrens. Sie sind nicht als Wissenschaftler ausgebildet worden. Sie sind keine Wissenschaftler. Sie sind nicht darin ausgebildet, die physikalische oder prognostische Zuverlässigkeit ihrer eigenen Modelle zu evaluieren. Sie legen nicht die Aufmerksamkeit für physikalische Argumentationen an den Tag, wie es die gute wissenschaftliche Praxis fordert. Sie stehen aktiv jedweder Demonstration dieser Diagnose feindlich gegenüber.

In ihren Händen ist die Klima-Modellierung zu einer Art eines subjektiven Narrativs geworden, und zwar ähnlich der kritischen Theorie der Pseudo-Wissenschaft, welche die akademischen Bereiche der Geisteswissenschaften und der Soziologie verzerrt und aktiv so viele soziale Konflikte gefördert hat. Nennen wir es die Critical Global Warming Theory. Subjektive Narrative nehmen an, was bewiesen werden soll (CO2-Emissionen gleichen direkt fühlbarer Wärme), deren Hypothesen haben das Gewicht von Beweisen (CO2 und Temperatur, sehen Sie?), und jede Studie singt das gleiche Lied (es ist schlimmer als wir dachten).

Subjektive Narrative und akademische kritische Theorien sind nachteilige Konstrukte. Sie stehen im Gegensatz zu Wissenschaft und Ratio. Während der letzten 31 Jahre hat die Klima-Modellierung diesen Status erreicht mit dessen Abstieg in nicht hinterfragte Hypothesen und Zirkelschlüssen.

Eine Zusammenfassung der Ergebnisse:

Die Studie zeigt, dass fortgeschrittene Klimamodelle die Lufttemperatur lediglich als eine bloße lineare Extrapolation vom Treibhausgas-Antrieb projizieren. Diese Tatsache ist inzwischen vielfach belegt, deren Hauptmasse sich in den SI findet. Eine einfache Gleichung, linear bzgl. des Antriebs, bildet erfolgreich die Temperatur-Projektionen von nahezu jedem Klimamodell nach. Willis Eschenbach hat das unabhängig hiervon schon früher entdeckt (hier).

Nachdem ihre Wirksamkeit bei der Nachbildung von Temperatur-Projektionen der GCMs gezeigt wurde, wird die lineare Gleichung herangezogen, um den systematischen Fehler der Klimamodelle mittels ihrer Temperatur-Projektionen fortzupflanzen.

[Original: … the linear equation is used to propagate the root-mean-square annual average long-wave cloud forcing systematic error …]

Die Unsicherheit der projizierten Temperatur beträgt ±1,8°C nach einem Jahr für eine Projektions-Anomalie von 0,6°C sowie ±18°C nach 100 Jahren für eine Projektions-Anomalie von 3,7°C. Der prognostische Gehalt der Projektionen beträgt Null.

Kurz gesagt, Klimamodelle können nicht zukünftige globale Lufttemperaturen prognostizieren – nicht für ein Jahr und nicht für 100 Jahre. Die Temperatur-Projektionen der Klimamodelle sind physikalisch bedeutungslos. Sie sagen überhaupt nichts aus über die Auswirkungen von CO2-Emissionen auf die globalen Temperaturen (falls es überhaupt irgendwelche Auswirkungen gibt).

Hier ein Beispiel, wie man sich das vorstellen muss:

Abbildung: Graphik a links: Blaue Punkte = vom GISS-Modell E2-H-p1 RCP8.5 projizierte Anomalien der Lufttemperatur. Rote Linie = lineare Nachbildung. Graphik b rechts: Wie a, jedoch mit einer grünen Einhüllenden, welche die physikalischen Unsicherheitsgrenzen in der GISS-Projektion zeigt infolge des modellierten langwelligen Wolkenantriebs-Faktors mit einem jährlichen Mittel von ±4 W/m2. Die Unsicherheitsgrenzen wurden ab dem Jahr 2006 berechnet.

Wäre die Unsicherheit ab dem ersten Projektions-Jahr berechnet worden, 1850, (nicht in der Abbildung gezeigt), wären die Unsicherheitsgrenzen viel breiter, obwohl die bekannten Temperaturen des 20. Jahrhunderts gut reproduziert werden. Der Grund hierfür ist, dass die dem Modell zugrunde liegende Physik nicht korrekt ist. Daher gibt es darin keinerlei physikalische Informationen über das Klima in den projizierten Temperaturen des 20. Jahrhunderts, obwohl diese statistisch nahe den Beobachtungen liegen (weil die Modelle entsprechend frisiert worden waren).

Physikalische Unsicherheitsgrenzen repräsentieren den Zustand physikalischen Wissens, nicht der statistischen Übereinstimmung. Die Projektion ist physikalisch bedeutungslos.

Die Unsicherheit infolge des jährlichen mittleren modellierten langwelligen Wolkenantriebs-Faktors allein (±4 W/m²) ist etwa ±114 mal größer als die jährliche mittlere Zunahme des CO2-Antriebs (etwa 0,035 W/m²). Eine vollständige Inventur der Modellfehler würde eine enorm viel größere Unsicherheit erzeugen. Klimamodelle sind daher absolut unfähig, die Auswirkungen des geringen Antriebs durch Treibhausgas-Emissionen aufzulösen.

Die unausweichliche Schlussfolgerung lautet, dass welche Auswirkungen CO2-Emissionen auch immer auf das Klima haben – sie können weder in der Vergangenheit noch heute erkannt werden.

Es scheint, dass Exxon das nicht wusste – nicht wisse konnte – genauso wenig wie jedermann sonst.

Jede einzelne modellierte Lufttemperatur-Projektion seit 1988 (und davor) ist physikalisch bedeutungslos. Auch ist jede Erkennungs- und Zuordnungs-Studie seitdem physikalisch bedeutungslos. Wenn es um CO2-Emissionen und Klima geht, weiß niemand, wovon sie geredet haben: nicht das IPCC, nicht Al Gore (das wussten wir schon) und nicht einmal die prominentesten Klima-Modellierer – und mit Sicherheit kein politischer Angeber.

Es gibt keine valide physikalische Theorie des Klimas, mittels welcher man prognostizieren kann, was CO2-Emissionen mit dem Klima machen, wenn überhaupt etwas. Diese Theorie existiert noch nicht.

Die Stefan-Boltzmann-Gleichung ist keine valide Theorie des Klimas, obwohl Leute, die es besser wissen müssten, dies glauben, einschließlich der NAS und jeder wissenschaftlichen Gesellschaft in den USA. Deren Verhalten diesbezüglich ist das atemberaubendste Aufgeben kritischen Denkens in der Wissenschaftshistorie.

Angesichts des Fehlens jedweder physikalisch validen kausalen Ableitung und des Umstands, dass das Klima multipel und rasch auf Änderungen des Energieflusses reagieren kann sowie des weiteren Umstands, dass sich derzeit nichts Ungewöhnliches im Klima zeigt, bleibt man ohne jede Ahnung zurück, wie viel Erwärmung, falls überhaupt eine, zusätzliches CO2 erzeugt hat oder erzeugen wird.

Aus der Perspektive physikalischer Wissenschaft ist es sehr vernünftig zu folgern, dass jedwede Auswirkung von CO2-Emissionen jenseits der gegenwärtigen Auflösung liegt, und es ist sogar vernünftig anzunehmen, dass jedwede mögliche Auswirkung so klein sein kann, dass sie innerhalb der natürlichen Variation gar nicht auffindbar ist. Nichts, was bzgl. des derzeitigen Klimas beobachtet wird, ist in irgendeiner Weise ungewöhnlich.

Die Analyse erbost das gesamte IPCC-Establishment. Sie macht das Endangerment Finding der US-Umweltbehörde (EPA) bedeutungslos und entfernt den Klima-Alarm aus dem US-Wahlkampf 2020. Es gibt keinerlei Beweis irgendeiner Art, dass CO2-Emissionen die globale mittlere Temperatur hat steigen lassen oder steigen lassen werden – falls diese Emissionen dazu überhaupt in der Lage sind.

Die Analyse hat keine Ecken und Kanten. Sie hätte bereits vor 30 Jahren durchgeführt werden sollen – wurde sie aber nicht.

All die düstere Bedeutung bzgl. der Eisschmelze in Grönland oder sich zurückziehender Gletscher von ihrer Höchstausdehnung während der Kleinen Eiszeit oder Änderungen des winterlichen Eises in der Arktis oder der Überflutungen in Bangladesh oder Kiribati oder der Eisbären ist verschwunden. Nichts davon kann vernünftigerweise oder physikalisch den Menschen oder deren CO2-Emissionen in die Schuhe geschoben werden.

Obwohl ich mir ziemlich sicher bin, dass die Studie definitiv ist, werden die in den herrschenden Alarm-Konsens Involvierten fast mit Sicherheit nicht zurückstecken. Es ist unwahrscheinlich, dass die Debatte hier zu Ende ist.

Schauen wir zum Schluss auf den in breiter Front angerichteten Schaden: Ich möchte schließen mit der Hinwendung zu der ethischen Konsequenz der Raserei um die globale Erwärmung. Bei näherem Hinsehen entdeckt man, dass Klimamodelle das Klima nicht modellieren können. Diese Tatsache wurde schon im Jahre 2001 klargestellt, und zwar in der Veröffentlichung von W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev, and E. S. Posmentier Modeling climatic effects of anthropogenic carbon dioxide emissions: unknowns and uncertainties. Climate Res. 18(3), 259-275. Sie steht hier.

In einer normal funktionierenden wissenschaftlichen Umgebung hätte jene Studie den Alarm bzgl. CO2-Emissionen beenden müssen. Dies war jedoch nicht der Fall.

Stattdessen wurde diese Studie verunglimpft und dann universal ignoriert. (Die Lektüre derselben im Jahre 2003 war es, die mich so aufregte. Es war sofort offensichtlich, dass Klimamodellierer unmöglich wissen konnten, was sie zu wissen behaupteten). Wahrscheinlich wird meiner Studie Ähnliches widerfahren: Verhöhnung gefolgt von deren Beerdigung.

Eines aber wissen wir mit Sicherheit: all der Wahn um CO2 und Klima war umsonst.

All die gequälten Erwachsenen; all die verzweifelnden jungen Menschen; all die sich zu Tränen ängstigenden Kinder an Schulen und die Tadel mittels Lektionen über den bevorstehenden Untergang und Tod und Zerstörung; der ganze soziale Streit und die sozialen Verrenkungen. All die Beschuldigungen, der charakterliche Rufmord, all die zerstörten Karrieren, all die winterlichen Todesfälle durch Energie-Armut, all die Männer, Frauen und Kinder, die weiterhin mit Rauch in Innenräumen leben müssen; all die verschwendeten Geldsummen, die verschandelten Landschaften, die zerschmetterten und verbrannten Vögel und Fledermäuse; all die von der Mittelklasse hin zu den reichen Subventions-Landwirten verschobenen Reichtümer – alles für nichts!

Man kann vieles verantwortlich machen, aber der Verrat an der Wissenschaft steht an oberster Stelle. Zu all dem wäre es nicht gekommen, wenn nicht jede einzelne wissenschaftliche Gesellschaft ihre Pflicht zur Gewissenhaftigkeit aufgegeben hätte.

Von der American Physical Society bis zur American Meteorological Association – sie alle haben ihre professionelle Integrität aufgegeben und damit auch ihre Verantwortung, echte Wissenschaft zu verteidigen und zu praktizieren. Absichtliche Missachtung? Wer weiß. Verrat an der Wissenschaft? Mit absoluter Sicherheit.

Wäre die American Physical Society bzgl. der Behauptungen über CO2 und Klima genauso kritisch gewesen wie bzgl. Palladium, Deuterium oder die kalte Fusion, wäre nichts dergleichen passiert. Aber das war sie nicht.

Der institutionelle Betrug hätte schlimmer nicht sein können; er war schlimmer als der Lyssenkoismus, weil es jetzt keinen Stalin gibt, der einem die Pistole unter die Nase hält. Alle waren freiwillig dabei.

Die Toten und Verletzten, die Ängste, die Streitereien, die fehlgeleiteten Ressourcen, die Angriffe auf die Ökologie – all das zu verhindern lag in ihren Händen. Sie haben es nicht getan und stehen daher jetzt in der Verantwortung für all das.

Meiner Ansicht nach sollte das Management jeder einzelnen wissenschaftlichen Gesellschaft in den USA in Schande zurücktreten. Jedes einzelne! Anfangen sollte man mit Marcia McNutt an der National Academy.

Dem IPCC sollten sämtliche Mittel gestrichen und es danach aufgelöst werden.

Und die US-Umweltbehörde (EPA)? Wer genau ist sie, die sie sich rigoros hätte engagieren müssen, es aber nicht getan hat? Im Licht der offensichtlich einstudierten Inkompetenz im Zentrum – sollte nicht die gesamten Befugnisse den Staaten zurückgegeben werden, wo sie hingehören?

Und in einer kleineren, aber nichtsdestotrotz realen Tragödie – wer sagt es der so zynisch missbrauchten Greta? Meine Vorstellung weigert sich, mir dieses Bild vor Augen zu führen.

Zusatz zur Vervollständigung der Diagnose: Es sind nicht nur die Klimamodelle.

Diejenigen, welche die globalen Temperaturaufzeichnungen durchführen, wissen noch nicht einmal um die Grenzen der Auflösung der historischen Instrumente, siehe hier oder hier.

Sie haben vollkommen die systematischen Messfehler ignoriert, welche die Temperaturaufzeichnung durchziehen und diese ungeeignet macht, um irgendetwas über das historische Klima daraus abzulesen, siehe hier, hier und hier.

Diese Probleme addieren sich noch zu denjenigen durch falsche Aufstell-Orte und durch die (Wärmeinsel) -UHI-Effekte.

Die Rekonstruktionen der Paläo-Temperatur aus Proxys, das dritte Standbein des Alarmismus‘, weist keinerlei Relation zur physikalischen Temperatur auf, siehe hier und hier.

Die gesamte AGW-Behauptung fußt auf Klimamodellen, welche nicht das Klima modellieren; auf klimatologisch nutzlosen Messungen der Lufttemperatur und auf Rekonstruktionen der Paläo-Temperatur, von denen nicht bekannt ist, dass sie die Temperatur rekonstruieren.

Das alles beruht auf falscher Präzision; eine Sachlage, die vollständig hier beschrieben wird – begutachtet und alles.

Klima-Alarmismus ist künstliche Pseudo-Wissenschaft und zwar von Anfang an; so gestaltet, dass es wie Wissenschaft aussieht, es aber nicht ist.

Keine einzige wissenschaftliche Organisation hat dies Pseudo-Wissenschaft genannt, obwohl ihre einzige Grundlage die Erhaltung der Integrität der Wissenschaft sein sollte.

Link: https://wattsupwiththat.com/2019/09/07/propagation-of-error-and-the-reliability-of-global-air-temperature-projections-mark-ii/

Übersetzt von Chris Frey EIKE

————————————–

Bemerkung des Übersetzers: Autor Pat Frank spricht hier nur die wissenschaftlichen Institutionen an. Aber sind nicht auch diese wie eine Hammelherde getrieben – durch grünlinke Politiker in allen Parteien und vor allem durch die Medien? Sind es nicht die Politiker, welche Geld für Wissenschaft bewilligen müssen – und den Hebel ansetzen? Sagte nicht jemand in den Anfängen des ganzen Schwindels „jeder von uns Wissenschaftlern muss für sich selbst entscheiden, ob er lieber ehrlich oder lieber effektiv sein will“. Gilt das nicht auch für wissenschaftliche Gesellschaften?

Auch Wissenschaftler sind Menschen, und zwar vielfach solche, die auf diese Gelder angewiesen sind. Kann man ihnen anlasten, dass sie eben lieber effektiv sein wollen, wenn man ihnen das Geld so freigebig hinterherwirft?




Klimaforscher geben schon lange zu, daß ihre Modelle gar nichts vorhersagen

Man kann gar nicht oft genug an Vince Eberts Auftritt erinnern, in dem er den Weltklimarat IPCC mit seinem Bericht zitiert, „Klimamodelle arbeiten mit gekoppelten nichtlinearen chaotischen Systemen, dadurch ist eine langfristige Voraussage des Systems Klima nicht möglich…“.

Aber nicht nur das IPCC ist erstaunlich offen, sondern auch Stefan Rahmstorf aus dem deutschen Klimavatikan, dem Potsdam-Institut für Klimafolgenforschung e.V. Der äußerst empfehlenswerte Schweizer Youtube-Kanal Klimamanifest Heiligenroth hat gerade dieses Video eingestellt:

Und noch eins:

Ergänzend dazu ein Zitat des bekannten Klimatologen und Lehrbuchautors Prof. Dr. Christian-Dietrich Schönwiese, der 2010 in HR Stadtgespräche sagte „wir machen keine Vorhersagen, sondern bedingte, Szenarien gestützte Projektionen… Und Projektion heißt ..wenn – dann Aussage!“ Analog dazu im Lehrbuch Klimatologie, 4. Auflage, meint er auf Seite 362: „Wenn ich in das Modell hinein stecke, der Mensch macht das und das und die Natur macht quasi nichts, sie wird also weitgehend vergessen, bei diesem Blick in die Zukunft , dann wird die Temperatur so und so ansteigen […] das trifft praktisch auf die Gesamtheit der natürlichen Klimaprozesse zu“.

Ungefähr dasselbe meinte der kanadische Kli­ma­for­scher Tad Murty. Er hatte ei­nen Jour­nal­is­ten aufgefordert, künftig „keine Er­gebnisse mei­ner Com­puter­mod­elle“ mehr zu zit­ieren. „Damit habe ich seit 45 Jahren zu tun, und ich kann Ih­nen damit beweisen, was im­mer Sie wol­len. Wenn Sie wol­len, kann ich eine welt­weite Er­wär­mung her­beiführen, wenn Sie hin­ge­gen eine Eiszeit wol­len, kann ich diese eben­falls her­stel­len, mit ei­ner sehr ger­in­gen Verän­derung eines ein­zi­gen Mod­ell­parame­ters (die An­zahl der nie­drigen Wolken).“ (Leserbrief an die Herausgeber von Cayman News online, 8. Juni 2005 in www.cfact-europe.org). 

Was macht man als Bürger nun damit? Heißt das, die Klimahysteriker haben zugegeben, daß sie nur Fantasie-Szenarien produzieren? Leider nicht ganz: Die „Wenn-dann“-Aussage von Schönwiese ist ein Schlupfloch: Wenn wir soundsoviel CO2 in die Luft blasen, wird das und das passieren. Wird es natürlich nicht, wie EIKE-Leser wissen, weil die Computermodelle der Klima-Alarmisten unterkomplex sind und alle Faktoren mit Ausnahme des atmosphärischen Kohlendioxid ignorieren. Von den Manipulationen, die im ersten und zweiten Klimagate aufflogen, ganz zu schweigen.

Vielleicht sorgen Rahmstorf & Co. auch nur vor? Zwar ist Klima das gemittelte Wetter über 30 Jahre, und so dauert es entsprechend länger als zum Beispiel beim Waldsterben-Märchen, bis die Bürger dahinter kommen. Vielleicht haben die Alarmisten aber trotzdem Angst, eines Tages für ihre Panikmache zur Rechenschaft gezogen zu werden. Und rein juristisch kann man sich dann natürlich ganz gut aus der Affäre ziehen, wenn man behaupten kann, nie etwas behauptet zu haben.

Vince Ebert:




Klimaforscher geben schon lange zu, daß ihre Modelle gar nichts vorhersagen

Man kann gar nicht oft genug an Vince Eberts Auftritt erinnern, in dem er den Weltklimarat IPCC mit seinem Bericht zitiert, „Klimamodelle arbeiten mit gekoppelten nichtlinearen chaotischen Systemen, dadurch ist eine langfristige Voraussage des Systems Klima nicht möglich…“.

Aber nicht nur das IPCC ist erstaunlich offen, sondern auch Stefan Rahmstorf aus dem deutschen Klimavatikan, dem Potsdam-Institut für Klimafolgenforschung e.V. Der äußerst empfehlenswerte Schweizer Youtube-Kanal Klimamanifest Heiligenroth hat gerade dieses Video eingestellt:

Und noch eins:

Ergänzend dazu ein Zitat des bekannten Klimatologen und Lehrbuchautors Prof. Dr. Christian-Dietrich Schönwiese, der 2010 in HR Stadtgespräche sagte „wir machen keine Vorhersagen, sondern bedingte, Szenarien gestützte Projektionen… Und Projektion heißt ..wenn – dann Aussage!“ Analog dazu im Lehrbuch Klimatologie, 4. Auflage, meint er auf Seite 362: „Wenn ich in das Modell hinein stecke, der Mensch macht das und das und die Natur macht quasi nichts, sie wird also weitgehend vergessen, bei diesem Blick in die Zukunft , dann wird die Temperatur so und so ansteigen […] das trifft praktisch auf die Gesamtheit der natürlichen Klimaprozesse zu“.

Ungefähr dasselbe meinte der kanadische Kli­ma­for­scher Tad Murty. Er hatte ei­nen Jour­nal­is­ten aufgefordert, künftig „keine Er­gebnisse mei­ner Com­puter­mod­elle“ mehr zu zit­ieren. „Damit habe ich seit 45 Jahren zu tun, und ich kann Ih­nen damit beweisen, was im­mer Sie wol­len. Wenn Sie wol­len, kann ich eine welt­weite Er­wär­mung her­beiführen, wenn Sie hin­ge­gen eine Eiszeit wol­len, kann ich diese eben­falls her­stel­len, mit ei­ner sehr ger­in­gen Verän­derung eines ein­zi­gen Mod­ell­parame­ters (die An­zahl der nie­drigen Wolken).“ (Leserbrief an die Herausgeber von Cayman News online, 8. Juni 2005 in www.cfact-europe.org). 

Was macht man als Bürger nun damit? Heißt das, die Klimahysteriker haben zugegeben, daß sie nur Fantasie-Szenarien produzieren? Leider nicht ganz: Die „Wenn-dann“-Aussage von Schönwiese ist ein Schlupfloch: Wenn wir soundsoviel CO2 in die Luft blasen, wird das und das passieren. Wird es natürlich nicht, wie EIKE-Leser wissen, weil die Computermodelle der Klima-Alarmisten unterkomplex sind und alle Faktoren mit Ausnahme des atmosphärischen Kohlendioxid ignorieren. Von den Manipulationen, die im ersten und zweiten Klimagate aufflogen, ganz zu schweigen.

Vielleicht sorgen Rahmstorf & Co. auch nur vor? Zwar ist Klima das gemittelte Wetter über 30 Jahre, und so dauert es entsprechend länger als zum Beispiel beim Waldsterben-Märchen, bis die Bürger dahinter kommen. Vielleicht haben die Alarmisten aber trotzdem Angst, eines Tages für ihre Panikmache zur Rechenschaft gezogen zu werden. Und rein juristisch kann man sich dann natürlich ganz gut aus der Affäre ziehen, wenn man behaupten kann, nie etwas behauptet zu haben.

Vince Ebert:




Kritik an der Treibhaus-Klimawandel­hypothese, Teil 1 Durch „Tuning“ zu passenden Modellen

Wir wollen deshalb hier einmal versuchen, möglichst klar und prägnant die Kernthesen der Treibhaus-Klimawandel-Hypothese herauszuarbeiten – und warum sie falsch sind. Was also sind die konkreten Behauptungen der Klimawandel-Industrie? Prinzipiell kann man den von ihr postulierten Prozess des vermeintlichen menschlich verursachten “Klimawandels” in zwei Stufen einteilen:

Erstens, das was man als “primären” oder “physikalischen” Treibhauseffekt bezeichnen kann; konkret wird behauptet, dass eine Verdoppelung der atmosphärischen Kohlendioxidkonzentration vom vorindustriellen Wert von 0,028 auf 0,056 Prozent – die derzeitige Konzentration beträgt 0,041 Prozent – in eine Erhöhung der Einstrahlung an der Erdoberfläche um etwas mehr als 1 Prozent (3,7 Watt pro Quadratmeter) resultiert, was weiterhin zu einer Temperaturerhöhung um 1 Grad Celsius führt (Dies wird in der Literatur auch als Planck-Wert bezeichnet).

Nicht einmal die Klimawandel-Industrie wagt aber zu behaupten, dass eine solch geringe Temperaturerhöhung zu wesentlichen Problemen führen würde (Ab 1,5 Grad Celsius soll es aber angeblich ganz fürchterlich werdeni). Deshalb wird in den Klimamodellen als zweite Stufe eine Verstärkung der initialen Erwärmung durch Rückkopplungseffekte postuliert: Durch die Erwärmung verdampft mehr Wasser; Wasserdampf ist aber auch ein Treibhausgas, was dazu führt das es noch wärmer wird und noch mehr Wasser verdampft und so weiter und so fort. Über die Höhe der dadurch erreichten Verstärkung ist man sich in den verschiedenen Modellen durchaus nicht so ganz einig; als “Konsenswert” wurde vom IPCC, der UNO-”Klimabehörde” ein Faktor 3 festgelegt. Das würde also heißen, dass eine Verdoppelung der Kohlendioxidkonzentration zu einer Temperaturerhöhung um 3 Grad Celsius führen würde.

Eventuell könnte man dann noch als dritte Stufe die Auswirkungen dieser postulierten Erwärmung auf spezifische klimatische Ereignisse einführen, welche bekanntlich in den grellsten Farben ausgemalt werden – massiver Anstieg des Meeresspiegels, mehr Stürme und so weiter.

Alle diese Behauptungen basieren jedoch einzig und allein auf den berühmt-berüchtigten Klima-Modellen. Dafür, dass diese “Modelle” in der Lage sind, das real existierende Klima auf der Erde vorherzusagen gibt es jedoch keinerlei Beleg. Ganz im Gegenteil: Sie versagen bereits bei der Aufgabe, auch nur vergangene Klimaentwicklungen zu reproduzieren.

Man ist deshalb dazu gezwungen, die Abweichungen von der Realität irgendwie auszubügeln. Zunächst bediente man sich hierzu vorwiegend der “Flusskorrekturen”: dabei werden Werte im Modell – etwa Temperatur oder Wassergehalt – so korrigiert, dass sie mit den beobachteten Werten übereinstimmen. Wenn beispielsweise in einem globalen Klima-Modell das für die Atmosphäre zuständige Teilmodell eine Temperatur liefert, welche um 2 Grad Celsius höher ist als tatsächlich gemessen, so wird auf diese Temperatur einfach eine “Flusskorrektur” von minus 2 Grad Celsius angewandt, bevor man den Wert ausgibt oder an ein anderes Teilmodell (etwa für den Ozean) weiterleitet. Bei dieser grobschlächtigen Methode tritt natürlich die Unzulänglichkeit der Modelle klar zutage; in neuerer Zeit setzt man deshalb, in einem Versuch die Schummelei nicht gar so offensichtlich zu machen, stattdessen auf das sogenannte ”Tuning”. In einer der – bezeichnenderweise raren – wissenschaftlichen Veröffentlichungen (Mauritsen et al., “Tuning the climate of a global model”) zu diesem heiklen Thema wird die Vorgehensweise bei dieser Methode so beschrieben:

Während der Entwicklungsphase werden die Eigenschaften globaler Klimamodelle auf vielfältige Art und Weise so eingestellt oder getunt, dass sie möglichst gut dem bekannten Zustand des klimatischen Systems der Erde entsprechen. Diese gewünschten Eigenschaften sind beobachtbare Größen wie das Strahlungsgleichgewicht an der Grenze zum Weltall, die weltweite Durchschnittstemperatur, Meereis, Wolken und Windfelder. Das Tunen erfolgt üblicherweise durch die Anpassung nicht genau bekannter, oder sogar nicht beobachtbarer, Parameter von Prozessen, welche nicht explizit im Modell repräsentiert werden.”

Im Klartext: Wir haben zwar keine Ahnung, was diese klimatischen Prozesse eigentlich tun, aber wir stellen sie einfach einmal so ein, dass die Abweichungen (oder zumindest ein Teil der Abweichungen) in unserem Modell zum tatsächlich beobachteten Klima ausgeglichen werden. Das ist natürlich keine wirkliche Verbesserung gegenüber den Flusskorrekturen, weshalb es nicht verwundert, dass man es auch hier vermeidet, das Vorgehen an die große Glocke zu hängen. In einer anderen Veröffentlichung (Hourdin et al., “The art and science of climate model tuning”)ii wird der nicht gerade offene Umgang mit der Tuning Problematik vorsichtig thematisiert:

“Obwohl die Notwendigkeit des Parametertunens in bahnbrechenden Arbeiten anerkannt (z.B. Manabe und Wetherald 1975) und als wichtiger Aspekt in erkenntnistheoretischen Studien der Klimamodellierung behandelt wurde (Edwards 2001), wird die Bedeutung des Tunens vermutlich nicht so deutlich kommuniziert wie es sollte. Es wird oftmals ignoriert, wenn die Leistungen von Klimamodellen in Multi-Modell Analysen verglichen werden. Die Tuning-Strategien waren nicht einmal Teil der erforderlichen Dokumentation der CMIP5 Simulationen. [Ein Vergleich von Klimamodellen, welcher die Basis für einen wesentlichen Teil der Berichte des IPCC bildet] … Warum ein solcher Mangel an Transparenz? … Es mag auch Bedenken geben, dass eine Erklärung der Tatsache, dass die Modelle getunt sind, die Argumente derer stützen würde, welche die Korrektheit der Prognosen des Klimawandels in Zweifel ziehen. Das Tunen kann durchaus als verstohlene Methode gesehen werden, Fehler in den Modellen zu kompensieren.”

Etwas weiter wird dann eingestanden, dass diese Funktion des Tunings als Fehlervertuschung nicht nur so gesehen werden kann, sondern schlichtweg eine Tatsache ist:

Sobald eine Modellkonfiguration festgelegt ist, besteht das Tunen darin, Parameterwerte so zu wählen, dass die Abweichung der Modellausgaben von Beobachtung oder Theorie minimiert oder auf ein akzeptables Maß reduziert wird. Wenn man es so definiert, wird Tuning in anderen Anwendungsbereichen komplexer numerischer Modelle gewöhnlich als Kalibrierung bezeichnet (Kennedy und O’Hagan 2001). Einigen Klimamodellierern widerstrebt es jedoch, diesen Begriff zu verwenden, da sie wissen, dass sie durch die Parameteranpassungen, absichtlich oder nicht, auch (oft unbekannte) Defekte in der Modellformulierung selbst kompensieren.”

Dieselbe Veröffentlichung enthält auch eine Umfrage unter Klima-Modellierungsgruppen, welche die Notwendigkeit des Tunings eindringlich unterstreicht – von den 23 Befragten geben 22 an, dass sie ihre Modelle tunen. Die einsame Ausnahme lässt sich wohl mit der Tatsache erklären, dass unter die ganzen Klimamodelle auch eines für die Wettervorhersage geraten war – dort hat man im Gegensatz zur Klimagemeinde nicht den Luxus, nachträglich noch Schummelkorrekturen anwenden zu können, hier werden korrekte Vorhersagen erwartet.

Als Stellschrauben zur Klima-”Korrektur” werden insbesondere Parameter im Zusammenhang mit Wolken und Konvektion, der Interaktion beim Auftreffen von Wind auf Bergen, der ozeanischen Wassermischungsverhältnisse und der Reflektivität von Schnee und Meereis verwendet. So führt beispielsweise eine Erhöhung der Rate, mit der beim konvektiven Aufsteigen von Wolken deren Feuchtigkeit als Niederschlag ausfällt, zu weniger Wolken, was weniger Rückreflektion der Sonneneinstrahlung ins Weltall bedeutet und damit zu einer höheren Temperatur. Hier Mauritsen et al. mit einem konkreten Beispiel:

“An diesem Punkt war klar, dass das neue gekoppelte Modell im Vergleich zu der von uns angepeilten vorindustriellen Temperatur zu warm war. Verschiedene Maßnahmen zur Senkung der globalen Durchschnittstemperatur durch Änderung der konvektiven Entrainment Raten, des Anteils überschießender Konvektion und der Wolkenhomogenitätsfaktoren wurden getestet. Letztendlich wurde entschieden, vorwiegend einen von 0,70 auf 0,77 erhöhten Homogenitätsfaktor für flüssige Wolken kombiniert mit einer leichten Reduzierung des Anteils der überschießenden Konvektion von 0,22 auf 0,21 zu verwenden, was eine Erhöhung der Wolkenreflektivität in niedrigeren Höhen und damit eine Reduzierung der Abweichung der Oberflächentemperatur-bewirkte. Jetzt war die weltweite Durchschnittstemperatur genügend nahe an unserem Zielwert und das Abdriften nur mehr sehr schwach ausgeprägt.”

Angesichts der Tatsache, dass sich in der Klima-”Wissenschaft” seit Jahrzehnten fast ausschließlich alles darum dreht, einen menschlichen Einfluss auf das Klima zu demonstrieren, ist es nicht verwunderlich, dass beim Modell-“Tunen” neben natürlichen klimatischen Prozessen auch vermeintliche menschliche Einflüsse bemüht werden. Hierbei geht es insbesondere um die durch Emissionen von Industrie, Kraftwerken und Verkehr in die Atmosphäre gelangenden sogenannten Aerosole. Ihre angebliche Klimawirksamkeit wurde bereits unter anderen Vorzeichen in den 70er Jahren propagiert – damals wurden sie beschuldigt, durch Blockade der Sonneneinstrahlung für das Kommen einer neuen Eiszeit verantwortlich zu sein.iii Ihre heutige Bedeutung ergibt sich dadurch, dass sie verwendet werden, um das offensichtliche Versagen der Treibhausmodelle bei der Beschreibung des Klimas des 20sten Jahrhunderts zu kaschieren; wie bereits erwähnt, soll eine Verdoppelung der Kohlendioxidkonzentration seit dem Beginn der Industrialisierung eine Temperaturerhöhung von etwa 3 Grad Celsius bewirken. Von dieser Verdoppelung ist knapp die Hälfte bereits eingetreten; da die Auswirkung nicht linear, sondern (annähernd) logarithmisch ist und andere Treibhausgase wie Methan ebenfalls zugenommen haben, sollte der größte Teil dieser 3 Grad Celsius Erwärmung bereits jetzt geschehen sein. Aber selbst mit allen Tricks und intensivster Massage von historischen Temperaturdaten kommt man gerade einmal auf eine Erhöhung von 0,85 Grad Celsius.iv Als Retter in der Not kommen nunmehr die Aerosole zum heldenhaften Tuningeinsatz – ihre vermeintlich kühlende Wirkung auf das Klima soll die fehlende Erwärmung erklären:

Einer der wenigen Tests, welchen wir Klimamodelle unterziehen können, ist ob sie in der Lage sind den beobachteten Temperaturverlauf seit dem Beginn der Industrialisierung bis hin zur Gegenwart zu reproduzierten. Die Modelle schneiden hierbei überraschend gut ab (Räisänen, 2007), wenn man die breite Spanne an Klimasensitivitäten bedenkt – ein Verhalten welches auf eine Kompensation durch anthropogenen Einfluss im zwanzigsten Jahrhundert zurückgeführt wird (Kiehl, 2007): Modelle mit einer hohen Klimasensitivität tendieren dazu, einen schwachen anthropogenen Einfluss zu haben und umgekehrt. Weiterhin wurde als Ursache für einen Großteil der Abweichungen zwischen den Modellen unterschiedliche Aerosoleinflüsse bestimmt.”

Die vermeintliche Temperaturwirkung der Aerosole wird also einfach dreist so angenommen, wie es gerade eben passt – und das auch noch für jedes Modell anders. Dass menschlich verursachte Aerosole überhaupt irgendeinen nennenswerten Einfluss auf das globale Klima ausüben, erscheint aufgrund der Tatsache, dass diese lediglich im unteren Bereich der Atmosphäre verbreitet werden, mit daher kurzer Verweildauer in der Atmosphäre und einer räumlich begrenzten Verbreitung rein prinzipiell als unplausibel. Messungen der Durchlässigkeit der Atmosphäre für Sonneneinstrahlung für das letzte Jahrhundert zeigen denn auch mit Ausnahme von größeren Vulkanausbrüchen, bei welchen Material hoch in die Stratosphäre geschleudert wird – was zu jeweils kurzzeitigen Einstrahlungssenkungen mit entsprechender weltweiter Abkühlung führte – keine nennenswerten Veränderungen an.v Es ist nicht einmal sicher, dass insofern die Aerosole überhaupt einen Einfluss ausüben, dieser tatsächlich, wie behauptet, abkühlend ist – es gibt auch Aerosole die die Sonneneinstrahlung nicht reflektieren, sondern absorbieren und damit erwärmend wirken.

Hier wird auch ein weiteres massives Problem der Klimamodelle deutlich, nämlich die großen Abweichungen der verschiedenen Modelle voneinander. Es geht also nicht nur darum, ob man den Modellen Glauben schenken will – sondern welchem denn nun. Oben haben wir festgehalten, dass bei einer Verdoppelung des Kohlendioxidgehalts in der Atmosphäre eine Einstrahlungserhöhung um 3,7 Watt pro Quadratmeter behauptet wird, was laut IPCC-Konsenswert zu einer Temperaturerhöhung um 3 Grad Celsius führen soll. Was sich hinter der Nennung solcher Modell-“Durchschnitte” verbirgt, sehen wir etwa hier bei Hourdin et al.:

“Dieses Tunen des Energiegleichgewichts ist von entscheidender Bedeutung, da eine Änderung um 1 W/m2 des Energiegleichgewichts in globalen Klimamodellen, je nach Sensitivität des jeweiligen Modells, typischerweise zu einer Änderung um 0,5 bis zu 1,5 K in der weltweiten Durchschnittstemperatur führt.”

Also mal ganz locker Unterschiede um den Faktor 3. Und das auch nur, wenn wir im “typischen” Bereich bleiben – die Bandbreite ist also eher noch größer. Bei Mauritsen et al. wird aufgezeigt, was das für Auswirkungen hat:

“Jedoch beträgt die Spanne zwischen dem kältesten und dem wärmsten Modell fast 3 Grad Kelvin, mit gleichem Abstand nach Oben und Unten zu den tatsächlichen Werten, wobei die Mehrheit der Modelle nach Unten tendieren. Obwohl die Spanne nur ein Prozent relativ zum absoluten Nullpunkt beträgt, ist dies kaum ein Grund zur Beruhigung. Relativ zu der Erwärmung im 20igsten Jahrhundert ist die Spanne um den Faktor vier größer, während sie in etwa unserer besten Abschätzung der klimatischen Auswirkung einer Verdoppelung der Kohlendioxidkonzentration und etwa der Hälfte des Unterschieds zwischen dem letzten eiszeitlichen Maximum und der Gegenwart entspricht.”

Dem ist wohl nichts hinzuzufügen. Dennoch regen sich nur vereinzelt Stimmen in der Modellierungsgemeinde, welche die Konsequenzen ziehen und es wagen, wie hier, prinzipielle Kritik an der Praxis des Tunings zu üben (Dommenget und Rezny, “A Caveat Note on Tuning in the Development of Coupled Climate Models”)vi:

Aktuelle globale Klimamodelle weisen wesentliche Fehler in ihren Simulationen des Klimas auf. Insbesondere können diese Fehler zu großen Unsicherheiten in den simulierten Auswirkungen (sowohl global als auch regional) einer CO2-Verdoppelung führen. Zurzeit werden globale Klimamodelle durch umfangreiches Tunen der Modellphysik im Rahmen von Parametrisierungen entwickelt. Es ist nicht klar, ob solches Tunen die Modelle tatsächlich verbessert. Der Prozess des Tunens ist (im Allgemeinen) weder dokumentiert noch reproduzierbar. … Das Tunen mag die Modellergebnisse verbessern (wie etwa die Reproduktion beobachteten vergangenen Klimas), erzielt jedoch keine Annäherung an die “wahre” Physik; ebenso wenig werden dadurch Prognosen des zukünftigen Klimawandels nennenswert verbessert.”

Tatsächlich macht das Tunen das Modell nur noch schlechter, da beim Tunen eines Teilbereichs des Modells auch andere Teilmodelle von den dadurch verfälschten Werten beeinflusst werden:

Innerhalb der globalen Klimasimulation verursachen die Fehler in den jeweiligen Teilmodellen – zum einen Fehler in der Parametrierung des Teilmodells selbst, zum anderen falsche Eingabewerte, die es von anderen Teilmodellen erhält – Folgefehler. Beim Tunen des globalen Klimamodells werden die Parameter in allen Teilmodellen so eingestellt, dass Beides kompensiert wird. Wenn sich zum Beispiel in einer globale Simulation Abweichungen in der Wolkenbedeckung in einer bestimmten Region zeigen, so kann dies sowohl von einem Fehler im Wolkenmodell oder von einem falschen Eingabewert herrühren (Abweichender Durchschnittszustand in anderen klimatischen Variablen). Das Entwicklungsteam des Modells könnte zu dem Entschluss kommen, die Parameter des Wolkenmodells zu tunen, obwohl eigentlich falsche Eingabewerte in das Wolkenmodell aufgrund von Problemen in anderen Teilmodellen verantwortlich sind. … Tatsächlich erschwert das Tunen die Modellentwicklung (und Verbesserung): Das Tunen von Klimamodellen führt zu Kompensationsfehlern, welche effektiv alle Teilmodelle des globalen Modells voneinander abhängig machen. Deshalb ist es so gut wie sicher, dass das Ersetzen oder Austauschen von Teilmodellen die Simulation des Gesamtklimas verschlechtern wird und weitere Optimierung notwendig ist. Die Optimierung wird dann (ein weiteres Mal) die Modellphysik von der “Wahrheit” entfernen.”

Durch Tunen mag man es zwar so hintricksen, dass das die von einem Modell gelieferten Resultate für ein ganz bestimmtes Szenario zumindest halbwegs mit dem real beobachteten Klima übereinstimmt. Die Wahrheit kommt aber spätestens dann ans Licht, wenn man versucht, das Modell für eine andere Situation einzusetzen als für die, für welche es “optimiert” wurde:

Damit hat der Optimierungsansatz es zwar geschafft den indirekten Fehler zu reduzieren, hat aber gleichzeitig die direkten Fehler für die Reaktion zu einer CO2 Verdopplung erhöht. Er hat Kompensationsfehler erzeugt, die nur sichtbar werden, wenn er auf ein Problem angewandt wird, das sich wesentlich von dem unterscheidet für das er getunt wurde. … Der Tuning Prozess wird die Verlustfunktion reduzieren, aber die Physik die wir dadurch erhalten, ist nicht näher an der “wahren” Physik. Danach scheint es zwar so, als ob die Modelle das Klima besser reproduzieren können, aber wenn eine detaillierte Analyse auf Basis der physikalischen Prozesse oder unter anderen klimatischen Szenarios (z.B. erdgeschichtlich weiter zurückliegend oder zukünftige Klimawandelszenarien), so werden gravierende Modellierungsfehler auftreten.”

Die Autoren kommen deshalb zu dem Schluss, man solle doch besser wieder mit offenem Visier schummeln und zu den heute verpönten Flusskorrekturen zurückkehren:

“Flusskorrekturen sind eine nützliche Alternative: Sie bewirken keine Veränderung der Modellphysik, weshalb keine Optimierung notwendig ist. Weiterhin tritt keine Fehlerkompensation aufgrund des Tuning Prozesses auf. Ein weiterer Vorteil ist, dass Flusskorrekturen leicht zu dokumentieren und zu quantifizieren sind – die Korrektur ist einfach ein Eingabewert für das Modell (und kann abgeschaltet werden).”

Flusskorrekturen sind insofern das kleinere Übel, weil sie zumindest deutlich signalisieren, wo die Fehler im Modell liegen, während Tuning diese nur vertuscht aber nicht nur nicht löst, sondern sogar noch vermehrt. Natürlich setzt dies voraus, dass man wirklich an der “wahren” Physik des Klimas interessiert ist – etwas, was bei der heutigen Treibhaus-Klimaindustrie in der Regel mit Fug und Recht bezweifelt werden darf.

Es muss betont werden, dass selbst nach dem “Tunen” immer noch genügend Abweichungen zwischen den Modellen und der Realität übrigbleiben (Schmidt et al., “Practice and philosophy of climate model tuning across six U.S. modeling centers”)vii:

“Die Grenzen des Tunens sind wohlbekannt (Mauritsen et al., 2012; Schmidt und Sherwood, 2014; Hourdin et al., 2016). Zunächst einmal ist es bemerkenswert wenig hilfreich, wenn es um die Verbesserung der allgemeinen Modellfähigkeiten geht, sobald ein ausreichender Teil des Parameterraums identifiziert wurde – zum Beispiel war Tuning nicht in der Lage, das hartnäckige Problem der sogenannten “Doppelten Innertropischen Konvergenzzone” zu lösen (Lin, 2007; Oueslati and Bellon, 2015). Zweitens sind Verbesserungen in einem Bereich oftmals von Verschlechterungen in einem anderen begleitet, weshalb die letztendliche Parameterwahl subjektive Bewertungen über die relative Wichtigkeit verschiedener Aspekte der Simulationen beinhaltet. Zum Beispiel benutzt der australische Beitrag zu CMIP5 (ACCESS v.1) eine Variante des britischen Met Office Atmosphärenmodells mit kleineren Modifikationen um Problemen in den Tropen und der südlichen Hemisphäre, welche die Vorhersagen für Australien betreffen, entgegenzuwirken, auf Kosten der Leistung anderswo (Bi et al., 2013). Es gibt viele weitere offensichtliche Abweichungen von der Realität in Modellsimulationen, die über Modellgenerationen erhalten bleiben, was darauf schließen lässt, dass diese Aspekte resistent gegen Änderungen im Rahmen der Modellentwicklung sind (das schließt das Tunen ein) (Masson and Knutti, 2011).”

Die Unzulänglichkeiten der Klima-Modelle bieten schier endlosen Diskussionsstoff, aber wir wollen es bei den bisherigen Punkten belassen, welche ganz bewusst zu einem Großteil in Form von Zitaten der Worte der Klimamodellierer selbst dargelegt wurden; sie sind mehr als ausreichend, um die völlige Ungeeignetheit der sogenannten Klima-Modelle einen vermeintlichen Treibhausgas-induzierten Klimawandel – oder sonst irgendetwas – zu belegen: Sie sind nicht nur nicht dazu imstande, das tatsächlich beobachtete Klima zu reproduzieren (geschweige denn vorherzusagen) sie zeigen auch noch massive Abweichungen untereinander; und selbst das “Tunen” schafft es nur, die allergröbsten Abweichungen von der Realität zu kaschieren.

Auch gibt es keine Anzeichen dafür, dass sich die von den Modellen gelieferten Ergebnisse trotz der massiven Fortschritte in der verfügbaren Computerleistung über die letzten Jahrzehnte in irgendeiner Weise verbessert haben. Eine interessante Frage ist, ob die oftmals stark nichtlinearen Prozesse im irdischen klimatischen System eine prinzipielle Barriere für den Einsatz von Klimamodellen darstellen, oder ob diese bei einem Wegfall der ihnen aufgezwungenen politischen “Zielorientierung” doch noch eine nützliche Rolle spielen könnten. Das hängt natürlich auch davon ab, ob man sich der “offiziellen” Position in der Klimaforschung anschließt, dass klimatische Variabilität im Wesentlichen intern im irdischen Klimasystem bestimmt wird oder ob man externe Einflüsse – etwa Sonnenaktivität – als wichtige Faktoren in Betracht zieht.

Für die Beantwortung der Frage der Korrektheit der Treibhaus-Klimawandelhypothese spielt das aber keine Rolle. Um diese zu widerlegen benötigen wir keine Modelle, sondern lediglich die empirischen Beobachtungen des irdischen Klimas. Das soll das Thema des nächsten Artikels sein.

Mauritsen et al. 2012, „Tuning the climate of a global model“

Hourdin et al. 2017, „The Art and Science of Climate Model Tuning“

Dommenget und Rezny 2017, „A Caveat Note on Tuning in the Development of Coupled Climate Models“

Schmidt et al. 2017, „Practice and philosophy of climate model tuning across six U.S. modeling centers“

Anmerkung: Dieser Beitrag erschien auch hier.




12. IKEK am 23. und 24.11.18 Hermann Harde – Wieviel tragen CO2 und die Sonne zur globalen Erwärmung bei?

Die Weltklimarat(IPCC)-Wissenschaftler behaupten eine grundsätzliche Sensibilität unseres Klimas gegenüber den Treibhausgasen. Eine Verdopplung des CO2-Gehaltes der Luft bedeute einen Anstieg der globalen mittleren Temperatur von 1,5 bis 4,5°C, so genau wisse man das auch nicht.

Prof. Dr. Hermann Harde analysiert die Berechnungsverfahren der etablierten Klimatologen und stellt deren Ergebnisse eigenen Resultaten, basierend auf einem erweiterten Zwei-Lagen-Modell, gegenüber.

Dieses Modell beschreibt Erdoberfläche und Atmosphäre als zwei Schichten, die langwellige (lw) oder kurzwellige (kw) Strahlung absorbieren, und selber als Strahler im langwelligen Bereich wirken. Die jeweilige Lage gebe dabei im Gleichgewicht so viel Leistung ab, wie sie aufgenommen habe. Daraus erhalte man ein „gekoppeltes Bilanzgleichungssystem“. Eine „Störung“ von außen, also erhöhte Sonnenaktivität oder Änderung der Konzentration von Treibhausgasen, führe im Modell zu einer Veränderung des Gleichgewichtes und somit zu einer Veränderung der mittleren Temperaturen von Erdoberfläche und Luft.

Video des Vortrages von Prof. Hermann Harde anlässlich der 12. IKEK in München

Hardes Modell berücksichtige dabei auch Streuprozesse (lw, kw) an der Atmosphäre und an der Wolkendecke; außerdem alle üblichen thermisch bedingten Rückkoppelungen wie Änderung der Wasserdampf-Konzentration, Albedo oder thermische Wolken-Rückkopplung; zusätzlich Wärmeflüsse durch Konvektion und Evaporation. In seinem Modell rechnete Prof. Harde 14 verschiedene Konzentrationen atmosphärischen Kohlendioxids durch (0-770 parts per million, ppm). In seinen Simulationen konnte er die Ergebnisse der IPCC-Klimamodelle nur zum geringen Teil reproduzieren. Besonders die negativen (also kühlenden) Rückkoppelungseffekte wie Verdampfung verminderten die mittlere Temperatur im Modell erheblich und wirkten somit klimastabilisierend. Erstaunlicherweise erwähne der Weltklimarat im aktuellen Sachstandsbericht (AR5) diese negativen Rückkoppelungen gar nicht. Prof. Harde favorisiert die Klima-Theorie der Solaraktivität.

Die Tätigkeit der Erdsonne habe sich zwischen 1950 und 2000 erhöht, was sich auf die Temperatur der Atmosphäre verstärkend auswirke; ähnlich wie der vom IPCC behauptete CO2-abhängige Treibhauseffekt. Auch die Sonnenstrahlen seien mit der Wolkenbildung negativ rückgekoppelt. Erhöhe sich also die solare Aktivität, vermindere sich die Wolkendecke. Der Referent schloß mit dem Fazit, dass 65% der mittleren Temperaturerhöhung in 100 Jahren auf die Sonnenaktivität zurückgehen (0,48°C), aber nur 35% auf das in der Luft vorhandene Kohlenstoffdioxid (0,26°C); in der Summe 0,74°C.




Wann wird den Klima-Alarmisten der Stecker gezogen?

Klimawandel hat es bekanntlich immer gegeben und wird es immer geben. Neu auf der Weltenbühne sind dagegen die Klima-Alarmisten, bei denen es sich aber eigentlich nur um die säkulare Version der Weltuntergangspropheten unterschiedlichster Couleur handelt, die immer schon versucht haben, ihren Mitmenschen das Leben ein bisschen schwerer zu machen.

Aber wie kann es sein, dass sich in der Debatte um den aktuellen Klimawandel die Ratio beziehungsweise der Klimarealismus nur so zögerlich durchsetzt, wenn überhaupt? Wieso kann eine doch etwas schwachbrüstig begründete Behauptung – der derzeitige Klimawandel respektive die globale Erwärmung sei ganz maßgeblich oder ausschließlich durch vom Menschen erzeugtes CO2 bedingt – zu politischen Entscheidungen führen, die den Wirtschaftsstandort Deutschland, den Wohlstand und die Freiheit seiner Bürger ernsthaft aufs Spiel setzen? Und wie kann es sein, dass die Medien nicht etwa vor diesem sich deutlich abzeichnenden Abgrund warnen, sondern ganz, ganz überwiegend nach noch mehr „Klimaschutz“ rufen?

Gerade sind diese Zeilen geschrieben, als ich kurz meine Tätigkeit unterbreche, um die Tagesschau zu gucken. Beim anschließenden Zappen bleibe ich bei einer Wiederholung von Report München hängen: Großes Drama. Der Rhein führt zu wenig Wasser. Die Schifffahrt leidet. Schnitt: Irgendein Experte äußert, dass wir damit nun jedes Jahr zu rechnen haben, wenn nicht endlich energisch gegengesteuert, also der CO2-Ausstoß reduziert werde. Nächster Beitrag: Deutschland komme mit der Reduktion der CO2-Emissionen nicht voran. Mittlerweile hätten uns sogar England und Schweden überholt.

Als ein durchaus sympathisches schwedisches Architektenpaar in ihrem selbst entworfenen Niedrigenergiehaus berichtet, sich hinsichtlich des dortigen Wohnkomforts überhaupt nicht eingeschränkt zu fühlen, aber erkennbar durch einen sehr dicken Rollkragenpullover und eine üppige Vliesjacke der offenbar herrschenden Kühle zu trotzen versucht, ist die zulässige tägliche Propagandadosis eindeutig überschritten. Fazit: Ohne ihre medialen Verbündeten sähen die Klima-Alarmisten in Wissenschaft und Politik verdammt alt aus.

Das Reporterteam scheint bereits auf der Flucht

Liest man etwa die Titelgeschichte im Spiegel Nr. 49: „Klimawandel – Was der Anstieg des Meeresspiegels für die Menschheit und ihre Lebensräume bedeutet“, fällt zunächst der atemlose Duktus auf. Das achtköpfige Reporterteam scheint bereits auf der Flucht zu sein vor der herannahenden Apokalypse – der Anstieg des Meeresspiegels droht, was dem Leser bereits beim flüchtigen Durchblättern auf Grund der vielen hübschen Wasserbilder auffällt. Ob „wir einen Meeresanstieg von mehreren Metern“ bekommen werden, fragt der Spiegel bang den Experten aus dem Potsdamer Institut für Klimafolgenforschung (PIK). „Den bekommen wir, wenn wir weitermachen wie bisher. Aber auch dann erst in einigen Hundert Jahren.“ 

Der Experte, Professor Levermann, wirkt ansonsten immer noch etwas mitgenommen durch die Lektüre von zwei Forschungsberichten im Mai 2014. Seitdem sei nämlich klar, dass sich die Westantarktis – laut Spiegel „der Ground Zero beim Meeresspiegelanstieg“ – „unwiderruflich“ destabilisiert habe, und der „Kipp-Punkt wahrscheinlich schon überschritten ist“. Was denn nun? Nur wahrscheinlich oder doch unwiderruflich? Egal. Auf jeden Fall muss man nicht habilitierter Physiker sein, um zu erkennen, dass hier solide, auf Messungen basierende Wissenschaft weitgehend ersetzt wird durch den tiefen Blick in die Kristallkugel.

Hochwasser scheint also das neue Leitsymptom des menschengemachten Klimawandels zu sein. Über die Temperaturentwicklung auf der Nord- und Südhemisphäre in den letzten zwanzig Jahren verliert man beim Spiegel jedenfalls kein Wort. Man darf wohl getrost bezweifeln, dass es sich dabei um ein stilles Eingeständnis der – um es pädagogisch einfühlsam zu formulieren – Abschwächung des globalen Temperaturanstiegs handelt. Wobei selbstverständlich niemand derzeit sicher weiß, wohin die Reise in den nächsten Jahrzehnten gehen wird, möglicherweise sogar nach unten. Aber selbst eine solche Entwicklung würde die Alarmisten vom PIK wohl nicht vom Glauben abfallen lassen.

Deutlich wird in dem Spiegel-Artikel auch das gemeinsame Geschäftsmodell von Medien und einschlägiger Wissenschaft: Gute Nachrichten sind tendenziell schlechte Nachrichten, denn je mehr Klimawandel, desto besser. Wenig Klimawandel entspricht bloß der uninteressanten Meldung Hund beißt Mann. Ein Anstieg des Meeresspiegels um einige Meter ist da natürlich eine ganz andere Nummer, vergleichbar fast mit: 2,4 Promille – Margot Käßmann beißt Rottweiler. Und ganz ähnlich ist es auch um die Interessenlage der stattlichen PIK-Besatzung auf dem zum Glück hochwassersicheren Telegraphenberg bestellt: Je katastrophaler die Prognosen zum Klimawandel, desto mehr Klimafolgen kann man mit noch mehr Geld und Personal beforschen und mit noch stärkerer politisch-medialer Resonanz beklagen. Der nächste logische Schritt wäre also der – wieder natürlich absolut zweifelsfreie – Nachweis, dass das finale Hochwasser doch rascher ins Haus steht als zunächst erwartet.

Hauptsache, es gibt großzügig bemessene Unterstützungsfonds

Angesichts dieses erneuten Hochwasser-Bedrohungsszenarios verwundert es doch ein wenig, dass der Spiegel die bereits 1986 von ihm so trefflich ins Bild gesetzte und bis heute leider nicht eingetroffene Prognose über die baldige Überschwemmung des Kölner Doms gänzlich unerwähnt lässt. Ganz abgesehen von solchem Pille-Palle wie den real existierenden Meeresspiegeln und Pegelständen, mit denen man sich offenbar angesichts der gerade heraufziehenden Großkatastrophe nicht ernsthaft beschäftigen muss. Lieber erzählt der Spiegel im Verbund mit anderen medialen Sturmgeschützen die x-te Untergangsversion irgendeiner weit entfernt ruhenden Insel. Dass weltweit kein substanzieller und vor allem kein sich beschleunigender Anstieg der Meeresspiegel dokumentiert ist, weder in Cuxhaven oder Norderney, noch in der Südsee oder im Golf von Bengalen, unterschlägt man. Eigentlich erstaunlich, denn die einschlägigen Daten sind leicht verfügbar. Aber offenbar müssen unsere Medienschaffenden nicht fürchten, von ihren Kollegen, der Wissenschaftsgemeinde, der Politik oder den Lesern wirksam an den Pranger gestellt oder wegen systematischer Verbreitung von fake-news schlicht rausgeschmissen zu werden.

Das muss wahrscheinlich aber der fürchten, der wahrheitsgemäß – wenn man ihn denn ließe – auf die tatsächlichen Probleme von angeblich durch den Klimawandel untergehenden Inseln verweisen würde: Schädigung der Korallenriffe durch Einsatz von Sprengstoff beim Fischen, übermäßiges Abtragen des Strandes zur Gewinnung von Baumaterial, Mangrovenabholzung, Überbevölkerung mit exzessiver Grundwasserentnahme, geänderte Strömungs- und Sedimentverhältnisse, Siedlungsdruck und nachlässiger Küstenschutz. Aber das würde alles so gar nicht zu den Bildern von den netten Fidschi-Insulanern passen, wie sie anlässlich der Bonner Klimakonferenz im letzten Jahr gesendet wurden. Dass die Insulaner vielleicht auch nur schlicht zu bequem sind, um nach ihren Umweltfreveln das Dorf in etwas günstigerer Lage neu aufzubauen, geschenkt. Hauptsache, es gibt großzügig bemessene Unterstützungsfonds. Um in deren Genuss zu kommen, nimmt der Südseeinsulaner dann sogar das im November doch etwas unwirtliche Bonner Klima – oder wie vergangene Woche sogar das in Kattowitz – in Kauf.

Wie kann es sein, dass die Medien, angeführt von den öffentlich-rechtlichen Anstalten, beim Thema Klimawandel eine Art Narrenfreiheit genießen? Den durchschlagenden Erfolg der schlichten Klima-Dichotomie – viel CO2 gleich Klimahölle, wenig CO2 gleich Ökoparadies – auf die fehlende naturwissenschaftliche Kompetenz der meisten Journalisten zurückführen zu wollen, ist sicherlich nicht ganz falsch, trifft aber mitnichten den Kern des Problems.

Der wesentliche Grund dürfte vielmehr ein in der Psychologie bei der Personenwahrnehmung seit langem bekannter systematischer Beobachtungs- und Beurteilungsfehler sein, der sogenannte Halo- oder Hof-Effekt: Um eine auffällige Eigenschaft bildet sich ein „Bedeutungshof“, wie beim Mond in dunstigen Nächten. Sie färbt das Urteil über andere Eigenschaften. Die auffällige Eigenschaft des Begriffs „menschengemachter Klimawandel“ ist seine Zugehörigkeit zur Political Correctness (PC), die ihn mit ihrem Bedeutungshof umgibt und so die Beurteilung positiv einfärbt. Der zuletzt als Professor für Meteorologie am MIT in den USA tätige Atmosphärenphysiker Richard S. Lindzen brachte es im Oktober 2018 folgendermaßen auf den (deutsch übersetzten) Begriff:

„Da haben wir’s. Eine unwahrscheinliche Annahme, gedeckt durch Falschaussagen und ständig wiederholt, ist zu politisch korrektem ‚Wissen‘ geworden und dient dazu, die industrielle Zivilisation umzustürzen.“

Der Geist scheint auf Autopilot zu laufen

Die Aufnahme eines Themas in den PC-Katechismus immunisiert es damit automatisch weitgehend gegen Kritik und schirmt es so gegen die Realität ab. Es wird von einer ursprünglich wissenschaftlichen Ebene auf die der Moral gehoben. Jetzt kämpfen die Protagonisten nicht mehr in erster Linie auf der Grundlage von empirisch begründeten Erkenntnissen um die Wahrheit, sondern die Guten müssen jetzt vorrangig die Bösen abwehren, also die gern als „Klimaleugner“ oder „Klimaskeptiker“ bezeichneten Klimarealisten oder Klimawandelrealisten. Die Reaktion auf Kritik, so man sie überhaupt zur Kenntnis nimmt, verläuft mehr und mehr ritualisiert. Hier ein aktuelles Beispiel.

Fehlende Plausibilität, innere Widersprüche, unpassende Messergebnisse, nicht eingetretene Prognosen und größenwahnsinnige Ziele – das Klima retten, die Temperatur der Erde begrenzen – werden im Kampf gegen das Böse gar nicht mehr als relevante Probleme wahrgenommen, der Geist scheint auf Autopilot zu laufen. Die im Falle des menschengemachten Klimawandels ganz außerordentliche Wirkmächtigkeit des Halo- bzw. PC-Effektes gründet sich dabei auf eine besondere moralische Überhöhung des Themas – als Frage von „Leben und Tod“, wie es UN-Generalsekretär António Guterres kürzlich ausdrückte. Mehr geht eigentlich nicht. Und schlussendlich profitieren die Hohepriester des „menschengemachten Klimawandels“ noch von einer ganz besonders charmanten Seite der PC-Ideologie: Abweichungen vom Pfad der (Klima)-Tugend werden nicht toleriert, sondern nach Möglichkeit sanktioniert. Dabei reicht der Strafkatalog von einer bloßen Verletzung der Wissenschafts-Etikette über Rufschädigung bis zum Verlust des Arbeitsplatzes.

Aufgrund der Moralisierung des Themas verwundert es auch nicht, dass die Wahl von Klimarealisten – etwa die Wahl Trumps zum US-Präsidenten oder der AfD in den Bundestag – nicht wirklich eine Debatte über das Thema initiiert hat. Vielmehr war das bloß Wasser auf die Mühlen der Alarmisten, denn Trump und AfD stehen ja für das politisch Böse schlechthin. Da heißt es für die Guten: Augen zu, fest unterhaken und keine Gefangenen machen. Und im argumentativen Notfall kann man immer noch verweisen auf die geschlossene Front von angeblich 97 Prozent der Klimaforscher, die die Ansichten der Klima-Alarmisten teilen würden. Abgesehen davon, dass Wissenschaft keine Demokratie-Veranstaltung ist – es genügt gegebenenfalls ein einziger Abweichler, so seine Ansichten sich als zutreffend erweisen – stellt sich auch hier die Wirklichkeit deutlich anders dar, wenngleich verschiedene Manifeste, Petitionen und Umfragen von den deutschen Medien konsequent ignoriert werden. Zudem sollte man Wissenschaftler, die ihre Forschungsanträge auch in einen Zusammenhang mit dem menschengemachten Klimawandel stellen, nicht vorschnell als Überzeugungstäter ansehen. Opportunismus gibt es überall. Und ganz besonders dort, wo die Fördertöpfe überquellen.

Den ökologischen Tugend-Terror zur Staatsräson erklären

Was mag ansonsten noch zum ganz außergewöhnlichen Siegeszug der Klima-Alarmisten während der vergangenen zwei bis drei Jahrzehnte beigetragen haben? Zum einen sicherlich die mit der „Klimarettung“ via massiver Finanztransfers in die Entwicklungs- und Schwellenländer verbundene Sühneleistung, welche wir als Teil der mit Hilfe von Kohlenstoff industrialisierten westlichen Welt zu leisten haben, basiert doch unser Wohlstand angeblich auf der Ausbeutung eben dieser armen Länder.

Dass dieses Motiv in Deutschland besonders hoch im Kurs steht, versteht sich angesichts unserer mittlerweile tief verankerten Empfänglichkeit für Schuld jeglicher Art von selbst. Zum anderen wäre da noch die sich dem links-grünen Milieu und ihren Eliten bietende günstige Gelegenheit, unter dem Damoklesschwert der drohenden Apokalypse endlich den ökologischen Tugend-Terror zur Staatsräson erklären zu können. Auf dem Nebengleis wird dabei gleichzeitig nach und nach der ungeliebte Nationalstaat zugunsten einer EU- und UN-geführten supranationalen Bürokraten-Herrschaft langsam geschleift.

Ohne die Säkularisierung wäre ein so dermaßen erfolgreiches Agieren der Klima-Alarmisten allerdings kaum vorstellbar. Weite Teile der westlichen Politik scheinen mittlerweile nicht mehr an den wissenschaftlichen Grundlagen des Klimawandels interessiert zu sein, sondern sehen die inszenierte Klimakatastrophe und den heldenhaften Kampf dagegen schlicht als Chance zur Sinnstiftung. Endlich wird das Glaubensvakuum gefüllt. Insofern charakterisiert der Ausdruck Klimakirche das uns nun schon seit vielen Jahren dargebotene Spektakel durchaus zutreffend. Gott hat endgültig ausgedient. Nun ist der Mensch vollständig in seine Fußstapfen getreten und  versucht sich auch beim Klima an der Schöpfung.

Den Apokalyptikern spielen, sozusagen eine Etage tiefer, aber noch weitere Faktoren in die Hände: ihre nahezu unbegrenzte Möglichkeit, bloße Wetterphänomene zu Symptomen des Klimawandels umzudefinieren – immer natürlich in Verbindung mit einprägsamen Bildern von Überschwemmungen und Zerstörungen –, oder auch die ganz reale Wärme und Dürre wie in unserem letzten Sommer. Hätte die Kirche ähnliche Möglichkeiten – zweimal im Jahr äußert sich nicht Bedford-Strohm, sondern der Herrgott persönlich, live und in Farbe und nebenbei jeweils noch locker ein Wunder vollbringend –, hätte die Aufklärung bis heute einen ausgesprochen schweren Stand.

Schließlich gelingt es den einschlägigen Wissenschaftsprotagonisten – mit vorneweg die Truppe vom Telegrafenberg –, die Gläubigen mit immer neuen Klimamodellen oder -projektionen zu ängstigen. Mit Hilfe des Computers und aufwendiger mathematischer Prozeduren nahezu jedes Szenario modellieren zu können, wirkt sich leider oft fatal aus. Denn dadurch werden bei den Forschern Hybris und Größenphantasien geweckt. Man vermittelt zudem den Eindruck, als sei ein dermaßen komplexes System wie das Klima bereits in allen Facetten vollkommen entschlüsselt und „vergisst“ darüber, dass bei den Prognosen in letzter Instanz hinten das herauskommt, was man vorne und unterwegs hineingesteckt hat.

Dabei ist gerade das vorausschauende, planerische Denken in komplexen, vernetzten  Situationen keine Stärke des menschlichen Verstandes. Klassische (einfache) Beispiele dafür sind etwa die Prognosen des Automobilbestandes in der Bundesrepublik oder die anfänglichen Vorhersagen zur Ausbreitung der AIDS-Infektion. Auch wegen dieser menschlichen Schwäche ist die Geschichte der Klimaprognosen und der Vorhersagen zu anderen, vergleichsweise übersichtlichen Umweltbedrohungen ganz überwiegend eine Geschichte des Scheiterns – und das so gut wie immer in eine Richtung. Ein bisschen Demut täte folglich allen Beteiligten und besonders den Wissenschaftlern ausgesprochen gut.

Bereits hunderte Milliarden versenkt

Aber davon keine Spur, sondern nur vom bloßen Gegenteil. Der Klimakatastrophen- und Klimarettungszug rast von einer internationalen Konferenz zur anderen, wobei in Deutschland kein Verantwortungsträger erkennbar ist, der wenigstens nach der Bremse sucht. Und wenn sich die Fahrt doch etwas verlangsamt, dann unfreiwillig, etwa weil es Deutschland – trotz zweifellos reichlich vorhandenen guten Willens – nicht schafft, seine Emissionszusagen einzuhalten. Nicht mal das kriegen sie hin. Scheinen aber tatsächlich zu glauben, dass der über den Entwicklungs- und Schwellenländern niedergegangene und noch niedergehende Geldregen zielgerichtet und effektiv zum „Klimaschutz“ eingesetzt wird.

Wer von Politikern erwartet, dass sie einen Fehler zugeben, kann lange warten. Das gilt umso mehr, wenn es sich um eine jahrelange Kette von Irrtümern handelt und wenn deretwegen bereits hunderte Milliarden versenkt worden sind. Außerdem gibt es eine stetig wachsende, mittlerweile ausgesprochen stattliche Klimakatastrophen-Lobby, zu der neben den einschlägigen EU-, UN- und Forschungs-Einrichtungen mittlerweile ja auch große Teile des Energiesektors und inzwischen auch der Mobilitätsindustrie sowie Unternehmen zählen, denen primär an einem positiven „Klima-Image“ gelegen ist oder die, wie Versicherungen, die günstige Gelegenheit zur Prämienerhöhung nutzen. Nicht fehlen in dieser Auflistung dürfen natürlich auch einschlägige Ministerialabteilungen auf Bundes-, Länder- und kommunaler Ebene sowie Bundesbehörden wie das Umweltbundesamt (UBA), samt dem typischen Speckgürtel von zuarbeitenden NGOs, Agenturen, Instituten, Initiativen und Individuen.

Von der kritischen Öffentlichkeit vielleicht noch gar nicht recht registriert sind Umfang und Zielrichtung, mit denen das Thema Klimakatastrophe sich mittlerweile auch in Medizin und Sozialwissenschaften ausgebreitet hat. Beispielsweise fand vor einem Jahr unter der Ägide des Deutschen Wetterdienstes (DWD) beziehungsweise seiner meteorologischen Fortbildungszeitschrift promet eine von fünf „Partnern“ gesponserte Konferenz im schönen Salzburg unter dem Titel Klimakommunikation statt. Liest man in dem noch hinter einer Bezahlschranke verborgenen Heft 101 die dort gehaltenen Vorträge, drängt sich der Eindruck auf, dass man hier offenbar an einer Wiederbelebung der operativen Psychologie arbeitet, die bis zum Untergang der DDR an der Juristischen Hochschule des Ministeriums für Staatssicherheit beheimatet war. Dabei ging es weniger um die Erarbeitung neuer psychologischer Erkenntnisse als vielmehr darum, Basiswissen gezielt zur Stabilisierung von Mitarbeitern einerseits und Zersetzung von politischen Gegnern andererseits zu nutzen.

Typische Themen der Salzburger Tagung waren etwa „Desinformation zum Klimawandel – und was man dagegen tun kann“ oder – als „sinnvolle Erziehungsmaßnahme“ bezeichnet – „Wie Wettermoderatoren das Klima ins Wohnzimmer bringen können“. Höhepunkt dürfte allerdings ein von der Geschäftsführerin des Deutschen Klima-Konsortiums (DKK) inszeniertes Planspiel gewesen sein: Wie man es schafft, Verbote – in diesem Fall „die Kontingentierung von Flügen auf einen Flug pro Jahr“ – für die Betroffenen „attraktiv“ zu machen. Wie kräftig der oben genannte Speckgürtel bereits geworden sein muss, veranschaulicht auch ein etwas abseitiger Zwischenbericht“ aus dem UBA: „Gendergerechtigkeit als Beitrag zu einer erfolgreichen Klimapolitik“.

Später wird man sich wahrscheinlich fragen, wie es dazu kommen konnte, dass durch sogenannte Klimaschutzmaßnahmen ein Land ruiniert wurde, allein auf der Grundlage einer milden Erwärmung über etwa zwei Jahrzehnte am Ende des vergangenen Jahrhunderts, die nicht den Rahmen der beiden letzten warmen Phasen zur Römerzeit und im Mittelalter sprengte – ganz zu schweigen von den länger zurückliegenden Warmphasen –, die sich trotz weiter ansteigender CO2-Emissionen mittlerweile abgeschwächt und deren zentraler Antrieb, eine vermeintlich starke CO2-Klimasensitivität, sich als zunehmend unwahrscheinlich erwiesen hat. Tja, wird man vielleicht später sagen, wenn die Klima-Hysterie damals der einzige Polit-Irrsinn gewesen wäre, dann hätten sie vielleicht noch die Kurve kriegen können.

Der Beitrag erschien zuerst bei ACHGUT hier




Computer-Klimasi­mulationen sind gerade kollabiert

Computer-Klimasimulationen prophezeien, dass eine vom Menschen verursachte globale Erwärmung dazu führen wird, dass sich die Troposphäre über den Tropen viel rascher erwärmen wird als die Oberfläche. Dazu gab es eine Reihe wissenschaftlicher Studien, in denen es darum ging, ob diese Prophezeiung in der Praxis zu beobachten ist. In einem kürzlich geposteten Beitrag beschreibt McKitrick die Hintergründe, einschließlich der Versuche eines Mainstream-Wissenschaftlers, Daten zurückzuhalten, und die nachfolgende Enthüllung, dass dieser Wissenschaftler die Daten auf eine Art und Weise bearbeitet hatte, dass man daraus fundamental andere Folgerungen ableiten musste. McKitrick umriss außerdem eine Reihe nachfolgender Studien, die zu dem Schluss gekommen waren, dass die troposphärische Erwärmung in der realen Welt viel geringer als prophezeit ausgefallen ist:

Egal ob wir die Größenordnungen atmosphärischer Trends testen oder das Verhältnis zwischen Trends in der Troposphäre und an der Oberfläche, über alle Arten von Datensätzen und über alle Trend-Intervalle – es zeigte sich, dass die Modelle die Verstärkungs- und die Erwärmungsrate erheblich übertrieben haben, sowohl global als auch in den Tropen.

Es sieht also nicht gut aus für die Modelle. Der nächste logische Schritt ist zu überlegen, was dies für das größere Bild bedeutet, und hier setzt die neue Studie an. McKitrick verweist darauf, falls Klima-Simulatoren die Regenmenge im Amazonas-Gebiet falsch berechnen, ist das vielleicht noch nicht das Ende der Geschichte – jener Teil des Modells kann adjustiert werden. Aber er und Christy zeigen, dass das, was die Modelle hinsichtlich der tropischen Troposphäre simulieren, im Wesentlichen eine Diagnose ihrer Struktur ist. Fast alle Klimamodelle prophezeien übereinstimmend, dass sie sich rapide erwärmen wird und dass nur Treibhausgase der Grund für eine solche Erwärmung sein können.

Mit anderen Worten, wenn die Modelle das nicht hinbekommen, läuft etwas fundamental falsch.

Darum ist es so wichtig, dass die Autoren in ihrer Studie folgern:

Vergleicht man modellierte mit beobachteten Trends während der letzten 60 Jahre … zeigt sich, dass alle Modelle die Erwärmung viel schneller simulieren als tatsächlich beobachtet und dass diese Diskrepanz in der Mehrzahl der individuellen Fälle statistisch signifikant ist. Wir folgern, dass dies informative Beweise gegen die grundlegende Hypothese in den meisten der gegenwärtigen Klimamodelle sind.

Link: https://www.thegwpf.com/computer-simulations-just-crashed/

Übersetzt von Chris Frey EIKE




Zirkelschlüsse der Klimamodelle

Das Ergebnis ist, dass Menschen die Ursache der globalen Erwärmung sind und Klimawandel die eingehende Hypothese ist. Dies ist ein Zirkelschluss in Reinformat, nämlich dass man folgert, was man zuerst vermutet.

Diesen Kreisschluss kann man deutlich in dem erkennen, was Viele als den maßgeblichsten wissenschaftlichen Report bzgl. Klimawandel ansehen, obwohl er in Wirklichkeit der populärste Alarmisten-Report ist. Wir reden von der Summary for Policymakers des jüngsten IPCC-Berichtes AR 5. Diese 29 Seiten starke Summary steht hier.

Die „rauchende Kanone“ des Zirkelschlusses liegt in nur zwei Abbildungen, nämlich den Abbildungen 5 und 6.

[Anmerkung: Ich habe diese beiden Graphiken hier aus dem verlinkten PDF eingefügt, was im Original nicht der Fall ist. Sie scheinen recht undeutlich, vor allem die Bildinschrift. Man klicke das Original an, wenn man es näher wissen will. – Anmerkung des Übersetzers]

Abbildung 5 im PDF

Man betrachte zunächst Abbildung 5 auf Seite 14. Sie ist ein wenig technisch, aber wie es in der ersten Zeile der Bildinschrift heißt, sind dies die „Haupttreiber des Klimawandels“ (dem IPCC zufolge, heißt das). Es sind nur 11 dieser Haupttreiber gelistet, ein jeder mit einem farbigen horizontalen Balken, wobei Einige in mehrere Komponenten unterteilt sind.

Die Länge jedes Balkens repräsentiert den best guess des IPCC, wie stark sich jeder Treiber seit 1750 (und bis 2011) ausgewirkt hat, was sie „Antrieb“ [forcing] nennen. Folglich muss jeder der beobachteten Klimawandel während dieses 261 Jahre langen Zeitraumes diesen Treibern geschuldet sein, und genau das ist es, was die Modelle annehmen.

Tatsächlich wird von den Modellierern verlangt, dies anzunehmen, falls sie ihre Ergebnisse in die IPCC-Abschätzung eingehen lassen wollen. Etwa 100 große Klimamodelle werden für diese Modellierung herangezogen – in einer gewaltigen koordinierten Bemühung, welche mehrere Jahre dauert. Diese Bemühung wird koordiniert durch das US-Energieministerium.

Die rauchende Kanone beginnt mit der Tatsache, dass 10 dieser 11 Treiber auf menschliche Ursachen zurückgehen. Der einzige natürliche Treiber sind Änderungen der solaren Einstrahlung („irradiance“ genannt), doch ist dieser Balken so klein, dass er im Grunde gar nicht zählt. Tatsächlich kann man ihn in der Abbildung kaum erkennen.

In allen Fällen nimmt das IPCC der Einfachheit halber an, dass alle Treiber des Klimawandels anthropogen verursacht sind. In der wissenschaftlichen Literatur werden noch viele andere Treiber behandelt, die aber einfach ignoriert werden, hier und in den Modellen.

Falls alle Treiber des Klimawandels wirklich anthropogenen Ursprungs sind, dann müssen alle beobachteten Änderungen offensichtlich auch anthropogen verursacht sein.Und genau das erkennt man in Abbildung 6 auf Seite 18:

Abbildung 6 im PDF

Diese Abbildung zeigt 16 separate kleine Bildchen. Jedes davon zeigt dreierlei:

1) Einen beobachteten Klimawandel

2) Das Aussehen des Modelloutputs ohne menschliches forcing

3) Das Aussehen des Modelloutputs mit menschlichem forcing.

Angesichts des Umstandes, dass der einzige erlaubte Antrieb anthropogener Natur ist, ist es keine Überraschung, dass der Modelloutput nur dann zu den Beobachtungen passt, wenn der menschliche Antrieb mit einbezogen wird. Wie kann es anders sein? Die 18 Modelloutputs ohne anthropogenen Antrieb ändern sich nicht. Aber das können sie ja auch nicht, weil keine natürlichen Antriebe zugelassen sind.

Aber anstatt zu erkennen, dass dieses Ergebnis einfach aus den eingehenden Hypothesen folgt, behauptet das IPCC erstaunlicherweise, dass damit bewiesen wird, dass Menschen die einzige Ursache für Klimawandel sind. Dabei wird nichts dergleichen bewiesen, und der Zirkelschluss schließt sich damit.

Die Simplizität dieses Trugschlusses ist atemberaubend. Falls man annimmt, dass nur Menschen einen Klimawandel verursachen können, dann folgt daraus natürlich, dass alle Klimawandel von Menschen verursacht sind. Aber dies gilt nur für die Hypothese, nicht für die Wissenschaft. Die Argumentation verläuft perfekt im Kreis.

Eine legitime wissenschaftliche Abschätzung würde die vielen anderen Treiber mit berücksichtigen, welche gegenwärtig betrachtet werden. Eine legitime wissenschaftliche Modellierung würde diese Treiber erklären, um zu sehen, welchen Beitrag sie zu den beobachteten Klimawandeln leisten.

Unglücklicherweise ist weder das IPCC noch die extensive und kostspielige Modellierung, welche zu Stützung vorgenommen wird, legitim. Dass das US-Energieministerium im Zentrum all dieser politisierten Nicht-Wissenschaft liegt, ist besonders verwerflich und bedarf dringend einer Änderung.

So wie es jetzt ist, ist diese gesamte Modellierung einfach nur Müll, weil eine falsche Antwort als Hypothese eingeht. Es gibt so etwas wie Wissenschaft durch Vermutung nicht. Falls die Modelle nicht der Wissenschaft folgen, sollte man sie gar nicht erst laufen lassen.

Link: http://www.cfact.org/2018/03/01/circular-reasoning-with-climate-models/

Übersetzt von Chris Frey EIKE