1

Wie viel globale Erwärmung sollte der nächste IPCC-Report prophezeien?

Wie Monckton von Brenchley et al. (2015) in einer Studie für die Chinesische Akademie der Wissenschaften im Jahr 2015 betonten, braucht man kein komplexes, milliardenschweres Computermodell, das bei jedem Einschalten den Stromverbrauch einer Kleinstadt verschlingt und ein Dutzend Eisbären umfallen lässt, falls man nur die ECS berechnen will. ECS ist ein nützlicher Standardmaßstab, weil der verdoppelte CO2-Antrieb ungefähr dem gesamten anthropogenen Antrieb entspricht, den wir in diesem Jahrhundert bei einem Business-as-usual-Szenario erwarten könnten. Diese Studie wurde übrigens von der Website der Zeitschrift der Chinesischen Akademie häufiger heruntergeladen als jedes andere in ihrer 60-jährigen Geschichte, und zwar um eine ganze Größenordnung.

Hier ist ein praktischer ECS-Rechner zum Selbermachen, der auf den neuesten Daten basiert:

Das IPCC (1990) hatte eine mittelfristige anthropogene Erwärmung von 0,34 K pro Dekade simuliert. In der Realität jedoch beträgt der Least-Squares-Trend über die 30 Jahre 1991-2020 der mittleren Anomalien in zwei monatlichen Temperaturdatensätzen für die Oberfläche (GISS und HadCRUT) und zwei für die untere Troposphäre (RSS und UAH) 0,2 K pro Dekade, wovon 70 % (Wu et al. 2019), also 0,14 K, auf uns zurückzuführen sind.

Daher hat sich die ursprüngliche mittelfristige Erwärmung der unteren Atmosphäre des IPCC als 2,4-fach überbewertet erwiesen. John Christy (2021) hat kürzlich in einem faszinierenden Online-Vortrag gezeigt (Abb. 1), dass die CMIP6-Modelle die mittelfristige Erwärmung der mittleren Troposphäre ebenfalls um das 2,4-fache überbewertet haben:

Abb. 1: Die 2,4-fache Übertreibung der mittleren Erwärmung der mittleren Troposphäre in den CMIP6-Modellen.

Man kann eine erste grobe Schätzung der mittleren ECS erhalten, indem man die mittlere CMIP6 ECS-Vorhersage von 3,7 K (Meehl et al. 2020) nimmt und durch 2,4 dividiert. Antwort: 1,5 K: nicht genug, um sich Sorgen zu machen.

Um ECS ΔE2 genauer abzuleiten, indem man die Ideen der Studie von der Chinese Academy weiter entwickelt, braucht man nur sieben leicht zugängliche und vernünftig eingeschränkte mittlere Parameter aus dem Mainstream:

1: Der Planck-Sensitivitätsparameter P ist die erste Ableitung der Stefan-Boltzmann-Gleichung: d.h. das Verhältnis der Oberflächentemperatur zum 4-fachen der Albedo-angepassten einfallenden Strahlungsflussdichte über der Atmosphäre (Schlesinger 1988). Somit ist P= 288 / (4 x 241), oder 0,3 K/Wm². Dieser unumstrittene Wert variiert mit der Oberflächentemperatur: aber von 1850 bis zur Verdoppelung des CO2 im Vergleich zur heutigen Temperatur ist er nahe genug an 0,3 und macht damit keinen wesentlichen Unterschied.

2: Der Verdopplungs-CO2-Strahlungsantrieb ΔQ2 wurde in Andrews (2012) mit 3,45 W/m² angegeben, dem Mittelwert von 15 CMIP5-Modellen. Für CMIP6 geben Zelinka et al. (2020) 3,52 W/m² an. Da wir die neuesten Mainstream-Daten verwenden, ziehen wir Letzteren heran.

3: Der exponentielle Wachstumsfaktor H pro Rückkopplungs-Einheit mit der Referenzsensitivität wird hier vorsichtshalber mit dem Wert von 1,07 pro K gleichgesetzt, der in Wentz (2007) als Clausius-Clapeyron-Zunahme der spezifischen Feuchtigkeit bei Erwärmung angegeben wird. Auch diese Größe variiert mit der Temperatur, kann aber über das hier relevante enge Temperaturintervall sicher als konstant angenommen werden. In der Realität wird das exponentielle Wachstum der spezifischen Luftfeuchtigkeit durch die logarithmische Temperaturreaktion auf dieses Wachstum ausgeglichen, und das IPCC (2013) schätzt, dass im mittleren Bereich alle anderen Rückkopplungen sich selbst aufheben. In der Realität gibt es wahrscheinlich nur ein geringes oder gar kein Wachstum der Einheitsrückkopplung unter den heutigen Bedingungen. Doch selbst falls man H = 1,2 annehmen würde, was deutlich über der Realität liegt, würde sich ECS kaum ändern.

4: Der anthropogene Antrieb ΔQ1 von 1850-2020 betrug 2,9 W/m², die Summe des 3,2 W/m² akkumulierten Treibhausgasantriebs und der 0,4 W/m² Ozon-, -0,8 W/m² Aerosol- und 0,1 W/m² Black-Carbon-Antriebe (NOAA AGGI; Gaudel+ 2020; Dittus+ 2020; IPCC 2001, S. 351).

5: Der anthropogene Anteil M der Erwärmung und des Strahlungsungleichgewichts von 1850-2020 betrug 0,7 (Wu et al., 2019; Scafetta 2021). Die Arbeit von Wu hat Gerald Meehl als Co-Autor.

6: Die vorübergehende Erwärmung T1 von 1850-2020 betrug 1,07 K (HadCRUT5: Morice et al. 2020). Basierend auf Wu et al. waren nur 70% davon, also 0,75 K, anthropogen bedingt.

7: Das Energieungleichgewicht ΔN1 der Erde von 1850-2020 berücksichtigt die Verzögerung des Einsetzens der Erwärmung nach einem Forcing. Schuckmann et al. (2020) geben die aktuelle Mainstream-Mittelwertschätzung 0,87 W/m².

Abb. 2: Die sieben Größen für die ECS-Gleichung

Mit diesen sieben Größen (Abb. 2), alle im mittleren Bereich, alle aktuell, alle aus klimatologischen Mainstream-Quellen, kann man nicht nur eine verlässliche mittlere Schätzung des beobachteten ECS direkt ableiten, ohne auf überkomplexe, unzureichend falsifizierbare und fehleranfällige Computermodelle zurückgreifen zu müssen, sondern auch die Vertretbarkeit des derzeit projizierten ECS-Intervalls 3,7 [2,0, 5,7] K (mittlerer Bereich Meehl et al., 2020; Grenzen Sherwood et al., 2020) falsifizieren. Die Berechnungen sind in Abb. 3 dargestellt. Diese einfache Tabelle bedeutet den Untergang für die Profiteure des Untergangs.

Abb. 3. ECS einfach gemacht. Die sieben Eingangsgrößen sind in grün dargestellt.

Wie es funktioniert: Seit 1850 haben wir nun angeblich 170 Jahre lang das Klima beeinflusst. Davor war unser Einfluss vernachlässigbar. Aus den sieben Größen in Abb. 2 lässt sich eine entscheidende Größe ableiten – die Einheitsrückkopplungs-Reaktion, die zusätzliche Erwärmung durch Rückkopplung pro Grad Referenzsensitivität. Damit lässt sich diese Reaktion für den Zeitraum von jetzt bis zur CO2-Verdoppelung mit Hilfe des Exponentialwachstumsfaktors H finden, woraus sich ECS ΔR1 ableiten lässt.

1850-2020: Die Periodeneinheit der Rückkopplungsreaktion U1 ist 1 kleiner als das Verhältnis der Gleichgewichtssensitivität ΔE1 zur Referenzsensitivität ΔR1: d. h. 1 kleiner als das Verhältnis der Periodenerwärmung einschließlich Rückkopplungsreaktion zur Periodenerwärmung ohne Rückkopplungsreaktion).

Die Perioden-Referenzsensitivität ΔR1, die direkte Erwärmung vor Hinzurechnung der Rückkopplung, beträgt 0,865 K, das Produkt aus dem Planck-Parameter 0,3 K W-1 m2 und dem anthropogenen Perioden-Antrieb ΔQ1 von 2,9 W/m².

Die Perioden-Gleichgewichts-Sensitivität ΔE1, die eventuelle Erwärmung, nachdem alle kurzzeitigen Rückkopplungen gewirkt haben und sich das Klima wieder im Gleichgewicht befindet, ist etwas komplizierter. Sie ist das Produkt aus zwei Ausdrücken: dem anthropogenen Anteil M ΔT1 der beobachteten vorübergehenden Erwärmung ΔT1 und dem Energie-Gleichgewichts-Verhältnis.

Das Energie-Ungleichgewichts-Verhältnis ist der periodische anthropogene Antrieb ΔQ1 geteilt durch die Differenz zwischen ΔQ1 und dem anthropogenen Anteil M ΔN1 des periodischen Energie-Ungleichgewichts der Erde ΔN1. Im Gleichgewicht gäbe es kein Energieungleichgewicht: der Divisor und der Dividend wären beide gleich ΔQ1. In diesem Fall wäre ΔE1 gleich M ΔT1. Besteht jedoch (wie derzeit) ein Energieungleichgewicht, wird es auch ohne weiteren Strahlungsantrieb nach 2020 zu einer weiteren Erwärmung kommen, so dass ΔE1 das Produkt aus M ΔT1 und dem Energieungleichgewichtsverhältnis ist: also 0,975 K.

Die Einheits-Rückkopplungs-Reaktion U1, die Rückkopplungs-Reaktion pro Grad der Perioden-Referenzempfindlichkeit, ist 1 kleiner als der Systemverstärkungsfaktor ΔE1 / ΔR1. Er beträgt nur 0,127. Vergleichen Sie diesen einfachen, aus Beobachtungen abgeleiteten Mittelwert mit dem Wert von 3,0, der in der folgenden Passage aus Lacis et al. (2010) impliziert ist, die die fehlerhafte offizielle Position zusammenfasst:

Nicht-kondensierende Treibhausgase, die 25 % des gesamten terrestrischen Treibhauseffekts ausmachen, … sorgen für die stabile Temperaturstruktur, die die gegenwärtigen Niveaus des atmosphärischen Wasserdampfs und der Wolken über Rückkopplungsprozesse aufrechterhält, die die restlichen 75 % des Treibhauseffekts ausmachen“ (Lacis et al., 2010).

2020 auf verdoppeltes CO2:  Wie bei 1850-2020, so bei verdoppelter CO2-Konzentration im Vergleich zu den 415 ppmv im Jahr 2020, beginnen Sie mit der Periode die Referenzsensitivität ΔR2, die direkte Erwärmung vor der Addition jeglicher Rückkopplung. ΔR2 ist 1,054 K. Es ist das Produkt aus dem 0,3 K/Wm² (Planck-Parameter) und den 3,52 W/m² anthropogenen Periodenantrieb ΔQ2.

Als nächstes wird die Rückkopplung berücksichtigt, um ECS ΔE2 zu erhalten. Die Methode besteht darin, die Rückkopplungsreaktion U1 der Einheit 1850-2020 entsprechend dem Exponential-Wachstumsfaktor H zu erhöhen.

Das Einheits-Rückkopplungsverhältnis X ist gleich exp(P ΔQ2 ln H), d. h. exp(ΔR2 ln H), oder, einfacher, aber für Mathematik-Puristen anstößig, HΔR2, was 1,074 ist.

Die Einheitsrückkopplung U2 ist das Produkt aus U1 und X, d. h. 1,136.

ECS ΔE2 ist das Produkt aus der Referenzsensitivität ΔE2 auf verdoppeltes CO2 und dem Systemverstärkungsfaktor U2 + 1, d. h. 1,2 K. Nicht 3,7 K (CMIP6: Meehl et al. 2020). Nicht 3,9 K (CMIP6: Zelinka et al. 2020). Nur 1,2 K mittlere anthropogene globale Erwärmung als Reaktion auf verdoppeltes CO2, oder auf alle anthropogenen Antriebe über das gesamte 21. Jahrhundert. Kein großer „Klimanotstand“ also, oder?

Falsifizierung von ECS-Vorhersagen über das Rückkopplungsverhältnis X: Mit dem Wissen, dass die aus Beobachtungen abgeleitete Einheits-Rückkopplungs-Reaktion U1 für 1850-2020 0,127 betrug, ist es möglich, den Wert von XP abzuleiten, der in jeder ECS-Vorhersage ΔE2P impliziert ist: XP = (XP / ΔR2 – 1). Zum Beispiel impliziert der von Meehl et al. (2020) und Sherwood et al. (2020) vorhergesagte ECS von 3,7 [2,0, 5,7] K impliziert XP auf 20 [7, 35]. Selbst die untere Grenze X = 7 würde unhaltbar suggerieren, dass die Rückkopplungsreaktion pro Grad direkter Erwärmung nach 2020 das absurde Siebenfache der Rückkopplungsreaktion pro Grad vor 2020 beträgt. Der in mehreren extremen Arbeiten vorhergesagte High-End-ECS von 10 K ist noch unmöglicher und impliziert X = 67.

Die Unsicherheiten sind gering, da sich die Klimatologie inzwischen auf die Werte der sieben Schlüsselparameter geeinigt hat, die für die Ermittlung des ECS ausreichen. Würde man die 40 Jahre der etwas schnelleren Erwärmung von 1980-2020 als Berechnungsgrundlage nehmen, statt 1850-2020, würde der mittlere ECS auf nur 1,4 K steigen. Selbst falls die gesamte Erwärmung der Industriezeit anthropogen wäre, würde der ECS nur 2 K betragen, aber es wäre nicht mehr der mittlere ECS auf der Basis der aktuellen Mainstream-Daten.

Was sie falsch verstanden haben: Wie haben sich die Klimawissenschaftler dann jemals vorstellen können, dass die globale Erwärmung etwa dreimal so hoch sein würde, wie es die realen Beobachtungen, die sich in ihren neuesten Midrange-Daten widerspiegeln, einen unvoreingenommenen Untersucher erwarten lassen würden?

Klimamodelle verkörpern den Feedback-Formalismus nicht direkt. Ihre ECS-Vorhersagen spiegeln jedoch den Fehler wider, indem sie eine 2,4-mal höhere mittelfristige, anthropogene Erwärmung zeigen als während der letzten 30 Jahre beobachtet, und sie prophezeien das Dreifache der realistischen mittelfristigen ECS.

Im Jahr 2006, in Vorbereitung auf meinen ersten Artikel über die globale Erwärmung, schrieb ich an den verstorbenen Sir John Houghton, damals Vorsitzender der wissenschaftlichen Arbeitsgruppe des IPCC, um zu fragen, warum man dachte, dass die eventuelle globale Erwärmung etwa das Dreifache der direkten Erwärmung betragen würde. Er antwortete, dass der natürliche Treibhauseffekt – die Differenz zwischen der 255 K Emissions-Temperatur ohne Treibhausgase und der 287 K gemessenen Temperatur im Jahr 1850 – 8 K Referenzsensitivität auf Treibhausgase und 24 K Rückkopplungsreaktion darauf umfasste.

Es war diese Erwartung von 3 K Rückkopplung auf jeweils 1 K direkte Erwärmung, also insgesamt 4 K Erwärmung, die die Modellierer dazu brachte, 3 oder 4 K ECS im mittleren Bereich zu erwarten.

Die Klimatologen hatten vergessen, dass die Sonne scheint (Abb. 4). Was sie übersehen hatten, als sie Mitte der 1980er Jahre die Rückkopplungsformel aus der Regelungstheorie entlehnten war, dass die 24 K vorindustrielle Rückkopplungs-Reaktion nicht nur eine Antwort auf die 8 K direkte Erwärmung durch Treibhausgase war. Ein großer Teil dieser 24 K war eine Reaktion auf die 255 K Emissionstemperatur, die sich auf der Erde auch ohne Treibhausgase eingestellt hätte.

Abb. 4. Wie die Klimaforscher vergaßen, dass die Sonne scheint.

In Wirklichkeit war die vorindustrielle Referenztemperatur die Summe der 255-K-Emissionstemperatur und der 8-K-Referenzsensitivität für vorindustrielle Treibhausgase: also irgendwo in der Gegend von 263 K. Da die 255-K-Emissionstemperatur das 32-fache der 8-K-Referenzsensitivität für Treibhausgase ist, war ein erheblicher Teil der gesamten vorindustriellen Rückkopplungsreaktion von 24 K auf die erstere zurückzuführen, was den Anteil der letzteren entsprechend reduzierte.

Rückkopplung ist eine allgemein gültige Eigenschaft dynamischer Systeme (Systeme, die ihren Zustand mit der Zeit ändern), von elektronischen Schaltkreisen bis zum Klima. Falls und nur falls die gesamte vorindustrielle Referenztemperatur 8 K betrug und es überhaupt keine Rückkopplungsreaktion auf die Emissionstemperatur gab, wäre es zulässig, sich vorzustellen, dass die Rückkopplungsreaktion der Einheit so groß wie 3 war. Selbst dann würde nicht automatisch folgen, dass die Rückkopplungsreaktion der Einheit heute auch nur annähernd so groß wie 3 sein könnte.

Das IPCC wiederholte den Fehler in seinem Fünften Sachstandsbericht von 2013 (AR 5) und wird ihn in seinem bevorstehenden Sechsten Sachstandsbericht (AR 6) erneut begehen. Man definiert „Klima-Rückkopplung“ als Reaktion nur auf Störungen (fünfmal in der Definition erwähnt), schweigt aber über die weitaus größere Rückkopplungsreaktion auf die Emissionstemperatur selbst. Sie sollte ihre mehrtausendseitigen Berichte durch die einzige Monstergleichung (Abb. 5) ersetzen, die die schrittweisen Berechnungen in Abb. 3 zusammenfasst:

Abb. 5: Die Monster-ECS-Gleichung: einfacher, billiger, smarter als jedes Giganten-Klimamodell

Wären Sie bereit, Ihren Namen unter einen Bericht an das IPCC zu setzen, unter dessen Fehlerprotokoll, und es darüber zu informieren, dass ECS grob überbewertet wurde und um Korrektur bitten? Falls ja, kontaktieren Sie mich über das erste Wort meines Nachnamens [at] mail [dot] com und lassen Sie es mich wissen. Denn die neuesten Mainstream-Mitteldaten, auf die sich das IPCC zwangsläufig stützen muss, schließen die schnelle, gefährliche Erwärmung aus, die es so lange, so zuversichtlich, so gewinnbringend, aber so fehlgeleitet vorhergesagt hat.

Link: https://wattsupwiththat.com/2021/02/01/how-much-global-warming-should-ipccs-next-report-predict/

Übersetzt von Chris Frey EIKE

Anmerkungen des Übersetzers hierzu: Auch mit diesem Beitrag zeigt sich, dass Lord Monckton von einer Erwärmungswirkung durch CO2 aujsgeht – wenn gleich auch viel geringer als vom IPCC prophezeit. Nun mehren sich die Zweifel an einer solchen Wirkung immer mehr, was heißt, dass auch Lord Monckton irgendwo einem Trugschluss unterliegen muss. Vielleicht kann ein versierter Kommentator dazu etwas sagen?

 




Abschätzung der CO2-Klimasensivität auf Basis des GLOBAL TEMPERATURE REPORTS (GTR)

Abb 1: Links: Zollstock und digitaler Mess-Schieber. Unterschied der Genauigkeit Rechts: Bearbeitung einer Welle an einer Drehbank. Quelle: Jeweils Pixabay

Zur Verdeutlichung dieser Diskrepanz ein Vergleich aus einem Bereich der Technik, der leicht verständlich ist. Um die Kupfer-Welle (Abb.1, rechts) auf der Drehbank exakt zu messen bzw. zu bearbeiten, benötigt der Arbeiter einen Mess-Schieber. Ein Zollstock ist für ihn unbrauchbar. Genau diesen Widerspruch sehen wir jedoch in der Welt der Klimaforscher. Sie verwenden sprichwörtlich den Zollstock, um die Bauteile einer hoch präzisen Maschine zu fertigen. Die ungenauen Temperatur-Daten dienen als Basis für die komplizierten Simulationen auf Groß-Computern. Zu allem Überfluss postulieren die Klimaforscher ihre Methodik als die einzig gültige Wahrheit (IPCC). Welch eine unglaubliche Farce. Der Autor hat Erfahrung im Bereich „Computational Chemistry“, ein Hilfsmittel zur theoretischen Voraussage bzw. Bestätigung von Eigenschaften unterschiedlichster Moleküle, z. B. die 3D-Struktur, Reaktivität oder innere Beweglichkeit. Bei den Anwendern von Computer-Simulationen gibt es den geflügelten Satz für eine Ausgangs-Basis mit schlechten Anfangsdaten: „Shit in, shit out.

  1. GLOBAL TEMPERATURE REPORT (GTR)

Der GLOBAL TEMPERATURE REPORT [2] zeigt in monatlicher Abfolge die berechnete globale Temperatur der unteren Atmosphäre (s. Abb.2). Verantwortlicher Wissenschaftler hinter diesen Daten ist der bekannte Klimatologe Dr. John R. Christy von der University of Alabama in Huntsville. Seit 2013 werden satelliten-basierende Temperatur-Messungen zusammengeführt, verarbeitet und auf der Homepage veröffentlicht. Christy hat zusätzlich die ab 1979 verfügbaren Satelliten-Messungen nachträglich verarbeitet. Ergebnis ist ein Säulen-Diagramm (Abb.2) mit den monatlichen Temperatur Abweichungen zur Referenz-Linie (0-Linie). Diese wird als Durchschnitts-Temperatur von 1981 bis 2010 3 errechnet. Zusätzlich wird auch eine Karten-Darstellung der Erde mit farblich gekennzeichneten Bereichen zur Verfügung gestellt. Auch für den November 2020 schön zu erkennen, die leichte Erderwärmung findet tendenziell mehr auf der Nordhalbkugel statt. Besonders in Antarktis-Nähe kühlt es eher ab. Diese These ist in vielen Veröffentlichungen bestätigt worden.

Abb 2: GLOBAL TEMPERATURE REPORT von November 2020 [2]
Abb 3: GLOBAL TEMPERATURE REPORT von November 2020. Darstellung als Karte [2]

  1. Vorteile der Satelliten-Daten

Im bereits erwähnten Vorgänger-Artikel [1] zu diesem Aufsatz wird im Kapitel 5.1.) Zuverlässigkeit der Proxy-Daten auf die Vorteile von in sich konsistenten Datensätzen eingegangen. Die GTR-Daten wurden im gesamten Erfassungs-Zeitraum vom gleichen Messgerät ermittelt, die Methodik und die Randbedingungen bleiben konstant. Systematische Fehler können daher nahezu ausgeschlossen werden. Wie auch bei den Proxy-Daten liegt in der guten Genauigkeit der relativen Änderungen innerhalb der Messreihen. Wie oft in der Naturwissenschaft ist es nicht nötig, die absoluten Daten, hier die Temperaturen, zu ermitteln. Ob zum Beispiel die mittlere Temperatur für Deutschland im Jahr 2017 14,2 °C betrug, spielt für eine mathematisch physikalische Auswertung keine Rolle. Entscheidend ist die in sich geschlossene und verlässliche Messreihe und deren korrekte Auswertung.

  1. Bearbeitung der GTR-Daten und erster Überblick

4.1.) Erster Überblick und Erkenntnisse aus den GTR-Daten

Das von Dr. Christy veröffentlichte Balken-Diagramm (Abb.2) ist extrem detailreich und folglich wenig übersichtlich. Was ist relativ schnell zu ermitteln? Die relativen Temperatur-Daten sind in den 80er und 90er Jahren überwiegend blau (negative Abweichung) und in den 2000er Jahren überwiegend rot (positive Abweichung). Im Betrachtungs-Zeitraum von 40 Jahren wurde es grob geschätzt 0,7 K wärmer. Auffallend sind die beiden extremen Temperatur-Spitzen um die Jahre 1998 und 2016. Dazu später noch mehr. Wegen der starken Schwankungen fällt es schwer, noch weitere Erkenntnisse aus dem Diagramm zu ermitteln.

4.2.) Glättung und Bearbeitung der Koordinaten-Achsen

Die monatliche Auflösung auf der X-Achse und die Darstellung des betrachteten Zeitraums von 40 Jahren sind nicht optimal. Andererseits ist die Y-Achse mit Y(min.)= -1,0K und Y(max.) = +1,0K zu wenig aufgelöst. Als besten Kompromiss fand der Autor eine Darstellung, bei der die X-Achse gestaucht, die Y-Achse gestreckt und die „zappelnden“ Messwerte geglättet sind. Das Ergebnis ist in Abb.4 dargestellt. Tatsächlich ist es nun leichter möglich, zusätzliche Erkenntnisse aus dem Graphen zu erhalten.

4.3.) El Nino und langzeit-konstante Temperaturen

Beginnen wir mit den bereits erwähnten Warm-Peaks von 1998 und 2016. Klimatologen und andere Fachleute kennen die Ursache der beiden Temperatur-Spitzen. Beide Male ist ein extrem starker „El Nino“ schuld, eine Meeresströmungs-Umkehr im Pazifik. Dieses Phänomen tritt unregelmäßig in einem Durchschnitts-Abstand von 4 Jahren auf und hat Auswirkung auf die Temperaturen der gesamten Erde. Von Anfang 1979 bis Ende 1997 (19 Jahre) blieb die mittlere Erdtemperatur erstaunlich konstant. Ausgehend von einem Mittelwert -0,1 K schwankte die Temperatur nur ca. 0,2 K nach oben oder unten. Das gleiche Bild im Zeitraum von Anfang 1999 bis Mitte 2015 (16,5 Jahre). Nach dem El Nino von 1998 ist der Level der konstanten Temperatur um ca. 0,2K angestiegen. Schließlich begann nach dem
El Nino von 2016 eine 3. Phase konstanter Temperatur, die bis heute (4,5 Jahre) anhält. Der Anstieg des Levels beträgt diesmal knapp 0,4K.

Abb 4: Bearbeitete GTR-Daten. X-Achse gestaucht, Y-Achse gestreckt, Werte geglättet.

Schließlich hilft eine lineare Regression, die Temperaturanstiegs-Tendenz grob abzuschätzen. Die Gerade hat eine Steigung von 0,0132 K/Jahr, oder etwas greifbarer 0,26 K auf 20Jahre. Noch einfacher: Ein Temperatur-Anstieg von etwa einem Kelvin auf 80 Jahre, d. h. 1 K bis zum Jahr 2100!

4.4.) Interpretation der Ergebnisse

Es darf nicht außer Acht gelassen werden, dass der Betrachtungszeitraum von 40 Jahren für die Klimatologie ein sehr kurzer Zeitraum ist. Nach Definition handelt es sich nur um 1 1/3 aufeinander folgende 30-jährige Klima-Zeiträume. Deshalb muss bei der Interpretation der Ergebnisse eine vorsichtige und kritische halbquantitative Herangehensweise im Vordergrund stehen, nicht die blanken Zahlen-Werte.

Erstaunlich sind die relativ konstanten Temperaturen in den 3 angegebenen Zeiträumen. Der Autor sieht sich nicht in der Lage, dazu eine fundierte Interpretation abzugeben. Ein Vergleich kann trotzdem angestellt werden. Die Klimaforscher (IPCC) vertreten seit 2016 die These, das anthropogen verursachte CO2 sei die alleinige Ursache des Temperatur-Anstiegs der letzten 170 Jahre. Wie erklären diese Leute die Zeiträume von 16,5 Jahren und 19 Jahren, in denen das anthropogene CO2 einerseits massiv angestiegen ist, andererseits die Temperatur nahezu konstant blieb? Kaum zu beantworten für die Klima-Alarmisten. Nun zur ermittelten Steigung von etwa einem Kelvin auf 80 Jahre. Bitte unbedingt beachten! Dieser großzügig geschätzte Anstieg von 1 K ermittelt sich unter der Annahme eines unge-bremsten anthropogenen CO2-Ausstoßes bis zum Jahr 2100! Selbst ohne CO2-Reduzierungs-Maßnahmen, ohne regenerativen Strom und ohne Elektro-Autos entsteht daraus kein Weltuntergangs-Szenario.

  1. Abschätzung der CO2-Klimasensivität mit Hilfe bearbeiteten GTR-Daten

Durch die erstaunlichen Ergebnisse bei der Auswertung der GTR-Daten war es nahezu die zwangsmäßige Folgerung, auch die CO2-Klimasensivität aus den Rohdaten zu ermitteln. Wie bereits unter 4.4.) deutlich gemacht, soll hier keine exakte Berechnung durchgeführt werden. Vielmehr eine Abschätzung der Größenordnung der CO2-Klimasensivität.

5.1.) Was ist die CO2-Klimasensivität?

Die CO2-Klimasensivität ist einfach definiert: Der Anstieg der mittleren Erdtemperatur bei Verdoppelung der CO2-Konzentration in der Atmosphäre.

Das IPCC behauptet seit ca. 30 Jahren, die CO2-Klimasensivität liegt mit 95% Wahrscheinlichkeit zwischen 1,5 K und 4,5 K, mit größerer Wahrscheinlichkeit im Bereich zwischen 3 K und 4,5 K. Inzwischen tauchen im Umfeld des IPCC Computer-Modelle auf, die von einer CO2-Klimasensivität über 6 K ausgehen. Warten wir auf den neuen IPCC-Bericht, der für das Jahr 2021 angekündigt ist.

5.2.) CO2-Klimasensivität, die zentrale Größe im Klima-Streit

Seit Greta Thunberg und „Fridays For Future“ ist die Klima-Diskussion im Bewusstsein der breiten Öffentlichkeit angekommen. Vereinfacht ausgedrückt, der angenommene Wert der CO2-Klimasensivität ist der zentrale und wichtigste Punkt der gesamten Diskussion und Auseinandersetzung zwischen den Klima-Alarmisten und Klima-Skeptikern. Sollte der wahre Wert der CO2-Klimasensivität bei 2 K oder darunter sein, erübrigt sich jeglicher Streit. Die Auswirkung des anthropogenen CO2 auf die mittlere Erdtemperatur wäre zu gering, um katastrophale Auswirkungen zu erwarten (siehe 4.4.).

5.3.) Keeling-Kurve: CO2-Konzentration der Atmosphäre seit 1958

Dr. Ralph Keeling hat 1958 begonnen an der meteorologischen Wetterstation auf dem hawaiianischen Vulkan Mauna Loa kontinuierlich die CO2-Konzentration der Atmosphäre zu messen. Deshalb wurde das Diagramm in Abb.5 auch nach ihm als Keeling-Kurve benannt. Seit 1958 steigt die CO2-Konzentration in der Atmosphäre an, hauptsächlich verursacht durch anthropogenen Ausstoß. Hauptverursacher sind Industrie (Prozess-Wärme), Heizen und Verkehr.
5.4.) Zusammenhang von CO2-Konzentration und Temperatur

Der mathematische Zusammenhang zwischen CO2-Konzentration und der Temperatur ist den Physikern und Meteorologen bereits lange bekannt. Deshalb wurde auch der Terminus „CO2-Klimasensivität“ eingeführt. Nur bei einer logarithmischen Funktion vergrößert sich der Y-Wert um einen festen Betrag, wenn der X-Wert jeweils verdoppelt wird. Der große Vorteil einer logarithmischen Funktion ist die Unabhängigkeit der Betrachtung, egal wo ein Referenzpunkt auf der X-Achse gesetzt wird. Die ideale Voraussetzung zur Auswertung der relativen GTR-Werte.
Der Zusammenhang zwischen CO
2-Konzentration und Relativ-Temperatur ist somit eine

Logarithmische CO2-Funktion F(GTR) *

Abb 5: Keeling-Kurve. CO2-Konzentration der Atmosphäre seit 1958

Dabei ist die Temperatur-Änderung, F(GTR) ein Proportionalitäts-Faktor, im vorliegenden Fall die Konstante für die GTR-Daten, die CO2-Konzentration und eine Bezugs-CO2-Konzentration.

Die Keeling-Kurve weist für das Jahr 1980 eine CO2-Konzentration von ca. 337 ppm und für das Jahr 2020 eine CO2-Konzentration von 410 ppm aus. Die Temperatur-Differenz zwischen diesen Jahren beträgt ca. 0,60 Kelvin. Somit folgt:

Mit dem ermittelten Proportionalitäts-Faktor lässt sich nun sehr einfach die zugehörige CO2-Klimasensivität berechnen.

Abb 6: Ermittelte logarithmische Funktion der CO2-Konzentration anhand der GTR-Daten Y-Achse: in Kelvin

  1. Abschätzung der CO2-Klimasensivität

Die aus den GTR-Daten ermittelte rechnerische CO2-Klimasensivität beträgt somit
2 Kelvin. Was sagt dieser Wert aus? Die Voraussetzungen für die gerade ausgeführte Berechnung müssen unbedingt beachtet und angewendet werden.

Der logarithmische Graph, der sich aus der Berechnung ergibt, ist nur dann richtig, wenn ausschließlich das anthropogene CO2 die Erderwärmung bewirkt.

Unter Klimatologen wird weltweit diskutiert und spekuliert. Realistisch betrachtet, sollten maximal 50% der Erderwärmung 4 durch Einbringung großer Mengen an anthropogenem CO2 in die Atmosphäre mit der Erwärmung in Zusammenhang stehen. Die meisten Klimatologen und Klimaskeptiker postulieren niedrigere Werte (10-40%). Somit wird basierend auf den GTR-Daten die CO2-Klimasensivität auf einen Maximal-Wert von etwa 1 Kelvin geschätzt.

7.) Schlussfolgerungen

Die Abschätzung der CO2-Klimasensivität auf Basis der satellitengestützten GTR-Daten liefert ein Ergebnis in einer sinnvollen Größenordnung. Schwäche dieser Untersuchung ist der für Klimatologen kurze Betrachtungszeitraum von 40 Jahren. Der Autor hat sich bewusst darauf beschränkt, nur die in sich konsistenten Messdaten einer einzigen Mess-Quelle zu verwenden, um den im Vorgänger-Artikel [1] ausgearbeiteten Unwägbarkeiten der konventionell gewonnenen Global-Temperaturen aus dem Weg zu gehen.

Im Vergleich zu neuen Fach-Publikationen über das Thema CO2-Klimasensivität, die 2017 von Hans Penner 6 in einem Übersichts-Artikel zusammengefasst wurden, bewegt sich das Resultat in guter Gesellschaft. Abgesehen von den Verweisen auf die Werte des IPCC und des PIK-Mitarbeiters Stefan Rahmstorff liegen die Ergebnisse für die CO2-Klimasensivität im Bereich von 0,2 Kelvin bis 1,0 Kelvin. Die vorliegende Arbeit kommt auf einen Maximalwert von etwa 1 Kelvin.

Bereits 2014 veröffentlichte Koelle eine Übersicht der Forschungs-Ergebnisse zur

CO2-Klimasensivität und den zeitlich immer kleiner werdenden Ergebnissen [7].

Abb 7: Übersicht zur Entwicklung der ermittelten CO2-Klimasensivität. Scafetta 2017 [7]
Zum Schluss ein Zitat aus der Zusammenfassung der Arbeit von Hans Penner [6]:Aus diesen Befunden wird ersichtlich, dass nach dem heutigen Stand der Wissenschaft technische Kohlendioxid-Emissionen keinen schädlichen Einfluss auf das Klima ausüben.Dem ist nichts mehr hinzuzufügen!

Literatur-Verzeichnis

[1] https://kaltesonne.de/wie-zuverlaessig-sind-die-ermittelten-globaltemperaturen-der-letzten-170-jahre/

[2] https://www.nsstc.uah.edu/climate/

[3] https://www.nsstc.uah.edu/data/msu/v6.0beta/tlt/uahncdc_lt_6.0beta5.txt

[4] https://kaltesonne.de/schweizer-klimaszenarien-ch2018-bis-zur-halfte-der-beobachteten-erwarmung-der-letzte-50-100-jahre-hat-naturliche-ursachen/

[5] https://kaltesonne.de/zwei-weitere-studien-finden-eine-stark-reduzierte-co2-klimawirkung-von-13-grad-pro-co2-verdopplung/

[6] https://www.fachinfo.eu/fi036.pdf (Dr. Hans Penner)

[7] Scafetta et al., International Journal of Heat and Technology, Sept. 2017, Vol. 35, S.18-26

 




Moderne Klimawandel-Wissenschaft

Sie liefern auch einen wahrscheinlichen Wert von 2,4°C auf Seite 9, obwohl sie auf Seite 2 einen Wert „nahe 3,0“ angeben. Der Wert auf Seite 9 ist nicht weit entfernt von der empirischen Schätzung von 2°C von Guy Callendar aus dem Jahr 1938, aber deutlich höher als der von Nic Lewis und Judith Curry (Lewis & Curry, 2018) angegebene Wert von 1,2°C bis 1,95°C (Bereich von 17% bis 83%, best estmate 1,5°C).

Das IPCC schätzt in seinem AR5-Bericht (Bindoff & Stott, 2013) die ECS auf einen Temperaturbereich zwischen 1,5°C und 4,5°C und liefert kein best estimate. Diese Spanne entspricht genau der des Charney-Berichts vor 34 Jahren. Während sich die empirischen, auf Beobachtungen basierenden Schätzungen deutlich verringert haben, hat sich die theoretische Bandbreite nicht verändert, obwohl Tausende von staatlich finanzierten Wissenschaftlern Milliarden von Dollar dafür ausgegeben haben. Die Daten sind heute sehr ähnlich, und es scheint keine Rolle zu spielen, dass sie mit leistungsfähigeren Computern und Milliarden von Dollar schneller ausgegeben werden. Mit Dung funktioniert es auf dieselbe Weise.

[Hervorhebung vom Übersetzer]

Wenn wir den AR5 genau unter die Lupe nehmen, wie es Monckton et al. in MSLB15 taten, einem Aufsatz mit dem Titel „Why Models run hot: results from a irreducially simple climate model“ (Monckton, Soon, Legates, & Briggs, 2015), sehen wir, dass die Elemente der theoretischen AR5-Berechnungen darauf hindeuten, dass sich der Bereich nach unten verengt. Angesichts des politischen Umfelds beim IPCC kann man leicht vermuten, dass die Politiker nicht zugeben wollen, dass die theoretischen Risiken des CO2-bedingten Klimawandels abnehmen. Je mehr empirische Schätzungen des CO2-Effekts erscheinen und je mehr theoretische Arbeit geleistet wird, desto mehr fragt man sich, wie lange die Politiker die deutlich überhöhte Spanne von 1,5°C bis 4,5°C noch unterstützen können.

Die Schätzungen der ECS sind seit langem rückläufig, wie Nicola Scafetta und Kollegen 2017 gezeigt haben. Abbildung 1 stammt aus ihrer Studie:

Abbildung 1: Der Rückgang der Schätzungen der ECS von 2000 bis 2015. Quelle: Scafetta, Mirandola und Bianchini, 2017.

In den 1980er Jahren wurde die Idee der katastrophalen, vom Menschen verursachten (oder anthropogenen) globalen Erwärmung (CAGW) entwickelt. Seitdem schlagen die Alarmisten Jahr für Jahr die Trommel. In den Vereinigten Staaten fand am 23. Juni 1988 im Dirksen-Senatsbürogebäude in Washington, DC eine Senatsausschusssitzung zum Thema CAGW statt, die von Senator Tim Wirth ausgerichtet wurde. Es war ein heißer und feuchter Tag im sumpfigen Washington, DC. Das Treffen war ein Wendepunkt, was nicht zuletzt Dr. James Hansen von der NASA zu verdanken war. In seiner Präsentation vor dem Kongressausschuss sagte er:

1988 ist es wärmer als jemals zuvor in der Geschichte der instrumentellen Messungen.

Alles in allem sind die Beweise dafür, dass sich die Erde um einen Betrag erwärmt, der zu groß ist, um eine zufällige Fluktuation zu sein, und die Ähnlichkeit der Erwärmung mit der durch den Treibhauseffekt zu erwartenden, ein sehr starker Fall. Meiner Meinung nach … ist der Treibhauseffekt entdeckt worden, und er verändert jetzt unser Klima.

Die gegenwärtig beobachtete globale Erwärmung liegt nahe 0,4 Grad C, relativ zur ‚Klimatologie‘, die als Mittelwert der dreißig Jahre (1951 – 1980) definiert ist. … können wir mit etwa 99-prozentiger Sicherheit feststellen, dass die gegenwärtigen Temperaturen eher einen echten Erwärmungstrend als eine zufällige Schwankung über den Zeitraum von 30 Jahren darstellen“. (Hansen, 1988)

ExxonMobil glaubte, dass die natürliche Variabilität ±0,5°C betrug. Man war der Meinung, dass eine Veränderung größer als diese sein musste, um signifikant zu sein. Offensichtlich schränkte Hansen diesen natürlichen Bereich irgendwie ein. Die Welt kühlte sich von 1944 bis 1977 global ab und begann sich dann 1978 zu erwärmen. Ein Anstieg von 0,4°C ist nicht viel, so dass die Verwendung dieses Wertes, um festzustellen, dass der „Treibhauseffekt“ nach einer langen Abkühlungsperiode festgestellt wurde, hätte Stirnrunzeln und Fragen hervorrufen müssen. Man beachte, dass Hansen „Treibhauseffekt“ sagt, wenn er den „vom Menschen verursachten Treibhauseffekt“ oder „verstärkter Treibhauseffekt“ meint. Es gibt einen natürlichen Treibhauseffekt, der durch natürliches CO2 und andere Treibhausgase, insbesondere Wasserdampf, verursacht wird. Dies ist der Beginn einer Täuschungstaktik, die von den Alarmisten häufig angewendet wird. Um die natürlichen Ursachen des Klimawandels zu ignorieren, setzen sie den „Treibhauseffekt“ mit dem „vom Menschen verursachten Treibhauseffekt“ gleich. Außerdem verwenden sie „globale Erwärmung“ als Synonym für „vom Menschen verursachte globale Erwärmung“, und „Klimawandel“ ist gleichbedeutend mit „vom Menschen verursachter Klimaänderung“. Diese Art von trügerischer und manipulativer Sprache wird auch heute noch verwendet.

Die IPCC-Berichte

Der erste IPCC-Bericht (FAR) unter dem Vorsitz von Bert Bolin stellte fest, dass die globale Erwärmung bis 1992, als der Bericht veröffentlicht wurde, in den Bereich der „natürlichen Klimavariabilität“ fiel und nicht unbedingt auf menschliche Aktivitäten zurückzuführen war (IPCC, 1990, S. XII). Sie hielten den eindeutigen Nachweis eines menschlichen Einflusses „für ein Jahrzehnt oder länger für unwahrscheinlich“. Bert Bolin war der Meinung, dass James Hansens Aussage im Kongress 1988 die Bedeutung der jüngsten globalen Erwärmung übertrieben habe.

Der zweite, 1996 veröffentlichte Bericht SAR kam zu dem Ergebnis, dass „die Abwägung der Beweise auf einen erkennbaren menschlichen Einfluss auf das globale Klima hindeutet“. (IPCC, 1996, S. 4). Dies basierte jedoch auf unveröffentlichten und nicht überprüften Arbeiten von Benjamin Santer und Kollegen. Seine Studie legte nahe, dass die Vorhersagen der Klimamodelle über die Erwärmung in der Troposphäre und die Abkühlung in der Stratosphäre dem entsprachen, was sich abspielte. Er nannte dies einen „Fingerabdruck“ des menschlichen Einflusses auf das Klima (Santer, et al., 1996a). Nach der Veröffentlichung der Studie stellte sich heraus, dass Santer bzgl. dieses Fingerabdrucks „Rosinenpickerei“ betrieben hatte (Michaels & Knappenberger, 1996). Die Studie wurde zurückgewiesen, und der IPCC wurde gedemütigt. Diese Demütigung wurde noch dadurch verstärkt, dass die für den IPCC verantwortlichen Politiker dabei erwischt wurden, wie sie die wissenschaftlichen Berichte innerhalb der SAR veränderten, um sie ihrer Summary for Policymakers anzupassen (Seitz, 1996).

Der 2001 veröffentlichte dritte Bericht TAR stellte fest, dass „der Großteil der in den letzten 50 Jahren beobachteten Erwärmung wahrscheinlich auf den Anstieg der Treibhausgaskonzentrationen zurückzuführen ist“. (IPCC, 2001, S. 10). Sie stützten diese Entscheidung auf den „Hockeyschläger“, der sich später als fehlerhaft erwies. Bis zur Veröffentlichung des vierten Berichts (AR4) im Jahr 2007 zeigten zahlreiche Untersuchungen des Hockeyschlägers, dass er fehlerhaft war und zu wenig Variabilität aufwies. Dies wurde im vierten Bericht, AR4, von Keith Briffa eingeräumt, der, etwas beschönigend, schrieb, dass der Hockeyschläger zu empfindlich auf bestimmte Proxies (Baumringe) und die statistischen Verfahren (Hauptkomponenten) reagierte, welche zu seiner Konstruktion verwendet worden waren (IPCC, 2007b, S. 436). Willie Soon und Sallie Baliunas zeigten, dass der Hockeyschläger nicht die Daten widerspiegelte, die zu seiner Konstruktion verwendet wurden (Soon & Baliunas, 2003). Der Hockeyschläger entpuppte sich als eine ausgeklügelte Fiktion, die einzig und allein aus einem fehlerhaften statistischen Verfahren und einem schlecht ausgewählten Satz von Temperaturproxies entstand (National Research Council, 2006, S. 112-116) und (Wegman, Scott, & Said, 2010, S. 4-5, 48-50).

Als AR4 im Jahr 2007 veröffentlicht wurde, hatte die Führung des IPCC aufgegeben, direkte Beweise dafür zu finden, dass der Mensch den Klimawandel beherrscht. Sie hatten es mit dem „Fingerabdruck“ von Santer und dem „Hockeyschläger“ von Michael Mann versucht und konnten die Öffentlichkeit mit beidem nicht überzeugen. So versuchten sie im AR4, die Öffentlichkeit mit Klimamodellen zu überzeugen, dass „der größte Teil des beobachteten Anstiegs der globalen Durchschnittstemperaturen seit Mitte des 20. (IPCC, 2007b, S. 10) sehr wahrscheinlich der beobachteten Zunahme von Treibhausgasen in der Atmosphäre geschuldet ist“. Sie präsentieren keine Beobachtungen, sondern lediglich Modellergebnisse. Der fünfte Bericht, AR5, war lediglich eine Wiederholung von AR4. Dieselben zwei Modelle, dasselbe Ergebnis. Wie bereits erwähnt, zeigte MSLB15 (Monckton, Soon, Legates, & Briggs, 2015), dass die neueren Ergebnisse des AR5-Modells darauf hindeuteten, dass die Schlagzeilen des IPCC die Empfindlichkeit des Klimas gegenüber CO2 überbewerten, aber dieses Ergebnis wurde im Bericht weder erklärt noch eingeräumt.

Während also die empirischen Berechnungen der Klimasensitivität gegenüber CO2 nun eine ECS zwischen 1,1°C und 2,45°C zeigen (siehe Tabelle 1), blieben die theoretischen Schätzungen bei 1,5 bis 4,5 – mit Ausnahme von AR4, als diese auf 2,0 bis 4,5 geändert wurde. Die Bereiche in Tabelle 1 sind allesamt 5% bis 95% Bereiche, soweit ich das beurteilen kann.

Tabelle 1. Verschiedene Schätzungen der ECS. Alle sind theoretische Berechnungen mit Ausnahme von Lewis und Curry, deren Schätzung auf Beobachtungen beruht:

Tausende von Wissenschaftlern und Milliarden von Dollar später haben wir also immer noch die gleiche theoretische Unsicherheit über die Auswirkungen von CO2 auf das Klima. Die einzige empirische Schätzung der ECS, die gezeigt wird, liegt bei etwa 1,5°C. Die meisten dieser empirischen Schätzungen liegen unter 2°C und gruppieren sich um 1,5°C bis 1,6°C (Lewis & Curry, 2018). Die empirische Schätzung von Guy Callendar lag bei 2°C (Callendar, 1938) und die theoretische Schätzung von Arrhenius (Arrhenius, 1908) bei 4°C. Man kann also sagen, dass die gesamte Arbeit und das Geld, das seit 1938 aufgewendet wurde, um den Klimawandel dem Menschen zuzuschreiben, verschwendet wurde.

[Hervorhebung vom Übersetzer]

Wird es nun besser? Wie steht es mit der neuesten Generation theoretischer Modelle, CMIP6? Erste Anzeichen deuten darauf hin, dass die Ergebnisse nicht besser, sondern schlechter werden, wie Ron Clutz und John Christy berichten. Während die meisten der neuen Modelle absurd überhöhte Werte für die ECS zeigen, ist es interessant, dass die neueste Version des russischen Modells, INM-CM4, auf das ich in meinem vorherigen Beitrag Bezug genommen habe, jetzt eine ECS von 1,83 vorhersagt. Mit Ausnahme des INM-CM4 haben wir also seit 1938 keine Fortschritte gesehen. Wie meine verstorbene Großmutter Marie McCartney sagen würde, „ist das jetzt nicht einfach großartig?“.

This is a condensed excerpt, with minor modifications, from my new book, Politics and Climate Change: A History.

To download the bibliography, click here.

Link: https://wattsupwiththat.com/2020/11/12/modern-climate-change-science/

Übersetzt von Chris Frey EIKE




Das Ende der Modelle – das Ende der Hiobsbotschaften

Die Botschaft

Der Spiegel schreibt am 23.7.:

Forscher prognostizieren stärkere Erderwärmung. In leistungs­starken Programmen simulieren Forscher, wie die Erde auf eine Verdopplung der Kohlendioxid-Menge in der Atmosphäre reagieren würde.

Der Guardian warnte schon im Juni:

The current pace of human-caused carbon emissions is increasingly likely to trigger irreversible damage to the planet, according to a comprehensive international study released Wednesday.

(Laut einer umfassenden internationalen Studie, die am Mittwoch veröffentlicht wurde, wird das derzeitige Tempo der vom Menschen verursachten Kohlenstoffemissionen zunehmend irreversible Schäden auf dem Planeten auslösen.)

Das sind keine guten Nachrichten, aber können wir Spiegel und Guardian blind vertrauen? Ich schlage vor, wir schau‘n uns das mal an.

Das Häschen und Corona

Bitte betrachten Sie zunächst aufmerksam dieses kurze Video (zu Beginn bitte ein paar Sekunden Geduld).

Die Vierbeiner fühlen sich in der Dunkel­heit unsichtbar, verraten sich aber durch eine geheimnisvolle Strahlung. Ist das die „Aura“, wie sie nur von ganz besonderen Wesen ausgeht?

Nicht ganz. Was man sieht, ist infrarotes Licht, das von einer Spezialkamera aufgezeichnet wurde. Solches Licht, auch Wärmestrahlung genannt, wird von jedem Körper emittiert, ob lebendig oder nicht. Es kommt nur auf seine Temperatur an.

Mit der Temperatur steigt die Energie der Strahlung, und zwar ganz gewaltig. Die stark durchbluteten und unbehaarten Partien scheinen deutlich heller als der Rest des Körpers, obwohl sie nur ein paar Grad wärmer sind. Dieser Effekt wird übrigens auch beim kontaktlosen Fieber­messen benutzt, wie es in Corona-Zeiten alltäglich ist. Das Thermometer misst die von der Haut abgestrahlte Energie und kann daran tatsächlich unterscheiden, ob wir nur 36,5 °C oder bedenkliche 38 ° haben.

Die Strahlung von Mutter Erde

Mutter Erde hat eine durchschnittliche Temperatur von etwa 15° und strahlt damit permanent etwa 340 Watt Wärme je Quadratmeter ins All. Das ist nicht viel, aber dank ihrer gigantischen Oberfläche kommt da einiges zusammen. Warum kühlt sie sich dann nicht fortlaufend ab?

Nun, Sie haben es erraten: Die liebe Sonne wärmt uns ja, und zwar mit großzügigen 1.388 Watt pro Quadratmeter. Bekommen wir dann nicht wesentlich mehr Energie geliefert, als wir abstrahlen? Warum glüht die Erde dann nicht längst?

Dazu etwas Geometrie: So wie wir den Mond, so sieht auch die Sonne unsere Erde als kreis­förmige Silhouette. Auf der Fläche dieser Scheibe von 6.371 km Radius werden die Sonnen­strahlen eingefangen. Fragen sie jetzt bitte nicht, ob das auch nachts so ist; irgendeine Hälfte des Globus ist ja immer zur Sonne gewandt.

Damit unsere Temperatur gleichbleibt, müsste die Erde ebenso viel Energie abstrahlen, wie sie empfängt. Und genau das tut sie. Sie strahlt nämlich mit ihrer gesamten Kugeloberfläche, nicht nur mit der scheibenförmigen Silhouette, die sie der Sonne darbietet. Und wie es der Zufall so will, ist die Oberfläche einer Kugel genau das Vierfache einer Scheibe gleichen Durchmessers.

Um die gesamte Energiebilanz der Erde zu berechnen, müssen wir die empfangene Sonnen­energie von 1388 Watt/m2 mit der Fläche besagter Scheibe multiplizieren und die Abstrahlung von 340 Watt/m2 mit dem Vierfachen dieser Fläche, und dann die Differenz bilden.

Multiplizieren wir zunächst die 340 mit 4, dann kommen wir auf 1.360. Aber das ist ja fast genau das, was die Sonne zu bieten hat. Das ist kein Zufall, es sagt uns, dass tatsächlich die durch­schnittlich eingestrahlte und emittierte Energie – im Rahmen unserer extrem vereinfachten Betrachtung – gleich sind.

Wie durchsichtig ist Luft?

Nun strahlt die von der Erde abgegebene Energie nicht ungehindert ins Vakuum des Weltalls, sondern muss sich erst ihren Weg durch die Lufthülle erarbeiten. Da gibt es Blockaden, die zwar die einfallenden Sonnenstrahlen passieren lassen, die ausgehende Wärmestrahlung aber behindern. Das sind die sogenannten Treibhausgase, und das berüchtigtste heißt CO2.

Als Autofahrer haben Sie sicher schon gesehen, was passiert, wenn Sie versuchen, mit den Scheinwerfern durch Nebel zu leuchten. Sie bekommen den halben Segen zurück in die Augen und können noch weniger sehen als vorher. Für die Infrarotstrahlen ist das CO2 wie Nebel, für uns (außer Greta) ist dieses Gas aber total unsichtbar. Das CO2 streut einen Teil der Wärmestrahlung, die eigentlich ins All entweichen möchte, zurück. Die Erde bleibt daher etwas wärmer, als es ohne CO2 der Fall wäre.

Ein paar Grad mehr bedeutet aber, dass die Erdoberfläche wesentlich mehr Energie abgibt. Dabei macht schon ein kleiner Temperaturanstieg einen deutlichen Unterschied. Erinnern Sie sich an die Tiere im Video? Da strahlen die Bäuche der Elefanten auch mehr als die kühleren Rücken.

Die Erdoberfläche strahlt nun also ebenfalls stärker, aber das CO2 hält davon eben einen kleinen Prozentsatz zurück, sodass letztlich die gleiche Energie ins All gestrahlt wird, wie es ohne CO2 der Fall war. Das Gleichgewicht von empfangener und abgegebener Energie ist also wiederhergestellt, wenn auch zum Preis einer höheren Temperatur.

Nun haben sich die Forscher etwas überlegt. Nehmen wir die präindustrialisierte Erde, etwa vom frühen 20. Jahrhundert, da gab es 0,028% CO2 in der Luft. Auf diese Situation hatten sich die Erde und ihre Temperatur seit Jahrtausenden eingestellt. Jetzt verdoppeln wir schlagartig die CO2-Konzentration von 0,028% auf 0,056%. Um wie viel Grad würde es dann wärmer? Das ist natürlich ein Gedankenexperiment, wir können es nicht gerade mal mit der Erde durchführen, aber es kann lehrreich sein.

Lange haben die Experten gerechnet und kamen zu dem Ergebnis, dass die Temperatur um irgendeinen Wert zwischen 1,5° und 4,5° steigen würde. Diesen Wert nannten sie Klima-Sensitivität.

Geht’s nicht genauer?

Das ist aber ein recht ungenaues Resultat. Das ist, als würde ein Handwerker einen Kosten­voranschlag machen: „… so zwischen 1.500 und 4.500 Euro wird’s schon werden.“ Können die Spezialisten mit ihren Supercomputern das nicht besser ausrechnen?

Nun, ich habe Ihnen bisher nur die halbe Wahrheit erzählt, vielleicht sogar noch weniger. Neben dem CO2 gibt es ein anderes Treibhausgas, das im Vergleich zu CO2 eine hundertmal so große Konzentration haben kann: der Wasserdampf in der Atmosphäre, auch Luftfeuchtigkeit genannt. Dieses gasförmige, unsichtbare Wasser hat auf die Wärmestrahlung den gleichen Effekt wie das CO2, allerdings wesentlich stärker.

Während sich CO2 nun einigermaßen ordentlich über die Erde verteilt, verhält sich das Wasser genau umgekehrt. Mal ist es hier, mal dort, manchmal kondensiert es zu kleinen Tröpfchen und bildet Wolken, dann werden die Tröpfchen groß und schwer, sodass sie zu Boden fallen und wir sagen:

„Es regnet.“ Dieses chaotische Treiben des Wassers ist ein wesentlicher Teil dessen, was wir als Wetter bezeichnen.

Und das Wasser, sei es gasförmig flüssig oder fest, hat einen sehr starken Einfluss auf die einfallende und emittierte Strahlung. Jetzt geht es nicht mehr nur um sanfte Streuung der Wärmestrahlung auf ihrem Weg ins All; durch das Wasser wird chaotisch ins ganze Energiegeschehen eingegriffen: Sonnenlicht wird an den Oberseiten der Wolken reflektiert, sodass es gar nicht erst auf die Erde kommt; Wärmestrahlung wird an der Unterseite blockiert und feine Nebeltröpfchen treiben ihr eigenes Spiel mit den verschiedenen Strahlen.

In diesem Chaos wollen wir nun herausfinden, welchen Einfluss die Zunahme der CO2-Konzentration um ein paar hundertstel Prozent haben soll? Das ist so, als hätte Mutter Erde ein feines Seidenhemdchen aus CO2 an, das sie niemals ablegt, darüber aber zieht sie nach Lust und Laune dicke Wollpullover, Pelz­jacken und Wintermäntel aus Wolken oder Wasserdampf an und aus. Das feine Seidenhemdchen aber wird von Jahr zu Jahr um ein paar Fädchen dichter; und wir wollen ausrechnen, welchen Einfluss genau das auf Mutters Temperatur hat?

Mission Impossible

Es ist eine „Mission impossible“, aber furchtlose Forscher vom World Climate Research Programme haben erneut ihre Computer angeworfen und mit neuesten Daten und Erkenntnissen gefüttert – und voilà, hier ist das Ergebnis: Die Klima-Sensitivität liegt bei einem Wert irgendwo zwischen 1,6° und 5,6°. Würde also das CO2 auf den besagten doppelten Wert der präindustrialisierten Ära ansteigen – gemäß aktuellem Zuwachs würde das 75 Jahre dauern – dann könnte Hamburgs mittlere Jahrestemperatur von heute 8° auf maximal 13° steigen, dann wäre es an der Alster so warm, wie heute in Mailand und in Mailand wie heute in Sevilla.

Es spricht für die Gewissenhaftigkeit der Forscher, dass sie uns auch verraten, mit welcher Wahrschein­lichkeit ihre Aussage zuträfe: nämlich 66%. Diese Unsicherheit, verknüpft mit der ohnehin schon riesigen Unschärfe von 1,6° bis 5,6°, ist aber ein Offenbarungseid: die Angelegenheit ist viel zu kompliziert, als dass wir sie berechnen könnten. Man kann einfach nichts Genaueres sagen als:

„Wenn wir so weitermachen wie bisher, dann wird es in den nächsten Jahrzehnten vermutlich ein paar Grad wärmer.“

Also, liebe Forscher: es liegt nicht an Euch oder an Euren Programmen, dass Ihr zu keinem vernünftigen Ergebnis kommt. Es liegt an der Natur des Klimas. Man kann es einfach nicht im Computer abbilden – ebenso wenig wie die Gedankengänge einer Frau. Sucht Euch einen anderen Job; bei Eurer Qualifikation ist das kein Problem.

Und noch etwas: Mit einer Wahrscheinlichkeit von 100 % minus 66 %, also mit 33 % könnte die Erwärmung außerhalb des angegebenen Bereichs von 1,6 ° bis 5,6 ° liegen. 33% ist immerhin dieselbe Wahrscheinlichkeit, mit der man beim Würfeln ein Fünf oder Sechs erwarten kann. Wir könnten also, wissenschaftlich ganz legitim, auch weniger als 1,6 ° Erderwärmung erwarten. Wären wir dann Klimaleugner, also Unmenschen? Oder befänden wir uns noch mit 33 % Wahrscheinlichkeit unter den Anständigen?

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“

 

 

 

 




Neue Studie: Keine experi­mentellen Beweise für den signifi­kanten anthropo­genen Klima­wandel

Introduction

Der Klima-Sensitivität wird in der wissenschaftlichen Literatur eine extrem hohe Unsicherheits-Bandbreite zugeordnet. Die kleinsten Werte liegen nahe Null, während die höchsten Werte sogar bei 9°C liegen bei einer Verdoppelung des CO2-Gehaltes. Die Mehrheit der Studien ziehen theoretische Modelle der Allgemeinen Zirkulation (GCMs) für deren Abschätzung heran. Diese Modelle berechnen sehr hohe Werte der Sensitivität mit einer sehr große Unsicherheits-Bandbreite. Die typischen Sensitivitätswerte liegen zwischen 2 und 5 Grad. Das IPCC zieht diese Studien heran, um die globalen Temperaturanomalien und die Klima-Sensitivität zu berechnen. Allerdings gibt es viele Studien, in denen ohne die GCMs ein Sensitivitätswert kleiner als 1 berechnet wird. Das grundlegende Problem ist nach wie vor ein fehlender experimenteller Nachweis der Klima-Sensitivität. Einer der Autoren (JK) fungierte als ein Experten-Begutachter des AR 5 des IPCC. In einem seiner Kommentare sprach er den fehlenden experimentellen Nachweis für den sehr hohen Sensitivitätswert in dem Report an. Als Reaktion darauf behauptet das IPCC, dass es einen beobachteten Beleg dafür zum Beispiel in der Technical Summary des Reports gibt. In dieser Studie werden wir den Fall sorgfältig unter die Lupe nehmen.

Die Bedeckung mit tiefen Wolken kontrolliert praktisch die globale Temperatur

Die grundlegende Aufgabe besteht darin, die gemessene globale Temperaturanomalie in zwei Teile aufzuspalten: die natürliche Komponente und die den Treibhausgasen geschuldete Komponente. Um diese Reaktion zu betrachten, müssen wir Abbildung TS.12 aus der Technical Summary des AR 5 heranziehen. Diese zeigen wir hier als Abbildung 1. Wir möchten unser Augenmerk auf die Unter-Abbildung „Land and ocean surface“ in der Abbildung richten. Nur die schwarze Kurve repräsentiert eine gemessene Temperaturanomalie in jener Abbildung. Die roten und blauen Einhüllenden wurden mittels Klimamodellen berechnet. Wir betrachten die Ergebnisse von Computer-Berechnungen nicht als experimentelle Beweise. Besonders die durch die Computermodelle berechneten Ergebnisse sind fragwürdig, weil diese Ergebnisse einander widersprechen.

Abbildung 1: Abbildung TS.12 auf Seite 74 in der Technical Summary des IPCC AR 5.

In Abbildung 2 erkennt man die gemessene globale Temperaturanomalie (rot) und die globale Wolkenbedeckung (blau). Diese experimentellen Beobachtungen zeigen, dass eine Zunahme der tiefen Bewölkung um 1% die Temperatur um 0,11°C sinken lässt. Diese Zahl steht in sehr guter Übereinstimmung mit der in den Studien angegebenen Theorie. Mit diesem Ergebnis können wir jetzt die natürliche Temperatur-Anomalie zeigen mittels Multiplikation der Änderungen der Bedeckung mit tiefen Wolken mit -0,11°C. Dieser natürliche Anteil (blau) wird mit der gemessenen Temperatur-Anomalie (rot) verglichen. Wie man sieht, gibt es keinen Spielraum für die Einwirkung irgendwelcher Treibhausgase, d. h. anthropogener Antriebe innerhalb der experimentellen Genauigkeit. Obwohl die monatliche Temperatur-Anomalie hohes Rauschen aufweist, kann man leicht ein paar Perioden der Abnahme tiefer Wolken erkennen mit einem zeitgleichen ansteigenden Trend der Temperatur. Dieses Verhalten kann nicht erklärt werden mit der monoton zunehmenden CO2-Konzentration, und es ist viel genauer als in den Klimamodellen hervortritt.

Abbildung 2: Globale Temperatur-Anomalie (rot) und Änderungen der globalen Bedeckung mit tiefen Wolken (blau) gemäß den Beobachtungen. Die Anomalien liegen im Zeitraum Sommer 1983 bis Sommer 2008. Die zeitliche Auflösung der Daten beträgt 1 Monat, aber das jahreszeitliche Signal ist entfernt worden. Null korrespondiert mit etwa 15°C für die Temperatur und 26% für die Bedeckung mit tiefen Wolken.

——————————–

Die ganze Studie steht hier.

Link: https://wattsupwiththat.com/2019/07/12/new-paper-no-experimental-evidence-for-the-significant-anthropogenic-climate-change/

Übersetzt von Chris Frey EIKE




Rückkopplung ist nicht das Gelbe vom Ei

Beginnen möchte ich in dieser Antwort an Mr. Stokes mit der Darlegung des Unterschieds zwischen der Schlussfolgerung der offiziellen Klimatologie, dass Rückkopplungen die direkte oder Referenz-Erwärmung durch Treibhausgase verdreifachen und unserer Schlussfolgerung, dass man mit einem bemerkenswert geringen Fehler die Rückkopplungen ignorieren kann bei der Berechnung der Gleichgewichts-Sensitivitäten – und zwar mit gerundeten Zahlen und Termen, die so weit wie möglich vereinfacht sind.

In den CMIP5-Modellen, der jüngsten Generation von Modellen, deren Ensemble-Ergebnisse veröffentlicht worden sind, beträgt die mittlere Referenz-Sensitivität auf eine CO2-Verdoppelung 1,05 K (Andrews 2012). Die mittlere Referenz-Sensitivität ist hier die Erwärmung, zu der es bei einer Verdoppelung von CO2 in der Atmosphäre kommen würde ohne Einwirkung von Rückkopplungen.

Außerdem glaubt man derzeit (zu recht oder fälschlich), dass jener Wert ziemlich genau ist: die Unsicherheit beträgt in jedem Falle nur 10%. Daher sollten wir kanonisch die Tatsache akzeptieren, dass die Referenz-Sensitivität bei einer CO2-Verdoppelung vor Berücksichtigung von Rückkopplungen 1,05 K beträgt.

Allerdings ergeben die gleichen Modelle eine mittlere Charney-Sensitivität von 3,35 K pro CO2-Verdoppelung. Mit Charney-Sensitivität ist hier die Erwärmung gemeint, nachdem alle die Sensitivität verändernden Rückkopplungen eingewirkt haben und das Klimasystem wieder ins Gleichgewicht gekommen ist.

Von diesen beiden kanonischen Werten wissen wir, dass die offizielle Klimatologie der Meinung ist, dass die Rückkopplungs-Reaktion auf eine CO2 -Verdoppelung 3,35 beträgt – 1,05 oder enorme 2,3 K als Reaktion auf eine Referenz-Sensitivität von lediglich 1,05 K. Man erinnere sich, dass Rückkopplungen die gesamte Differenz repräsentieren zwischen Referenz-Sensitivität (vor Rückkopplungen) und der Gleichgewichts-Sensitivität (nach Rückkopplungen).

Falls die offizielle Klimatologie recht hat, dann läge der System-Gain Factor, also das Verhältnis der Gleichgewichts- zur Referenz-Sensitivität, bei 3,35 / 1,05 oder 3,2. Die offizielle Klimatologie meint tatsächlich, dass Rückkopplungen jedwede direkt erzwungene Erwärmung um das 3,2-fache multiplizieren.

Wie kommt die offizielle Klimatologie auf diesen massiven Faktor von 3,2? So: Die Emissions-Temperatur der Erde wird normalerweise als etwa 255 K betragend angenommen, und die Referenz-Sensitivität der im Jahre 1850 natürlich auftretenden, nicht kondensierenden Treibhausgase mit etwa 10 K (Lacis+ 2010). Damit hätte die Referenz-Temperatur – also die Temperatur, die beim Fehlen von Rückkopplungen vorherrschend wäre – 265 K betragen.

Allerdings betrug die gemessene Temperatur im Jahr 1850 287,5 K (HadCRUT4), und das war eine Gleichgewichts-Temperatur (es würde keinen Trend während der folgenden 80 Jahre geben). Die Differenz zwischen der Emssions-Temperatur von 255 K und der gemessenen Temperatur von 287,5 K im Jahre 1850 beträgt 32,5 K. Wenn man die Gleichgewichts-Sensitivität von 32,5 durch die Referenz-Sensitivität von 10 K dividiert, erhält man 3,25 – mehr oder weniger genau der System-Gain Factor, den die offizielle Klimatologie als mittlere Schätzung nimmt.

Folglich ist für IPCC und Konsorten die Rückkopplung das Non-plus-ultra. Sie glauben, dass die Rückkopplung zwischen zwei Drittel und (in den idiotischeren Extremisten-Studien) bis zu neun Zehntel der gesamt-globalen Erwärmung ursächlich ist.

In der offiziellen Klimatologie gilt Rückkopplung nicht nur als Ursache für 90% der Gesamt-Erwärmung, sondern auch als bis zu 90% der Unsicherheit bzgl. der Frage, wie viel Erwärmung es geben wird. Wie settled ist „settled science“, wenn die Modellierer nach 40 Jahren und Billionensummen Geldes immer noch nicht in der Lage sind, dieses gewaltige Intervall einzugrenzen? Die untere Grenze der IPCC-Schätzung beträgt 1,5 K Charney-Sensitivität; die obere Grenze der CMIP5-Modelle ist 4,7 K. Die üblichen Verdächtigen haben keine Ahnung, wie viel Erwärmung es geben wird.

Meine Mitautoren und ich selbst wagen es, anderer Ansicht zu sein. Rückkopplung ist nicht das Gelbe vom Ei. Die offizielle Klimatologie hat – soweit wir das beurteilen können – eine zentrale Wahrheit vollkommen ausgelassen. Die Wahrheit nämlich, dass welche Rückkopplungen auch immer im Klimasystem zu jedem gegebenen Zeitpunkt vorherrschen, diese nicht notwendigerweise nur auf Änderungen der vorherrschenden Temperatur reagieren müssen: Sie müssen auf die gesamte Referenz-Temperatur zu jenem Zeitpunkt reagieren, wobei spezifisch auch die Emissions-Temperatur enthalten ist, welche selbst dann vorhanden ist, wenn jedwede nicht kondensierenden Treibhausgase oder irgendwelche Rückkopplungen fehlen.

Warum das so sein muss zeigt dieses einfache Block-Diagramm:

In dem Block-Diagramm kommt die Emissionstemperatur oben links ins Spiel, danach (den Pfeilen folgend) werden die Referenz-Sensitivitäten, die mit der Zeit auftreten, zuerst natürlich und dann anthropogen, sukzessive hinzu addiert. Dann läuft die Referenz-Temperatur, also die Summe all dieser Parameter, durch den Input/Output-Knoten und folglich unendlich rund um die Rückkopplungs-Schleife, wobei der separat mit Energie versorgte Rückkopplungs-Block dem Signal bei jedem Durchlauf ein kleines Bisschen hinzufügt (die Energie für den Rückkopplungs-Block wäre das Zurückhalten von Strahlung in der Atmosphäre, welche ohne Rückkopplungen harmlos in den Weltraum abgestrahlt werden würde). Das Ausgangssignal ist die Gleichgewichts-Temperatur nach Einwirkung der Rückkopplung.

Sollte man dies akzeptieren, steht man jetzt vor der Aufgabe, eine solide Erklärung zu finden für das Narrativ der offiziellen Klimatologie, dass die Rückkopplungs-Schleife, welche als Eingangssignal die gesamte Referenz-Temperatur erhält, auf irgendeine magische Weise entscheiden kann, ob sie lediglich auf die Durchdringung jener Referenz-Temperatur reagieren will, verursacht durch das Vorhandensein natürlicher und dann auch anthropogener, nicht kondensierender Treibhausgase, und dass sie in keiner Weise auf die Emissions-Temperatur reagiert, die zwei Größenordnungen größer ist als die Sensitivitäten.

Es besteht kein Zweifel, dass man einen elektronischen Schaltkreis konzipieren kann, welcher jenes Kunststück nachvollzieht. Aber das Klima ist kein Schaltkreis. Die im Jahre 1850 vorhandenen Rückkopplungen müssen also bis dahin nicht nur auf die Treibhaus-Erwärmung eingewirkt haben, sondern auch auf die Emissions-Temperatur, bevor irgendwelche nicht kondensierenden Treibhausgase ihre Wirkung entfalten konnten.

Hier folgt also die korrekte Berechnung. Die Referenz-Temperatur in Jahre 1850 betrug vor Rückkopplungen 265 K. In jenem Jahr betrug die Gleichgewichts-Temperatur nach Rückkopplungen 287,5 K. Folglich betrug der System-Gain Factor des Jahres 1850 287,5 / 265 oder 1,085 – also etwa ein Drittel des Wertes der Klimatologie von 3,2.

Falls wir nun die Referenz-Sensitivität von 1,05 K bei CO2-Verdoppelung mit dem korrigierten System-Gain Factor von 1,085 multiplizieren, ergibt sich eine Charney-Sensitivität von lediglich 1,15 K und nicht von 3,35 K.

Nun könnte man natürlich sagen, dass die Kurve der Gleichgewichts-Temperatur als Reaktion auf die Referenz-Temperatur nicht linear ist. Vielleicht ist das so, aber es kann nicht sehr nicht linear sein. Warum nicht? Weil die Referenz-Temperatur des Jahres 1850 über 92% der Gleichgewichts-Temperatur ausmachte.

Nun ist der Beitrag von Mr. Stoke so weit es geht korrekt. Sei zentraler Punkt lautet, dass wenn man mit einem Gleichgewicht beginnt wie es etwa im Jahre 1850 herrschte, man nicht wissen muss, wie dieses Gleichgewicht zustande gekommen war: man kann den System-Gain Factor einfach als das Verhältnis der Gleichgewichts-Sensitivität zur Referenz-Sensitivität in irgendeinem Zeitraum nach jenem Gleichgewicht darstellen anstatt als das Verhältnis der Gleichgewichts- zur Referenz-Temperatur zum Zeitpunkt des Gleichgewichtes.

Machen wir es also so wie die Klimatologie. Ziehen wir die eigenen Daten der Klimatologie bis zum Jahre 2011 heran, das Jahr, bis zu dem de Zahlen aktualisiert worden waren für den AR5 des IPCC 2013.

Der gesamt-anthropogene Antrieb von 1850 bis 2010 betrug etwa 2,5 W/m². Allerdings sorgt die Wärmekapazität der Ozeane für eine Verzögerung der Gleichgewichts-Reaktion. Diese Verzögerung wird von einem Strahlungs-Ungleichgewicht reflektiert, dessen Wert man mit etwa 0,6 W/m² annimmt bis zum Jahre 2010 (Smith+ 2015).

Nimmt man einmal an, dass Smith korrekt ist, dann ist der periodische System-Gain Factor der Klimatologie ableitbar aus den Daten von 1850 bis 2011, und zwar einfach als das Verhältnis von 2,5 zu (2,5 – 0,6) oder 1,315 (Lewis & Curry 2018). Dann würde die Charney-Sensitivität 1,315 x 1,05 oder lediglich 1,4 K betragen und nicht die 3,35 K, die uns die offizielle Klimatologie derzeit glauben machen will.

Man beachte, wie nahe unsere Schätzung der Charney-Sensitivität von 1,15 derselben in der realen Welt von 1,4 K liegt. Wir kamen zu unserer Schätzung auf der Grundlage der eigenen Schätzungen der offiziellen Klimatologie des tatsächlichen anthropogenen Antriebs und des Strahlungs-Ungleichgewichtes. Die mittlere Schätzung der Klimatologie von 3,35 K ist jedenfalls weit von der Realität entfernt.

Warum liegt unsere Schätzung der mittleren Charney-Sensitivität so viel näher dem realen Wert als die veröffentlichten Schätzungen der offiziellen Klimatologie?

Der Grund hierfür ist, dass wir anders als die offizielle Klimatologie alle verfügbaren Informationen berücksichtigen und hierbei besonders die Informationen über die jeweiligen Größenordnungen im Jahre 1850, die Referenz-Temperatur (265 K) und die Rückkopplungs-Reaktion (22,5 K). Die Summe dieser beiden Parameter war die beobachtete Gleichgewichts-Temperatur im Jahre 1850.

Der offiziellen Klimatologie, die einfach nicht erkennen will, dass Rückkopplungen logischerweise auf die gesamte Referenz-Temperatur reagieren, die zu einem gegebenen Zeitpunkt herrscht, bleibt nichts weiter übrig als jene vitale Information in die Tonne zu treten. Mr. Stokes macht das hier ganz speziell:

„Es ist falsch, Variablen aus der Original-Zustandsgleichung (d. h. im Jahre 1850) einzubeziehen. Ein Grund dafür ist, dass man diesen Variablen bereits im Gleichgewichtszustand vor der Störung Rechnung getragen hat. Das muss nicht noch einmal ins Gleichgewicht gebracht werden. Der andere Grund ist, dass sie nicht proportional zur Störung sind, so dass die Ergebnisse keinen Sinn ergeben. Bei der Begrenzung auf geringer Störungen hat man immer noch den großen Term der Referenz-Temperatur, der nicht verschwindet. Kein Gleichgewicht kann erreicht werden“.

Mr. Stokes hat so ziemlich recht, wenn er sagt, dass im Jahre 1850 ein Temperatur-Gleichgewicht herrschte und dass daher zu jener Zeit die Temperatur von 287,5 K bereits die verschiedenen Variablen enthalten hatte, als da wären die 255 K Emissions-Temperatur, die 10 K Referenz-Sensitivität auf die natürlich auftretenden, nicht kondensierenden Treibhausgase im Jahre 1850 und die 22,5 K Rückkopplungs-Reaktion auf die 265 K Referenz-Temperatur.

Er hat auch recht, wenn er sagt, dass diese Variablen „nicht noch einmal ins Gleichgewicht gebracht werden müssen“. Aber, und das ist entscheidend, sie müssen berücksichtigt werden bei der Ableitung des korrekten System-Gain Factors von 287,5 / 265 und der daraus korrekten Chanreny-Sensitivität.

Die Klimatologie übersieht diese Werte, weil sie sich nicht bewusst ist, dass zu jedem gegebenen Zeitpunkt (wie 1850) Rückkopplungen auf die gesamte Referenz-Temperatur reagieren, die zu jener Zeit herrschte. Wie Luther schon sagte, sie können nicht anders.

Und Mr. Stokes hat auch recht mit seiner Aussage, dass die Variablen – unter welchen er wohl auch die Rückkopplungs-Reaktion erfasst hat – „nicht proportional zur Störung“ sind. Hier trifft er genau unseren Punkt. Die Rückkopplungs-Reaktion im Jahre 1850 war natürlich notwendigerweise und unvermeidlich proportional zu der gesamten 265 K Referenz-Temperatur, also der Summe der 255 K Emissions-Temperatur und der 10 K Referenz-Sensitivität auf die in jenem Jahr vorhandenen natürlichen Antriebe.

Aber die Klimatologie tut im Endeffekt so, als sei die gesamte Rückkopplungs-Reaktion im Jahre 1850 proportional allein zu der natürlichen Störung von 10 K der Referenz-Temperatur. Und da liegt der Fehler der Klimatologie. Das heißt, es ist der Grund, warum die Schätzung der Charney-Sensitivität und aller Gleichgewichts-Sensitivitäten – um das Dreifache zu hoch ist. Man hat einfach den Treibhausgasen die große Rückkopplungs-Reaktion zugeordnet, zu der es allein aus dem einfachen Grund kommt, weil die Sonne scheint.

Ja, man kann den System-Gain Factor ableiten als das Verhältnis der Sensitivitäten, genau wie wir sie ableiten können als das Verhältnis absoluter Temperaturen. Aber das erste Verfahren, also das der offiziellen Klimatologie, ist Gegenstand hoher Unsicherheit, während unser Verfahren ein Intervall der Charney-Sensitivität ergibt, welches sowohl genau als auch eng begrenzt ist. Wir haben für unser Verfahren jene vitalen Daten aus dem Jahr 1850 herangezogen, welche die Klimatologie so lange ignoriert hatte bei ihren Sensitivitäts-Berechnungen.

Um die Gleichgewichts-Temperatur abzuleiten, muss man die Referenz-Temperatur und entweder die Rückkopplungs-Reaktion oder den System-Gain Factor kennen. Aber wir wissen nicht und können unter keinen Umständen bestimmen, wie stark die Rückkopplungs-Reaktion ist, indem wir die individuellen Rückkopplungen summieren, wie es die Klimatologie derzeit versucht, weil es Rückkopplungen sind, welche der fast ausschließliche Grund für die Unsicherheit bei den Globale-Erwärmung-Prophezeiungen der offiziellen Klimatologie sind.

Keine Rückkopplung kann durch direkte Messungen quantifiziert werden. Auch kann uns keine Art der Beobachtung, sei diese nun gut aufgelöst, sorgfältig und ehrlich, zuverlässig und quantitativ unterscheiden zwischen verschiedenen individuellen Rückkopplungen oder sogar zwischen Rückkopplungen und den Antrieben, welche diese ausgelöst haben.

Die Klimatologie kann die Charney-Sensitivität nicht zuverlässig berechnen, weil sie nicht den Wert der Rückkopplungen kennen kann, obwohl man weiß, dass die Referenz-Sensitivität bei CO2-Verdoppelung 1,05 K beträgt, und weil sie den System-Gain Factor nicht kennt. Sie kennt nicht diese vitale Quantität, weil man die verfügbaren Informationen an einem Punkt verworfen hat – vor jedweder anthropogenen Intervention – für welche die Daten ziemlich präzise sind und woraus er direkt abgeleitet werden kann: dem Jahr 1850.

Die Daten von 1850 sind deswegen so gut belegt, weil die gesamte Gleichgewichts- und Referenz-Temperaturen in jenem Jahr um zwei Größenordnungen über die geringe Gleichgewichts- und Referenz-Sensitivität hinausgehen, welche die Grundlage für die bislang gescheiterten Bemühungen der Klimatologie sind, den System-Gain Factor genauer zu erfassen und damit die wahrscheinliche Größenordnung der zukünftigen globalen Erwärmung.

Wir kennen ziemlich genau den System-Gain Factor des Jahres 1850. Wir wissen auch, dass er sich nicht so sehr vom Wert des Jahres 2100 unterscheiden dürfte von 287,5 /265 oder 1,085 im Jahre 1850.

Woher wissen wir das? Wir wissen es, weil die anthropogene Referenz-Sensitivität des industriellen Zeitalters von lediglich 0,75 K im Zeitraum 1850 bis 2011 so übermäßig gering war im Vergleich zur 265 K Referenz-Temperatur, die bereits im Jahre 1850 präsent war. Das Klima hat sich einfach nicht ausreichend geändert, um eine massive Verschiebung des in jenem Jahr herrschenden Rückkopplungs-Regimes auszulösen.

Selbst wenn es zu einer solchen Verschiebung gekommen wäre, würden die zusätzlichen Rückkopplungen nicht allein auf unsere Störung der Emissions-Temperatur reagiert haben, sondern auf die gesamte Referenz-Temperatur. Den Großen Stillstand seit nunmehr fast 19 Jahren der globalen Temperatur bis zum Jahre 2015 hätte es dann nicht geben können.

Daher können wir ziemlich sicher davon ausgehen, dass die Charney-Sensitivität – d. h. die Gleichgewichts-Sensitivität bei CO2-Verdoppelung verglichen mit dem Jahr 2011 – sich nicht sehr stark von 1,15 K unterscheiden dürfte. Tatsächlich hat unser Statistik-Professor berechnet, nachdem er sich durch alle Zahlen in sorgfältigster Weise gegraben hatte, dass das korrigierte 95%-Vertrauensintervall der Charney-Sensitivität zwischen 1,09 und 1,23 K liegt, ein Intervall von lediglich einem Siebentel Kelvin. Man vergleiche das mit dem 3,2 K-Intervall der offiziellen Charney-Sensitivität mit einer Bandbreite von 1,5 bis 4,7 K.

Man beachte, dass wir die Charney-Sensitivität nur deswegen korrekt berechnen können, weil den System-Gain Factor bereits kannten. Wir kannten ihn, weil wir ihn aus den Daten ableiten konnten, welche die offizielle Klimatologie verwirft, weil sie Rückkopplungs-Reaktionen auf die gesamte Referenz-Temperatur nicht kennt und sich nur auf die willkürlich heraus gepickten Referenz-Sensitivitäten konzentriert.

Mr. Stokes sagt, dass die 255 K Referenz-Temperatur im Jahre 1850 „nicht verschwindet“. Genauer: Sie war damals präsent, ebenso wie die zusätzlichen 10 K Erwärmung, erzwungen durch die Gegenwart natürlicher, nicht kondensierender Treibhausgase in jenem Jahr. Wegen deren Vorhandensein sollte man sie berücksichtigen. Aber sie sind nicht berücksichtigt worden.

Da wir aus der Theorie sowie aus dem Block-Diagramm, dem Test-Schaltkreis von einem unserer Autoren und einem für uns in einem Regierungs-Laboratorium konstruierten mehr ausgeklügelten Test-Schaltkreis wissen, dass die im Jahre 1850 vorhandenen Rückkopplungen notgedrungen sich auf die gesamte, in jenem Jahr präsente Referenz-Temperatur ausgewirkt hatten, können wir sofort und mit ziemlicher Sicherheit aus jenem Jahr den System-Gain Factor und folglich die Charney-Sensitivität ableiten.

Wir brauchen dafür keine riesigen und kostspieligen Zirkulationsmodelle, falls alles, was man haben will, das Ausmaß der von uns verursachten Erwärmung ist.

Bemerkenswerterweise braucht man nicht einmal Rückkopplungen in die Berechnung eingehen lassen: Das Unterschreiten der Charney-Sensitivität, welches sich aus Ignoranz der Rückkopplung insgesamt ergibt, ist kaum größer als ein Zehntelgrad Kelvin.

Unserer Studie zufolge ist das also wirklich Game Over.

Link: https://wattsupwiththat.com/2019/06/08/feedback-is-not-the-big-enchilada/

Übersetzt von Chris Frey EIKE

*Anmerkung des Übersetzers: nach wie vor teile ich den Optimismus bzgl. „Game Over“ von Lord Monckton nicht. „Game Over“ ist erst, wenn das durch die Medien geht, egal was sonst passiert, und ich kann mir nicht vorstellen, dass das in absehbarer Zeit der Fall ist – schon deswegen nicht, weil viel zu viele Leute mit diesem Betrug viel zu viel Kasse machen.




Über einen Fehler bei der Bestimmung der Temperatur-Rückkopplung

Die Studie belegt, dass die offiziellen Schätzungen der Charney-Sensitivität – also die globale Erwärmung als Reaktion auf eine Verdoppelung der CO2-Konzentration – und damit auch die Schätzungen aller Gleichgewichts-Sensitivitäten sehr erheblich überschätzt sind. Sie belegt, dass die Charney-Sensitivität lediglich 1,15 (1,10; 1,25) K beträgt und dass daher selbst ohne Abschwächung die zu erwartende langsame und geringe globale Erwärmung insgesamt vorteilhaft ist, werden doch die Produktivität der Pflanzen und damit auch Ernteerträge gesteigert. Außerdem wird weltweit die Anzahl temperaturbedingter Todesfälle abnehmen, denn Kälte tötet viel mehr Menschen als Wärme.

Kurz gesagt, falls wir recht haben, ist die globale Erwärmung keineswegs problematisch, sondern insgesamt vorteilhaft. Wir haben die zugrunde liegende Theorie verifiziert mit Hilfe eines nationalen Laboratoriums ebenso wie mittels Durchführung einer empirischen Kampagne auf der Grundlage von zehn Schätzungen anthropogener Strahlungsantriebe und der beobachteten Erwärmung.

Wir begannen mit unseren Forschungen, als wir bemerkten, dass die beobachtete Erwärmung in den drei Jahrzehnten seit 1990 nur mit etwa einem Drittel der in jenem Jahr prophezeiten Rate vonstatten gegangen war; dass das IPCC nicht aufgrund dieser Beobachtung ihre Schätzungen der Charney-Sensitivität reduziert hat; und dass es immer noch eine Unsicherheit von ± 1,5 K bei dieser gibt. Letzteres zeigt die weiter bestehende Unsicherheit bzgl. der Temperatur-Reaktion auf Rückkopplungen, welche die Sensitivität ändern – hier vor allem die Wasserdampf-Rückkopplung.

Folglich konzentrierten wir unsere Untersuchungen auf die Frage der Rückkopplungen und befragten die führenden Experten in diesem Bereich. Einer von uns ist ein fest angestellter Professor der Kontroll-Theorie (also dem Bereich der Ingenieur-Physik, von der die Klimatologie die Mathematik der Rückkopplung entnommen hat), ein anderer ist Statistik-Professor. Unter unseren Mitautoren sind außerdem ein weltweit führender Experte der Stromindustrie, ein Physiker vom MIT, zwei Verfahrenstechniker (spezialisiert in der Anwendung von Rückkopplungs-Mathematik) und ein junger Umweltberater.

Wir kommen zu dem Ergebnis, dass die offizielle Klimatologie nicht einfach nur die Mathematik von Rückkopplungen nicht verstanden hat: sie hat Temperatur-Rückkopplungen falsch bestimmt und sie daher auch falsch angewendet. Im Endeffekt hat die offizielle Klimatologie nicht erkannt, dass derartige Rückkopplungen in einem dynamischen System wie dem Klima zu jeder Zeit wirken und dass diese nicht nur aufgrund irgendeiner willkürlich definierten Störung des Eingangssignals agieren (beim Klima setzt sich das Eingangssignal zusammen aus der Emissions-Temperatur, und die Störungen sind jene durch die Gegenwart natürlicher und anthropogener Treibhausgase), sondern auch auf das gesamte Referenz-Signal (beim Klima ist das Referenz-Signal die Summe von Emissionstemperatur und aller natürlichen und anthropogenen Störungen vor Berücksichtigung der Rückkopplungen).

Da die Emissionstemperatur 255 K, die natürliche Störung durch Treibhausgase 10 K und die anthropogene Störung etwa 1 K beträgt, ist die Rückkopplungs-Reaktion auf die anthropogene Erwärmung von 1 K nur ein sehr kleiner Bruchteil der Gesamt-Reaktion durch Rückkopplung auf die Referenz-Temperatur, welche die Summe dieser drei Größen ist. Und doch hat die Klimatologie die gesamte Rückkopplungs-Reaktion ausschließlich der minimalen anthropogenen Störung zugeordnet. Als Konsequenz daraus hat man sich vorgestellt, dass die Wirkung der die Sensitivität verändernden Rückkopplungen die Referenz-Sensitivität von 1,05 K bei CO2-Verdoppelung etwa um das Dreifache verändern wird, während die Rückkopplungs-Reaktion auf jene Referenz-Sensitivität in Wirklichkeit nur etwa 0,1 K beträgt. Damit lässt sich die Charney-Sensitivität auf lediglich 1,15 K schätzen, nachdem man die die Sensitivität verändernden Rückkopplungen berücksichtigt hat.

Eine weitere bedeutende Konsequenz unserer Forschungen ist, dass das Intervall der Charney-Sensitivitäten, das gegenwärtig um 1,5 K um die erheblich übertriebene mittlere Schätzung von 3,35 K schwankt, auf 0,05 bis 0,1 K auf jeder Seite der korrigierten mittleren Schätzung von 1,15 K reduziert. Da nahezu die gesamte Rückkopplungs-Reaktion im heutigen Klima die Reaktion auf die Emissionstemperatur und auf die von natürlich auftretenden Treibhausgasen getriebene Erwärmung ist, ist die Rückkopplungs-Reaktion auf die minimale anthropogene Störung so gering, dass es kaum Raum für die Unsicherheit gibt in der Schätzung der Charney-Sensitivität insgesamt oder damit der Gleichgewichts-Sensitivitäten allgemein.

Hinsichtlich der Abschwächungs-Ökonomie gibt es in jedem Falle eine bemerkenswert geringe Rechtfertigung für Maßnahmen – wenngleich aus hehren Motiven ergriffen – zur Abschwächung der globalen Erwärmung. Der Stern-Report 2006 führte als sein Worst-Case-Szenario eine imaginäre Erwärmung von 11 K im Verlauf des 21. Jahrhunderts an. Auf der Grundlage dieser beklagenswert stark übertriebenen Schätzung, die sogar noch über das ohnehin schon absurde RCP8.5-Szenario im jüngsten IPCC-Bericht hinausgeht, stellte sich Stern (obwohl er das nicht explizit erwähnte) eine Wahrscheinlichkeit von 10% vor, dass im Jahr 2100 das Ende der Welt herbeigekommen wäre. Dies beruhte auf jener falschen Grundlage, aus der Stern seinen künstlich niedrigen Diskontsatz von 1,4% pro Jahr (ebenfalls nicht explizit in seinem Report erwähnt) ableitete. Der normale Markt-Diskontsatz beträgt 5% bis 10% pro Jahr mit 7% als eine gute mittlere Schätzung. Falls Stern diese 7% auf das 21. Jahrhundert angewendet hätte, würden sich die Gesamtkosten des BIP bei Nichtstun bzgl. globaler Erwärmung von 3% auf lediglich 0,3% reduzieren.

Allerdings zeigt unsere eigene Forschung, dass die bis Ende dieses Jahrhunderts zu erwartende Erwärmung nicht 3 K, sondern wahrscheinlich 1 K betragen wird. Das bedeutet eine Erwärmungsrate von 0,1 K pro Dekade, was in sehr guter Übereinstimmung mit der Beobachtung steht. Und diese Rate ist viel zu gering, um überhaupt irgendwie schädlich zu sein. Tatsächlich ist die EU-Kommission selbst auf der Grundlage einer Erwärmung um 5,4 K schon bis zum Jahr 2080 durch eigene Forschungen zu dem Ergebnis gekommen, dass die vermiedenen Todesfälle durch eine geringere Anzahl von Kältewellen die Todesfälle durch zunehmende Hitzewellen weit überkompensiert. Kurz gesagt, die wirtschaftlichen ebenso wie die sozialen Vorteile, wenn man der Atmosphäre einen kleinen Bruchteil der Konzentration zurück gibt, welcher während der Zeit des Kambriums vorherrschend war, werden die (großenteils imaginären) Nachteile weit überkompensieren.

Wir erklären daher, dass unsere Ergebnisse zeigen, falls sie für korrekt befunden werden, dass es absolut keine Notwendigkeit gibt überhaupt irgendetwas zu tun, um die globale Erwärmung aus der Welt zu schaffen. Sie wird kaum schädlich sein und alles in allem nur Vorteile haben.

Wir würden es sehr begrüßen, wenn die Berater des Climate Change Committee mit größter Sorgfalt unsere Studie durcharbeiten würden. Die Studie ist ziemlich detailliert und zeigt akribisch genau jedes Stadium der Argumentation sowie Beweise Schritt für Schritt. Da unser Verfahren explizit und vollständig dokumentiert wird, sollte es jedermann mit dem nötigen wissenschaftlichen Hintergrundwissen möglich sein, unserer Argumentation zu folgen, und sehr gerne werden wir jedem assistieren, der unsere Ergebnisse noch besser zu verstehen wünscht. Wir hoffen, dass jene, die mit unserer Analyse nicht einverstanden sind, fair genug sind, uns ihre Gründe für die Ablehnung mitzuteilen, damit wir angemessen darauf reagieren können.

Wir folgern, dass es keine legitime wissenschaftliche Grundlage gibt hinsichtlich jedweder Bedenken bzgl. der globalen Erwärmung, und dass der ungeheuer komplexe und teure Maßnahmen-Katalog, um jene Erwärmung zu verhindern, drastisch übertrieben ist und eigentlich vollständig ad acta gelegt werden kann.

Obwohl man sich nicht die Mühe gemacht hat, mit aller Sorgfalt die Wissenschaft auf vernünftige Beine zustellen, hat UK sich selbst völlig unnötig einen enormen kommerziellen Nachteil verschafft im Vergleich zu anderen Ländern, die weniger geneigt sind, getrieben von mächtigen und üppig finanzierten Lobbygruppen in Panik zu geraten und Notfall-Maßnahmen zu ergreifen, die vollkommen unnötig sind. Ganze Industriezweige – Kohle-Erzeugung, Aluminium-Schmelze, Stahlindustrie und viele andere – sind oder werden demnächst zerschlagen oder nach Übersee vertrieben – ohne jede legitime wissenschaftliche oder ökonomische Rechtfertigung. Außerdem dürfte der globale „Kohlenstoff-Fußabdruck“ der Menschheit dadurch eher zu- als abnehmen – aber nicht, dass derartige „Fußabdrücke“ irgendeine Rolle spielen, wenn der physikalische Fehler der Klimatologie erst einmal korrigiert ist.

Die sehr kostspieligen und schädlichen Auswirkungen der Politik zur Abschwächung der globalen Erwärmung haben schon jetzt jedwede nachteilige Auswirkung der globalen Erwärmung selbst – so es solche überhaupt gibt – weit überkompensiert, und die kostspielige Einmischung totalitärer Elemente in den freien Markt unter dem Motto Save The Planet werden auch in Zukunft sehr viel Schaden anrichten, solange nicht eine rationalere wissenschaftliche, soziale und ökonomische Vorgehensweise übernommen wird.

Yours sincerely,

Viscount Monckton of Brenchley

Wer die Übersetzung überprüfen will:

ccc-evidence-2019-apr-29

——————————

Hier folgt noch die Kurzfassung der Studie mit den wesentlichen Graphiken. Die ganze Studie ist unten als Anhang beigefügt.

Klimatologen haben vergessen, dass die Sonne scheint

Es besteht kein Grund für Bedenken bzgl. des Klimas: über einen gravierenden physikalischen Fehler, welcher die ,Krise‘ erzeugte

Memorandum von Lord Christopher Monckton, Third Viscount of Brenchley

Gute Nachrichten! Es gibt keinen Grund für Klima-Bedenken. Eine grundlegende Studie von Klimaforschern, welche gegenwärtig den Begutachtungsprozess bei einem führenden Klima-Journal durchläuft, beweist, dass die globale Erwärmung bei einer CO2-Verdoppelung nicht 3,35 K betragen wird, wie es die Modellsimulationen hergeben, sondern lediglich 1,15 K (Abbildung 1). Klimawissenschaftler haben an einer entscheidenden Stelle ihrer Berechnungen einfach außen vor gelassen, dass die Sonne scheint. Dieser große physikalische Fehler ließ sie eine um das Dreifache zu hohe, vom Menschen verursachte globale Erwärmung prophezeien. Sie haben die aus der Ingenieurs-Physik abgeleitete Mathematik falsch verstanden. Korrigiert man diese Fehler, wird deutlich, dass die globale Erwärmung insgesamt vorteilhaft ist und auch künftig sein wird. Vorteile werden beispielsweise Steigerungen der Erntemenge sein (Abbildungen 2 und 3) sowie eine größere Widerstandskraft gegen Dürre infolge des CO2-Düngungseffektes. Bereits während der letzten Jahrzehnte hat die Biomasse grüner Pflanzen um 15% bis 30% zugenommen (Abbildung 4). Selbst mit der Erwärmung wird die Anzahl vermiedener Todesfälle durch Reduktion von Kälte über die Todesfälle durch Hitze hinausgehen (Abbildung 5). Es gibt keine wissenschaftliche Grundlage für die von den Klimatologen prophezeite Erwärmung um 34,35°C; 4,7°C (Abbildung 6) oder gar 10°C.

Klimatologen prophezeien, dass zwei Drittel der globalen Erwärmung nicht CO2, sondern einer zusätzliche Erwärmung durch „Temperatur-Rückkopplungen“ geschuldet sind. Allerdings hat man beim IPCC falsch interpretiert, dass die Reaktion erst bei einer Störung der Temperatur auftritt (IPCC 2013, S. 1450). Rückkopplungs-Prozesse reagieren auch auf die zuvor vorhandene Temperatur einschließlich der Emissions-Temperatur, und zwar aufgrund der Tatsache, dass die Sonne scheint. Dieser große und vitale Sonnenschein-Term durfte nicht bei der Berechnung unberücksichtigt bleiben – blieb er bemerkenswerterweise aber – als die Klimawissenschaftler ihre Rückkopplungs-Mathematik der Kontroll-Theorie entnahmen.

Im Jahre 1850 betrug die globale Referenz-Temperatur (vor Rückkopplungen) 265 K: das heißt, 255 K durch die Sonne und 10 K durch die vorindustriellen Treibhausgase. Die Gleichgewichts-Temperatur (nach Rückkopplungen) betrug 287,5 K (HadCRUT4). Die geschätzte direkte Erwärmung durch menschliche Treibhausgas-Emissionen von 1850 bis 2011 betrug 0,75 K vor Rückkopplungen (Grundlage: IPCC 2013, Tabelle SPM 5) oder 1,0 K nach Rückkopplungen.

Daher wäre der korrekte system-gain factor, also der Multiplikator, der die Temperatur-Rückkopplung berücksichtigt, nicht 3,3 K wie gegenwärtig von den Klimamodellen simuliert, sondern lediglich (287.5 + 1) / (265 + 0.75) oder 1,1. Die Rückkopplung lässt die Referenz-Erwärmung von 1,05°C bei CO2-Verdoppelung zunehmen, jedoch nicht um das Dreifache auf 3,35°C, wie es sich die Klimatologie fälschlich vorstellt. Nach Korrektur des Fehlers der Klimatologen lässt die Rückkopplung die Erwärmung um weniger als ein Drittel zunehmen auf einen überarbeiteten wert von lediglich 1,1 x 1,05 oder 1,15°C.

Sogar noch vor der Korrektur durch Einbeziehung der Emissions-Temperatur in die Berechnung geben die jüngsten IPCC-Schätzungen einen system-gain-factor von 1,0/0,75 oder 1,4°C Erwärmung bei CO2-Verdoppelung. Falls die Klimatologen erkannt hätten, dass Rückkopplungen auf die gesamte Referenz-Temperatur reagieren, hätten sie nicht mehr Erwärmung prophezeit als diese Werte.

Das Team verifizierte die Rückkopplungs-Reaktion auf die zuvor herrschende Temperatur einschließlich der Reaktion auf die vom Sonnenschein getriebene Emissions-Temperatur mittels eines Test-Schaltkreises, um Temperatur-Rückkopplungs-Prozesse nachzubilden. Ergebnisse eines zweiten derartigen Tests in einem regierungsamtlichen Laboratorium waren identisch mit den Ergebnissen des Teams, und zwar nach 23 von 23 Läufen.

Der Leitautor hat viele begutachtete Studien im Bereich Klima veröffentlicht. Er ist Träger der Meese-Noble Medal of Freedom, der CFACT Valiant-for-Truth Award und der Intelligence Medal of the Army of Colombia für seine Arbeiten bzgl. Klima. Seine Mitautoren sind ein Professor der Klimatologie, ein preislich ausgezeichneter Doktor der solaren Astrophysik am Harvard-Smithsonian Observatory, ein Professor der angewandten der Regelungs-Theorie aus Deutschland, ein emeritierter Statistik-Professor aus New York, ein junger Umweltberater, ein Experte der Industrie der globalen Stromversorgung, zwei Ingenieure der Regelungstechnik, sowie ein Doktor der Physik am MIT.

Abbildung 4: NASA-Satelliten zeigen eine substantielle Zunahme der Gesamt-Primärproduktivität von Bäumen und Pflanzen weltweit. Diese Zunahme kann fast ausschließlich dem zusätzlichen CO2 in der Atmosphäre zugeordnet werden und trägt bedeutend zur Verbesserung von Ernteerträgen weltweit bei.

Abbildung 5: (oben) excess-Todesfälle durch Hitze (rot) und vermiedene Todesfälle durch Kälte (grün) bis zum Jahr 2080 bei einer angenommenen globalen Erwärmung von 2,5 K; 3,9 K; 4,1 K und 5,4 K. (unten) Gesamtzahl der geretteten Leben in der EU bis zum Jahr 2080 unter den gleichen angenommenen Erwärmungen. Quelle: EU-Kommission

Abbildung 6: Die offiziell projizierte globale Erwärmung (rote Nadel) ist dreimal so hoch wie die beobachtete Erwärmung in der realen Welt (grüne Nadel). Sich überlappende Projektionen von IPCC (2013) und CMIP5 (Andrews et al. 2012) der globalen Erwärmung von 1850 bis 2011 (blaue Skala) als Reaktion auf eine CO2-Verdoppelung (dunkelrote Skala) sowie die Summe von beiden (schwarze Skala) gehen weit über das beobachtete Erwärmungs-Äquivalent von 0,75 K von 1850 bis 2011 hinaus (HadCRUT4). Die Schätzung der Charney-Sensitivität nach CMIP5 von 3,35 K impliziert eine anthropogene Erwärmung um 2,4 K bis zum Jahre 2011, also das Dreifache der Beobachtung. Das von Monckton of Brenchley et al. (2019) überarbeitete Intervall der Erwärmung (hellgrüne Region) ist konsistent mit der beobachteten Erwärmung bis zum Jahre 2011. Es war diese dreifache Diskrepanz zwischen übertriebener Prophezeiung und beobachteter Realität – eine Diskrepanz, die aus irgendwelchen Gründen nirgendwo Erwähnung findet – hat das Team veranlasst, die Gründe zu erforschen, warum Klimamodelle viel zu viel globale Erwärmung simulieren.

Übersetzt von Chris Frey EIKE

nature-summ

——————————

Und hier die ganze Studie:

feedback