1

Kritische Betrachtung der Gegen­strahlung, ihre Messung und ihre Bedeutung in der Treibhaus­hypothese der aktuellen Klima­wissenschaft

Die Modellierung von Kiehl und Trenberth 1997 wirft aber auch zahlreiche Fragen auf. Es gibt doch deutliche Abweichungen zwischen den Satelliten Messwerten und dem vom Modell KT97 errechneten Werten. Diesen versuchten Trenberth, Fasullo und Kiehl 2009 1 entgegenzutreten. Hierbei wurde 2009 gleichzeitig der hypothetische Rechenwert der Gegenstrahlung auf 333 W/m² angehoben. Letzte Zweifel an ihrem Satellitenabgleich blieben wohl aber auch 2012 für Norman Loeb (NASA) bei seinem weltweiten Vergleich von 14 Instituten eingesetzten 22 CMIP5-/IPCC AR5 Klimamodellen bestehen. Norman Loeb schrieb: „In the present study, we do not only rely on satellite observations, but make extensive use of the information contained in radiation measurements taken from the Earth surface, to provide direct observational constraints also for the surface fluxes.” 2 Es wurde mit Pyranometer und Pyrheliometer gemessen. “…and the diffuse shortwave flux (measured with a shaded pyranometer). A pyranometer measures the total incoming solar radiation in the wavelengths between 0.3 and 2.8 µm. Datasets from both measurement methods are used in this study.” Die Gegenstrahlung der neuen CMIP5-Modellgeneration beträgt 2012 342 W/m² 4 im Gegensatz zu 324 W/m² bei KT97.

Es ist deshalb erforderlich, die Technik der Messung der Gegenstrahlung dieser Geräte genauer zu betrachten. Der nun folgende Teil entstammt Kapitel 4.24 „Die Strahlungsmessung der Gegenstrahlung“ aus, Agerius, 2021, Kritischer Analyse zur globalen Klimatheorie – Erweiterung, Vertiefung, Prognose, 2. überarbeitete Auflage, Hamburg, ISBN 978-3-347-24749-9. 16

Bevor man diese Messgeräte genauer betrachtet, die die Gegenstrahlung aus einem Algorithmus errechnen, müssen die Wellenlängen des Sonnenlichts, ihre Strahlenflussdichte und ihr Anteil an der Gesamtstrahlung hierzu betrachtet werden. Sie fließen in den Algorithmus ein.

Für einen mittleren Erdabstand von 1496 106 m und einer Solarkonstante von 1367 W/m² gilt:

Tabelle 6 Spektralverteilung der extraterrestrischen solaren Strahlung, gemäß der World Meteorological Organisation, WMO, 1986 3

Die Gegenstrahlung (Back Radiation) wird auch gelegentlich auch als thermische Wärmestrahlung bezeichnet. Sie wäre bezüglich ihrer Wellenlänge langwellig. Verschiedene Messinstrumente zur Messung von lang- und kurzwelliger Strahlung wie Pyranometer (Messung der kurzwelligen Strahlung von Sonne, Himmel und der vom Erdboden reflektierten Strahlung), Infrarot-Pyranometer (Messung von langwelliger Strahlung), Pyrheliometer, Pyrradiometer und Pyrgeometer4 wurden entwickelt. Ihre Bezeichnungen lehnen sich an den Göttinger Katalog didaktischer Modelle an.5 Diese Messinstrumente arbeiten mit folgenden physikalischen Grundlagen.

Tabelle 7 Strahlungsgrößen S0, S, H, R, G, Q und A in W/m² und weitere Parameter

Die solare Einstrahlung, Total Solar Irradiance (TSI) beträgt 1367 W/m². Die kurzwellige Strahlung der Sonne unterteilt sich in a) aus einem Anteil Sonnenstrahlung S = So sin φsonne mit φsonne, dem Winkel der Sonnenhöhe in Abhängigkeit vom Breitengrad, b) diffuse Himmelsstrahlung H aus der Streuung durch die Moleküle der Atmosphäre und c) kurzwellige Reflexstrahlung der Erdoberfläche Rkw. Hierbei ist εkw der mittlere Absorptionskoeffizient im kurzwelligen Bereich des Spektrums und a = (1-εkw) der hierzu gehörige Albedowert. S und H entstehen gemeinsam aus der Globalstrahlung G und mit Qkw, die den Saldo der kurzwelligen Strahlungsbilanz erfasst. Im Ausdruck G ist φsonne bereits berücksichtigt.

Nach KT97 im Mittel mit einer durchschnittlichen Global Mean Albedo ist a = 0.3129 und hierbei entsprechen die Pfeile analog der Richtung der Strahlung. Als Gleichgewicht an der obersten Atmosphärenschicht ergibt sich:

Übertragen für den Algorithmus der Messgeräte zur Gegenstrahlung A, aber als Gleichgewicht im Bereich des Aufstellungsortes des Messgerätes in Bodennähe: Hierbei befindet sich der Messkopf () des Messgerätes in der unteren Darstellung links in ca. 2m über der Wiese. G spezifiziert sich durch den betrachteten Wellenlängenbereich:

Darstellung 2: Algorithmus zur Ein- Ausstrahlung nach dem Göttinger Modell.

Die langwellige Strahlung „…ist vor allem eine terrestrische Strahlung, die von Emittern mit Temperaturen von unter 300K ausgeht. Es wird unterschieden zwischen: der Gegenstrahlung A […] der Ausstrahlung des Erdbodens E =εlw σTB4 …“ 6 7 Bei nichtmetallischen Leitern wird εlw zu 1. E und entspricht dann dem Begriff der Surface Radiation von KT97. Qlw ist der Saldo der langwelligen Strahlungsbilanz.

Qlw = A – σTB4 = A – E – Rlw

Qlw findet in der langwelligen Strahlung seine Analogie in der rechten Bildhälfte von FIG 7, KT97

Rlw = (1-εlw)

Rlw = 0 mit εlw = 1

„Als Strahlungsbilanz Q bezeichnet man die Summe von Qkw + Qlw.

Q = Qkw + Qlw = S + H – RkwBoden + A – E – Rlw = …8

Damit würde sich die Gegenstrahlung A ermitteln zu: A = Q + RkwBoden – G + E (d)

Beispiel 1:

Als Durchschnittswert für den Globus für den kurzwelligen Bereich nach Tabelle 6:

UV + sichtbares Licht errechnen sich zu 107.9 W/m² + 610.9 W/m² = 718.8W/m² = 719 W/m²

Man könnte danach als Messung der kurzwelligen Strahlung einen Wert von ca. 719 W/m² annehmen.

Der Albedogesamtwert sei a = 0,3129, nach KT97. Das Messergebnis für die AlbedoBoden sei für dieses Beispiel 0.135, siehe CLEAR SKY ALBEDO von ERBS als durchschnittlicher gemessener globaler Wert. T sei 14,80 °C und damit E = 390 W/m². Mit Rundung auf 0.5W/m² folgt:

G = S + H =

Rkw = AlbedoBoden (S +H) = 0.135 x 123.5W/m² = 17 W/m²

Qkw = S + H – Rkw = 123.5 W/m² – 17 W/m² = 106.5 W/m²

Qlw = A – σTB4 = A – E = 324W/m² – 390 W/m² = – 66W/m², A und E nach KT97 FiG. 7. rechte Bildhälfte

Q = Qkw + Qlw = 106.5W/m² – 66W/m² = 40.5 W/m²

A = Q + Rkw – G + E = 40.5 W/m² + 17 W/m² – 123.5W/m² + 390 W/m² = 324 W/m² = Gegenstrahlung

Beispiel 2:

Mit einem Messgerät waren auf einer Hamburger Wiese (54 Grad nördlicher Breite) nach Versuch 4, gemäß Göttinger Katalog didaktischer Modelle 9 nachfolgende Werte in W/m² ermittelt worden.

Global Strahlung S+H 104

Reflexstrahlung (Wiese) Rkw 20

kurzwellige Bilanz Qkw 84

atmosph. Gegenstrahlung A 320

langw. Emission E 357

langwellige Strahlungsbilanz Qlw -37

Gesamte Strahlungsbilanz Q 47

Temperatur T 8.50 °C

In Versuch 4 gemäß Göttinger Katalog ist für derartige Messgeräte ebenfalls ein üblicher Wertebereich für die kurzwellige Strahlung: 0.25 bis 3 µm angegeben. Da ein derartiges Gerät auch über 0.75µm misst, siehe Tabelle 6, reicht der Messbereich auch tief in den langwelligen infraroten Bereich hinein.

Betrachtet man den Albedoverlauf von 1985 -1990 an Satellitenbildern von ERBS (CEDA) über die geografische Breite, stellt man fest: Am Äquator hat die durchschnittliche Jahresalbedo, gemittelt über 12 Monate, ein Minimum (Wasser a = ca. 0.18 Land a = ca. 0.30). Zu den Wendekreisen steigt die Albedo aber deutlich an. Bei 54 Grad nördlicher und südlicher Breite erreicht die durchschnittliche Jahres Albedo einen Wert von ca. a = 0.40. Eine gemessene langwellige Emission von 357W/m² entspricht einer Temperatur von 8.50 °C (Hamburg). Dies ist auch die Jahres Durchschnittstemperatur für Hamburg aus 12 Monaten Tag- und Nachtmessung. Das Messgerät wurde gemäß Versuchsanordnung nicht auf eine Schneefläche im Winter, sondern auf einer Wiese vermutlich im Frühling, Sommer oder Herbst aufgestellt. Dies lässt bei einer Temperatur für 8.50 °C (Frühling, Sommer oder Herbst) vermuten, dass bei der Messung der Himmel bewölkt war. Die Durchschnittsalbedo (gemittelt aus sonnig und bewölkt gemittelt) müsste für eine vermutete reine Bewölkung einen etwas höheren Wert aufweisen. Ein entsprechender Albedowert für die Berücksichtigung sei nun a = 0.43.

AlbedoBoden = Rkw / (S +H) = 20 / 104 = 0.1923

RkwBoden = Albedo (S +H) = 0.1923 x 104W/m² = 20 W/m²

Qkw = S + H – RkwBoden = 104 W/m² – 20 W/m² = 84 W/m²

Qlw = A – σTB4 = A – E = 320W/m² – 357 W/m² = – 37W/m²

Q = Qkw + Qlw = 84W/m² – 37W/m² = 47 W/m²

A = Q + RkwBoden – G + E = 47 W/m² + 20W/m² – 104W/m² + 357 W/m² = 320 W/m²

Betrachtet man (d) zur Ermittlung der Gegenstrahlung, dann fällt aber auf:

Die Variablen S, H, der Ausdruck RkwBoden der Bodenalbedo und Variable E der Strahlung aus der Boden Temperatur kürzen sich weg. Die Gegenstrahlung A ist somit unabhängig von der kurzwelligen Strahlung und deren Variablen. Die Gleichung (d) ist bezüglich A beliebig. Aber A ist selbst beliebig, da A, die Gegenstrahlung, aus einer Null bei KT97 und Barkstorm entstanden war (Nachweis siehe Kap 4.10 Mathematischer Effekt in 16). Dadurch ist es möglich das Messergebnis der kurzwelligen Messung aus 1367W/m² beliebig zu multiplizieren z.B. 0.25 = ¼. Um in Beispiel 2 (Versuch 4 des Göttinger Katalogs) als Summe von Sonnenstrahlung S und diffuser Strahlung H mit 104W/m² erhalten zu können, ist vorab bereits der Treibhauseffekt durch den ¼ Strahlungsverteilungsansatz im Messgerät hinterlegt. Derartige Geräte messen aber auch den langwelligen Strahlungsbereich. Diese Messgeräte weisen die Gegenstrahlung, zuweilen auch als thermische atmosphärische Strahlung bezeichnet, dann langwellig aus.

Hierzu findet sich in der nachfolgende Herstellerangabe eines anderen Pyranometers, wörtlich: „Das CM22 Pyranometer ist mit einem Thermosensor ausgestattet. Dieser spricht auf die insgesamt aufgenommene Energie an und ist theoretisch nichtselektiv gegenüber der spektralen Verteilung der Strahlung. Dies hat zur Folge, dass der Sensor auch gegenüber langwelliger Infrarotstrahlung (Wärmestrahlung > 4000 nm) aus der Umgebung (z.B. des inneren Doms) empfindlich ist.“ 11 [Hervorhebungen hinzugefügt] Derartige Geräte unterliegen einer Normung und sind daher in sich ähnlich gebaut und vergleichbar.

Über 4000 nm bzw. 4µm würde der Präzision Pyranometer CM22 theoretisch nicht, eventuell praktisch schon selektiv, nicht nur Bereiche der von der Sonne eintreffenden Langwellen messen, sondern auch die Bereiche der Umgebungstemperatur. Wenn am Tag Teile der „langwelligen Infrarotstrahlung“ in die Messung eingehen ist dies bei einer nächtlichen Messung konsequenter Weise ebenfalls der Fall.

Welche Konsequenz hat dies im Beispiel 1?

Was wird vermutlich ein solches Gerät als Gegenstrahlung messen?

Aus 1367W/m² verbleiben für den langwelligen Anteil: 1367W/m² – 719 W/m² = 648W/m²

Gegenstrahlung A = 648 W/m² – E + Qlw = 648 W/m² – 390 W/m² + 66 W/m² = 324 W/m²

Damit entspricht der gemessene langwellige Teil genau der Gegenstrahlung!

Welche Konsequenz hat dies im Beispiel 2?

Aus 1367W/m² verbleiben für den langwelligen Anteil: 1367W/m² – 727 W/m² = 640W/m²

Was wird vermutlich das Gerät als Gegenstrahlung messen?

Gegenstrahlung A = 640 W/m² – E + Qlw = 640 W/m² – 357 W/m² + 37 W/m² = 320 W/m²

Auch hier entspreche der gemessene langwellige Teil genau der vom Messgerät ausgewiesenen Gegenstrahlung!

Woraus entsteht die langwellige Strahlung 390 W/m² in Beispiel 2?

Das Hamburger Messgerät der Gegenstrahlung aus dem in situ Versuch misst den kurzwelligen Anteil (0.25 bis 3µm) der Strahlungsflussdichte in W/m² der einfallenden Sonnenstrahlung. Welcher Teil aus dem gesamten einfallenden Sonnenspektrum verbleibt? Es ist der langwellige Bereich von 760nm – 106 nm. Er weist nach Tabelle 6 eine Strahlungsflussdichte von 648.2 W/m² auf.

In Beispiel 2 wird auch ein messbarer, langwelliger Anteil des Gerätes von (3µm bis 100µm) 12 ausgewiesen. Dieser Bereich von 3000nm – 105 nm des zum Himmel gerichteten Messgerätes erfasst aus vorhanden Spektrum von 760nm – 106 nm nur einen Teilbereich der von der Sonne eintreffenden Langwellen, bei 320 bis 324 W/m² (Gegenstrahlungsmesswerte) etwa die Hälfte der vorhandenen Strahlungsflussdichte von 648.2 W/m² Langwelle.

Hieraus folgt:

  1. Wenn der Treibhauseffekt, der durch eine angebliche, hypothetische Gegenstrahlung entsteht, bereits im Messgerät hinterlegt ist, dann kann mit diesem Messgerät der Treibhauseffekt nicht bewiesen werden. (Zirkelschluss)

  2. Die Analyse der Grundlagen der Strahlungsmessgrößen in Verbindung mit dem Treibhauseffekt von 33K, nach der Studie KT97, in Verbindung mit einer Auswertung eines in situ Versuches in Anhang 4 von 16 lassen den folgenden Schluss zu: Ein großer langwelliger Bereich der auf der Erde eintreffenden Sonnenstrahlen wird stattdessen als langwellige Gegenstrahlung im Messgerät als Gegenstrahlung ausgewiesen.

  3. Die gemessene Gegenstrahlung stammt bei Messungen am Tag offensichtlich zu 100% direkt aus der Sonne, von ihrem langwelligen Anteil mit 648.2 W/m² (Tabelle 6, WMO 1986). Bei einer nächtlichen Messung ist anzunehmen, dass Teile der Umgebungstemperatur als Gegenstrahlung mit ausgewiesen werden.

Nach Rödel 13 kämen „ungefähr 60% bis 65% der am Boden empfangenen Gegenstrahlung aus der Schicht zwischen dem Boden und etwa 100m Höhe, d.h. aus einer Schicht, die kaum kälter als die Erdoberfläche selbst ist.“ Der Temperaturabfall nach der Internationalen Höhenformel beträgt 0.65 °C auf 100m Höhe. Auch diese Aussage macht die Ausweisung von Teilen der Umgebungstemperatur als Gegenstrahlung nachvollziehbar.

Ergebnis zur Messung der Gegenstrahlung:

Für den kurzwelligen Bereich ist im Algorithmus derartiger Messgeräte der Treibhauseffekt von KT97 über die ¼ Strahlungsverteilung hinterlegt. Wenn man die langwellige Umgebungstemperatur des Messgerätes gemeinsam mit erheblichen Teilen der langwelligen Sonnenstrahlung, ab 3µm oder 4µm, herstellerabhängig, als Gegenstrahlung bezeichnet und dann als solche ausweist, stammt die Back Radiation final direkt aus der Sonne und der Wärme des Messgerätes und nicht aus IR-aktiven, infrarot absorbierenden und emittierenden Molekülen, wie CO2, H2O, CH4,.. . Sogenannte Messgeräte zur Gegenstrahlung sind deshalb nicht in der Lage, diese zu beweisen.

Ergänzung:

Auch über verschiedene Integrationen (Polarkoordinaten / kartesische Koordinaten) kann nachgewiesen werden, dass die Gegenstrahlung des Treibhauseffektes auf einer falschen Strahlungsverteilung bereits bei B. Barkstorm beruht, Nachweise siehe Kapitel 5.1.2, 5.18 sowie Anhängen 1 bis 3 in 16. Bezüglich Net-Strahlung des ERBS Satelliten und ihre Berücksichtigung in der Modellierung, ihre Bedeutung und Interpretation wird in diesem Zusammenhang auf Kapitel 5.4.2 – 5.4.5 und Anhang 6-8 in 16 ausführlich eingegangen. In Kapitel 5 wurde ein neues Modell entwickelt und der Modellierung von KT97 entgegengestellt. KT97 wird als falsche Modellierungshypothese widerlegt. Der Autor folgt einem Wissenschaftsverständnis nach Karl Popper, siehe Kap. 1.14 16. Es sei erwähnt: Die Satelliten ERBS, TERRA und AQUA zeigen so im neuen Strahlungsmodell und mit einer neu abgeleiteten Atmosphärengleichung H = S0/2 (1-α) – LH – SH – Satm – σTe4 = 0, es gibt keine Strahlungsbehinderung durch eine Gegenstrahlung A, sichtbar in FIG. 8a und FIG. 8b ebenfalls in Verbindung mit Kap. 5.18 16. Auch unter geologischen Gesichtspunkten (snowball earth hypothesis) ist ein Treibhauseffekt nicht erfoderlich, Nachweis siehe Kapitel 9.7 und seinen Unterkapiteln in 16. Mit dieser neuen Atmosphärengleichung ergibt sich ein Strahlungsverteilungsfaktor von ½. Nach diesem kurzen Exkurs erfolgt die Rückkehr zum Göttinger Modell der Gegenstrahlungsmessung.

Angewendet auf Beispiel 2 ergeben sich folgende Rechenwerte:

Rkw = Albedo (S +H) = 0.1923 x 208W/m² = 40 W/m²

Qkw = S + H – Rkw = 208 W/m² – 40 W/m² = 168 W/m²

Qlw = A – σTB4 = A – E = 0W/m² – 390 W/m² = – 390W/m²

Q = Qkw + Qlw = 168W/m² – 390W/m² = -222 W/m²

A = Q + Rkw – G + E = -222 W/m² + 40 W/m² – 208 W/m² + 390 W/m² = 0 W/m²

Würde man in derartigen Messgeräten der Gegenstrahlung den internen Algorithmus, also die hinterlegten physikalischen Gleichungen, auf der nach dem Autor richtigeren Strahlungsverteilungsfaktor ½ abändern, würde das Messgerät auch einen Gegenstrahlungswert von 0 ausweisen. Es kann gezeigt werden, dass die Divergenzen im Modell von J. Kiehl und K.E. Trenberth 1997 und J. Kiehl, J. T. Fasullo, K.E. Trenberth 2009 und den Satellitenmesswerten mit einer anderen Modellierung auf kleiner gleich 2 W/m² verschwinden, siehe Kapitel 5.1.2 folgende Kapitel 5.17 und Anhang 7 und 8 16.

Zusammenfassung:

Die Gegenstrahlung ist eine reine Modellhypothese aber Basis der aktuellen IPCC-Klimamodelle. Sie kann nicht gemessen werden, da der Treibhauseffekt durch den zugrunde gelegten Algorithmus bereits voreingestellt ist. Dies ist ein klassischer Zirkelschluss, oder anders formuliert, die Aussage ist bereits selbst Voraussetzung des Nachweises. Die Falsifizierung von KT 97 in 14 widerlegt den Treibhauseffekt und ihre Gegenstrahlungshypothese – von etwa 300 W/m² und höher – mit mathematischen, physikalischen / thermodynamischen Nachweisen und mit einem CO2– Experiment unter Sonnenlicht.

1J. Kiehl, J. T. Fasullo, K.E. Trenberth, 2009, Earth´s Global Energy Budget, Bulletin of the American Meteorological Society, March 2009, S.311-316f und Doi:10.1175/2008BAMS2634.I.

2Loeb, Dutton, Wild et altera, 2012, The global energy balance from a surface perspective, published online 13 November 2012, Clim Dyn (2013) 40:3107-3134, Springer-Verlag, Doi: 10.1007/s00382-012-1569-8.

3Prof. Möllner, Detlev, (2003), Luft, Chemie Physik Biologie Reinhaltung Recht, Walter de Gruyter, New York, ISBN 3-11-016431-0, Tab 2.3, S.126.

4Nach Wikipedia: „Ein Pyrgeometer […] dient der Messung der aus dem Halbraum eintreffenden atmosphärischen Gegenstrahlung, …“ https:/de.m.wikipedia.org/wiki/Pyrgeometer Stand vom 11.07.2020.

6http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S1.

7Der Spektralchemiker, Dr. Heinz Hug vertritt hierzu den Standpunkt: „Ob man vom Stefan-Boltzmann ausgehen darf, darüber lässt sich streiten, denn Stefan-Boltzmann setzt Homogenität voraus. Eine Wasseroberfläche hat eine andere Stefan-Boltzmann-Emission als ein Wald, Steppe, Wüste, …“ Quelle aus persönlicher Korrespondenz mit Dr. Hug vom 10 Juli 2020.

8http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S2.

9http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S1.-S.8.

11Kipp & Zonen B.V. Delft, Niederlande, Bedienungsanleitung Precision Pyranometer CM 22, Version 0803 (2003), S.1bis S. 64, Kap 1.2 Physikalische Grundlagen des Pyranometers, S.8.

12http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S1.

13Prof. W. Roedel, Prof. Th. Wagner, 2011, Physik unserer Umwelt: Die Atmosphäre, 4 Auflage, 1. korrigierter Nachdruck, Springer Verlag, ISBN 978-3-642-15728-8, Kapitel 1 Strahlung und Energie in dem System Atmosphäre/ Erdoberfläche, S.48.

14

 




Wetterabhängige „erneuerbare“ Energie: wie machte sie sich 2020 in DE, UK und FR?

Diese drei großen Nationen: Deutschland, das Vereinigte Königreich und Frankreich (DE UK FR), stellen mehr als die Hälfte der wetterabhängigen, erneuerbaren Energieerzeugungsanlagen in Europa. Diese Nationen bedecken eine Fläche von etwa 1,1 Millionen Quadratkilometern, etwa ein Viertel der Landfläche der EU(27). Es erstreckt sich von 43°N bis 58°N und 6°W bis 13°E.

Ein Datensatz, der ihre stündliche und tägliche Stromerzeugung vom 1.12.2019 bis zum 31.11.2020 berücksichtigt, wird verwendet, um die vergleichende Leistung der Stromerzeugung in diesen drei Nationen zu untersuchen. Der Gesamtvergleich zwischen den kombinierten Erzeugungsanlagen und der von ihnen erzielten Stromleistung ist unten dargestellt.

Bemerkenswerte Punkte aus diesen Grafiken:

Die wetterabhängigen erneuerbaren Anlagen machten im Jahr 2020 etwa 60 % aller Erzeugungskapazitäten in DE UK FR aus und trugen nominell ~24 % der DE UK FR-Stromerzeugung bei.

17 % der installierten DE UK FR-Erzeugungstechnologien produzieren immer noch erhebliche CO2-Emissionen aus Kohle, Braunkohle, Biomasse und Erdgas, und diese CO2-emittierenden Erzeugungstechnologien sind weiterhin für ~33 % der DE UK FR-Stromerzeugung verantwortlich.

Der Einsatz dieser Kombination von CO2-emittierenden Technologien erzeugt mehr als das ~2,5-fache der CO2-Emissionen, die bei der alleinigen Verbrennung von Erdgas für die gleiche Stromleistung emittiert worden wären.

Die Kernenergie in DE UK FR produziert immer noch 35% des Stroms, auch wenn die 8GW dieser Kernenergie in Deutschland Anfang dieses Jahrzehnts endgültig abgeschaltet werden sollen.

Frankreich ist die vorherrschende Atomenergie und exportiert ~6GW seiner überschüssigen Energie in andere europäische Nationen.  Diese Empfängerländer sind zur Aufrechterhaltung ihrer Netzversorgung vollständig auf diese Energiezufuhr angewiesen.  Nichtsdestotrotz beabsichtigt Frankreich anscheinend, seine Kernenergieerzeugung zu reduzieren und durch wetterabhängige erneuerbare Energien zu ersetzen.

Gegenüberstellung der Stromerzeugung in diesen drei Nationen (DE, UK, FR):

Die folgenden Graphiken zeigen das Ausmaß der installierten Erzeugungs-Technologien und deren Niveau des produktiven Ergebnisses:

Bemerkenswerte Punkte aus diesen Graphiken:

Deutschland

Im Jahre 2020 machten wetterabhängige „Erneuerbare“ (Wind und Solar) 69,8% aller Installationen zur Stromerzeugung in Deutschland aus:

● In Deutschland haben die wetterabhängigen erneuerbaren Energien als Ergebnis der Energiewende-Politik inzwischen ~70% der gesamten installierten Erzeugungskapazität erreicht, aber diese wetterabhängigen erneuerbaren Energien tragen nur ~33% des jährlichen Stroms bei:

● Onshore-Windkraftproduktivität/Kapazität durchschnittlich seit 2008 18,9%

● Offshore-Windkraft Produktivität/Kapazität im Durchschnitt seit 2008 33,6%

● Solar-Photovoltaik Produktivität/Kapazität im Durchschnitt seit 2008 10,3%

● Kombinierte wetterabhängige erneuerbare Produktivität/Kapazität durchschnittlich seit 2008 15,3%.

● Die Stromerzeugung in Deutschland wird zu ~20% von CO2-emittierenden Anlagen getragen, die Steinkohle, Braunkohle, Biomasse und Erdgas verwenden, aber diese Technologien sind für 45% des erzeugten Stroms verantwortlich.

● Die CO2-Emissionen aus dieser Brennstoffkombination hätten auf mehr als ein Drittel reduziert werden können, wenn stattdessen ausschließlich Erdgas eingesetzt worden wäre.

● Deutschland verfügt immer noch über einen beträchtlichen Bestand an Kernkraftwerken, aber aufgrund einer politischen Entscheidung nach dem Reaktorunfall in Fukushima 2011 soll die Kernkrafterzeugung in Deutschland innerhalb weniger Jahre vollständig eingestellt werden.

● Deutschland hat seine Kohle- und Braunkohleverstromung in Erwartung der Schließung dieser nicht CO2-emittierenden Kernkraftwerke erhöht.  Es hat einige stillgelegte Kohlekraftwerke wieder in Betrieb genommen, da es erkannt hat, dass die Schließung dieser Grundlaststromerzeuger die Instabilität des Stromnetzes weiter erhöhen würde.

● 5% des deutschen Stroms wird durch Wasserkraft mit begrenzter Pumpspeicherung erzeugt.

● Deutschland hat trotz seiner Energiewende-Politik“ immer noch die höchsten CO2-Emissionen/Kopf in Europa mit ~8,38 Tonnen/Kopf.

● Deutschland ist für ~4% seines Stroms auf Transfers aus Frankreich und anderen europäischen Ländern angewiesen.  Gelegentlich produzieren Deutschlands Erneuerbare Energien im Vergleich zum Bedarf zu viel und dieser überschüssige Strom muss abgenommen oder zu negativen Preisen ins Ausland verkauft werden.

● Deutschland hat neben Dänemark (das ebenfalls stark auf Windenergie setzt) die höchsten Strompreise in der entwickelten Welt.

[Eine deutsch-sprachige Website, in welcher der gesamte gefährliche Unsinn aller Aspekte bzgl. „Energiewende“ angesprochen wird, ist diese hier. Die Lektüre wird DRINGEND EMPFOHLEN! Schon Pierre Gosselin hat auf seiner Website am 13. April hier darauf hingewiesen. Titel seines Beitrags {übersetzt}: „Deutschlands Kohle-Ausstieg … dauerte nur 8 Tage“. A. d. Übers.]

UK

Im Jahr 2020 machen die wetterabhängigen erneuerbaren Energien (Wind- und Solarenergie) 58 % aller Stromerzeugungsanlagen in Großbritannien aus.

Die wetterabhängigen erneuerbaren Anlagen in Großbritannien machen jetzt ~58% der gesamten installierten Erzeugungskapazität aus, produzieren aber nur 26% des Stroms:

– Onshore-Windkraftproduktivität/Kapazität im Durchschnitt seit 2008 25,6%

– Offshore-Windkraft Produktivität/Kapazität im Durchschnitt seit 2008 32,2

– Solar-Photovoltaik Produktivität/Kapazität im Durchschnitt seit 2008 9,6%

– Kombinierte wetterabhängige erneuerbare Energien Produktivität/Kapazität im Durchschnitt seit 2008 21,9%.

● Großbritannien hat sich stark für die Offshore-Windenergie engagiert und stößt auf erheblichen lokalen Widerstand gegen weitere Onshore-Windanlagen.

● Die Stromerzeugung in Großbritannien wird zu ~46% von CO2-emittierender Erzeugung aus Erdgas und Biomasse getragen: Die britischen CO2-Emissionen aus Biomasse, hauptsächlich aus den Drax-Kraftwerken (die hauptsächlich aus Amerika importierte Holzspäne verbrennen), heben diese CO2-Emissionen effektiv alle CO2-Einsparungen aus der Nutzung aller anderen wetterabhängigen erneuerbaren Energien auf.

Die widersprüchliche Grün-Politik zur Begrenzung von CO2-Emissionen

● Großbritannien hat immer noch eine alternde Flotte von Kernkraftwerken, von denen die meisten in diesem Jahrzehnt geschlossen werden. Einige Ersatzanlagen sind in Vorbereitung, wobei Hinkley Point im Jahr 2023 in Betrieb genommen werden soll: Es gibt immer noch keine britische Verpflichtung zur Installation von lokalen kleinen modularen Reaktoren, die in Großbritannien hergestellt werden könnten.

Aufgrund der geografischen Beschränkungen in Großbritannien werden nur ~5% des britischen Stroms durch Wasserkraft erzeugt, es gibt einige begrenzte Pumpspeicher.

Als Ergebnis der früheren britischen „Dash for Gas“-Politik hat Großbritannien seine CO2-Emissionen / Kopf seit den 1990er Jahren auf unter den europäischen Durchschnitt von 5,46 Tonnen/Kopf im Jahr 2019 gesenkt.

● Großbritannien ist für ~8% seines Stroms von anderen europäischen Ländern, hauptsächlich Frankreich, abhängig.

Das Vereinigte Königreich hat praktisch keine Arbeitsspanne für die gesamte Stromerzeugung.

● Die Abhängigkeit Großbritanniens von Stromimporten sollte als existenzieller nationaler Notstand betrachtet werden.

Frankreich

Im Jahr 2020 machten die wetterabhängigen erneuerbaren Energien (Wind- und Sonnenenergie) 31,7 % aller Stromerzeugungsanlagen in Frankreich aus.  Zusammen trugen sie etwa 9,6 % der erzeugten Energie bei einem Produktivitäts-/Kapazitätsanteil von 18,3 % bei.

● die französischen wetterabhängigen erneuerbaren Anlagen machen jetzt 37% der installierten Erzeugungskapazität aus, aber sie tragen nur ~11% zur Stromerzeugung bei:

– Onshore-Windkraft Produktivität/Kapazität seit 2008 21,5%

– Produktivität/Kapazität der Solar-Photovoltaik seit 2008 12,2%

– Kombinierte wetterabhängige erneuerbare Produktivität/Kapazität seit 2008 18,2%

● Frankreich hat keine Offshore-Windkraftanlagen installiert.

● Die französische Stromerzeugung hat eine begrenzte CO2-emittierende Erzeugung aus Biomasse und Erdgas, die nur etwa 6 % der Stromerzeugung ausmacht.

● Frankreich verfügt immer noch über eine große, aber inzwischen veraltete Flotte von Kernkraftwerken, die als Reaktion auf den Ölpreisschock der 1970er Jahre nach und nach installiert wurden.

● Es gibt immer noch keine große Verpflichtung, sie zu ersetzen, aber die aktuelle Politik scheint zu sein, die erfolgreiche französische Kernkraftwerksflotte von derzeit 75%+ auf ~50% der französischen Stromerzeugung zu reduzieren.

● Diese Flottenreduzierung würde natürlich die derzeitige Fähigkeit Frankreichs einschränken, seine überschüssige Energie nach Übersee zu liefern, insbesondere nach Großbritannien und Deutschland.

● Großbritannien ist für ~8% seines Stroms von Frankreich und anderen europäischen Ländern abhängig.

Das Vereinigte Königreich hat praktisch keine Betriebsmarge für die Stromerzeugung insgesamt diese Importabhängigkeit sollte als existenzieller nationaler Notfall betrachtet werden, insbesondere seit dem Brexit.

[Hervorhebung im Original]

● Darüber hinaus stammen ~14 % des französischen Stroms aus Wasserkraft mit einigen begrenzten Pumpspeichern.

● Als Ergebnis der früheren langfristigen französischen Kernenergiepolitik hat Frankreich seit dem Ölpreisschock in den 1970er Jahren seine CO2-Emissionen / Kopf auf unter den globalen Durchschnitt von 4,26 Tonnen/Kopf gesenkt:  Frankreich hat damit die niedrigsten Emissionen/Kopf aller entwickelten Nationen.

● Frankreich hat jetzt die niedrigsten Strompreise in Europa.

DE UK FR: Wetterabhängige Erneuerbare Energien Fortschritt und Produktivität / Kapazität

Der Installations- und Leistungsfortschritt der wetterabhängigen erneuerbaren Energien in DE UK FR seit 2008 ist unten dargestellt:

Die konsequente Historie der wetterabhängigen Produktivität/Kapazität von DE UK FR ist unten dargestellt: Im Wesentlichen gab es seit 2008 nur einen marginalen Produktivitätsfortschritt und insgesamt bleibt sie in der Größenordnung von 20%, (1 Tag von 5 insgesamt).

Die gemessenen jährlichen wetterabhängigen erneuerbaren Produktivitäts-/Kapazitätsprozentsätze für die wichtigsten europäischen Befürworter von sind unten dargestellt:

Mit anderen Worten: Die wetterabhängigen erneuerbaren Energien produzieren im Laufe eines Jahres etwa ein Fünftel ihrer Nennleistung, und dieses Produktivitäts-/Kapazitätsniveau hat sich seit 2008 nur wenig verbessert.

Die konstant schlechte Leistung ist in Italien zu finden, wo es ein Übergewicht an Solar-PV-Anlagen gibt.  Spanien (wo zuvor in betrügerischer Absicht Solarstrom in der Nacht erzeugt wurde) verfügte größtenteils über Onshore-Windkraftanlagen, aber Spanien hat kürzlich ein weiteres großes Solarstrom-Engagement hinzugefügt, und dementsprechend ist die zuvor hohe Produktivität Spaniens abrupt gesunken.  Die Produktivität Großbritanniens wird durch den hohen Anteil an Offshore-Windkraft gestützt.  Der hohe Anteil an Solarenergie in Deutschland hat deren schlechte Produktivität aufrechterhalten:  Deutschland und UK sind die dunkelsten und wolkenreichsten Nationen in Europa.

Dieser Beitrag ist eine Aktualisierung der Informationen aus diesem Beitrag von 2019.

Die Leistung wetterabhängiger „Erneuerbarer“ in DE, UK, FR

Das obige Diagramm zeigt die Brutto-Variabilität auf Tagesbasis der Leistung aus wetterabhängigen erneuerbaren Energien in den DE UK FR Nationen. Es zeigt umfassend:

dass die Variabilität der kombinierten Windleistung, die durch wechselnde Wettermuster im Laufe des Jahres beeinflusst wird und von ~5 % der täglichen Erzeugung bis zu mehr als 30 % reicht.

● Obwohl die Gebiete geografisch unterschiedlich sind, gibt es das ganze Jahr über eine tägliche Koordination zwischen Onshore- und Offshore-Winderzeugung.

● In den Wintermonaten von Oktober bis März ist die Solar-PV-Produktion minimal.

● Auch in den produktiveren Sommermonaten kann es zu erheblichen Leistungsschwankungen der PV-Leistung von einem Tag auf den anderen kommen.

Es gibt eine sinnvolle Abstimmung zwischen der Windkraft mit geringerer Produktivität in den Sommermonaten und der höheren Solar-PV-Produktivität im Sommer. Dabei wird natürlich die Tatsache ignoriert, dass die PV-Produktivität in den Abendstunden zu Zeiten höherer Nachfrage schnell abfällt.

Allerdings wird das wahre Ausmaß der Intermittenz und der Variabilität der wetterabhängigen erneuerbaren Energien erst dann deutlich, wenn die Leistung auf Stundenbasis oder mikt noch größerer Auflösung bewertet wird.

Kombinierte stündliche Stromleistung Deutschland, Großbritannien und Frankreich

Der große Bereich der wetterabhängigen Leistungsabgabe ist unten deutlich zu erkennen. Darüber hinaus ist auch die sprunghafte Natur der Leistungsänderungen offensichtlich. Im Allgemeinen gibt es eine konsistente Koordination zwischen Onshore- und Offshore-Windleistung. Die rasante Änderungsgeschwindigkeit der Leistungsabgabe schafft massive Steuerungsprobleme für diejenigen, die für die Aufrechterhaltung der notwendigen gleichbleibenden Qualität des elektrischen Netzes verantwortlich sind. Europaweite Windflauten sind im Jahresverlauf in unterschiedlichem Ausmaß zu beobachten.

Man könnte meinen, dass die Kombination der Windkraftleistung in den drei Nationen DE UK FR die Variabilität der wetterabhängigen erneuerbaren Energien glättet, aber die Daten einiger ausgewählter Monate im Jahr 2020 zeigen, dass die Behauptung, dass „der Wind immer irgendwo weht“, ein Trugschluss ist. Ein statisches windarmes Hochdruckgebiet kann durchaus Großbritannien und den nahen Kontinent für längere Zeiträume zu jeder Jahreszeit umfassen.

Die folgenden Diagramme für die ausgewählten Monate Januar, April, Juli und Oktober zeigen die wetterabhängige erneuerbare Energieerzeugung als Prozentsatz der Gesamtstromerzeugung für diese Monate. Sie verdeutlichen die der Wetterabhängigkeit innewohnende Unbeständigkeit und Variabilität.

Januar 2020

In diesem Wintermonat mit der höchsten Nachfrage gab es eine schlechte Windkraftleistung, besonders vom 20. bis 25. Januar.  Die PV-Solarenergie lieferte nur sehr wenig und sehr unregelmäßig Strom, mit schlechter Solarversorgung in den Abendstunden, der Zeit des Spitzenbedarfs:

April 2020

Der Beitrag der Photovoltaik steigt zu Beginn des Monats an, aber es gab bemerkenswerte Einbrüche bei der Windkraft vom 7. bis 12. April und vom 23. bis 28. April:

Juli 2020

Der Beitrag der Photovoltaik war signifikant, wenn auch unregelmäßig, und lieferte in Spitzenzeiten mehr als 30 % der gesamten Stromerzeugung.  Zu den Spitzenlastzeiten am Abend fällt er jedoch auf Null ab.

Im Juli 2020 gab es eine lange Periode mit einem signifikanten Mangel an Windenergie vom 7. bis 24. Juli.  An 16 Tagen im Juli 2020 fiel die installierte Windkraftleistung, die 40 % der Stromerzeugung von DE UK FR ausmacht, auf unter 10 % der gesamten Stromerzeugung in der Region.

Oktober 2020

Die Abnahme der Solar-PV-Leistung ist mit dem Fortschreiten des Herbstes zu erkennen. Die Windkraft ist produktiver, aber auch hier gab es zwei kürzere Zeiträume von jeweils zwei Tagen, in denen die Leistung auf weniger als 10 % der gesamten DE UK FR-Erzeugung fiel

Die Wetterabhängigkeit führt zu Intermittenz und Variabilität

Windenergie

Bei starkem Starkwind muss die Windleistung gedrosselt werden, um die Anlagen vor Schäden zu schützen.  Das Ausmaß der sehr ausgeprägten Windschwäche in allen Gebieten von DE UK FR im Juli 2020 ist in den unten aufgezeichneten stündlichen Daten dargestellt:

Die Windkraftleistung wird häufig auch durch geringe Windgeschwindigkeiten begrenzt. Unter Verwendung der Leistungsabgabe von Windgeneratoren als Stellvertreter für die Windgeschwindigkeit und damit die wahrscheinliche Einschränkung der Leistung erneuerbarer Energien zeigt die folgende Grafik die Zeiten wahrscheinlicher Übergeschwindigkeits-Einschränkungen und Perioden geringer Produktivität aufgrund niedriger Windgeschwindigkeiten auf stündlicher Basis.

Obwohl Speicherlösungen wie z. B. Batterien in der Lage sein könnten, solche Unterbrechungen zu bekämpfen, sollte beachtet werden, dass die anscheinend massive Batteriespeicherkapazität, die in Südaustralien zu Kosten von ~US$130 Millionen installiert wurde, das südaustralische Netz für seine 1,7 Millionen Einwohner für etwa 10 Minuten aufrechterhalten kann. Eine Batteriespeicherung in einer Größenordnung, die notwendig ist, um den Stromverbraucher von DE UK FR zu unterstützen, egal zu welchen Kosten, könnte also eine Winschwäche von etwa 10 Tagen, wie sie im Juli 2020 auftrat, nicht ausgleichen.

Solarenergie

Ein direkter Solar-PV-Vergleich für einige Wintertage mit einer äquivalenten Sommer-Sechs-Tage-Leistung zeigt, dass die Solar-PV-Energie im Winter etwa 1/6 der Leistung des Sommers liefert und wie groß die Dunkelperioden im nördlichen Winter sind. Entscheidend ist auch, dass selbst im Sommer der Abfall der Solarenergie in den Abendstunden erheblich ist und dass nachts überhaupt keine Produktion stattfindet.  Außerdem kann es im Sommer um die Mittagszeit zu einer erheblichen Überproduktion kommen, die gedrosselt oder zu einem negativen Preis an die Nachbarländer verkauft wird und somit verloren geht, wenn sie den Strombedarf übersteigt.

Es scheint, dass die Befürworter und die staatlichen Auftraggeber von Subventionen für erneuerbare Energien, insbesondere für die Photovoltaik in Europa, Folgendes ignorieren:

Die jährliche Produktivität/Kapazitätsprozent von Solar-PV in Europa bleibt hartnäckig bei nur etwa 10%.

Die „Entenkurve“ der Solar-PV-Produktion bedeutet, dass die Solar-PV-Produktion normalerweise am Abend abfällt, genau zu der Zeit, in der die Nachfrage wahrscheinlich am höchsten ist.

Die Solar-PV-Energieproduktion nimmt vom Sommer zum Winter mindestens um das 6-fache ab. Der Winter ist die Zeit der höheren Nachfrage

Nordeuropa, insbesondere Großbritannien und Deutschland, sind wolkenreiche Regionen. An anderen Standorten, wie z. B. in Kalifornien, kann die Solarproduktivität um weitere 50 % gesteigert werden, um bis zu 15 % jährliche Produktivität/Kapazitätsanteil zu erreichen.

Conclusions

Ein hervorragender Weg, die westlichen Volkswirtschaften zu untergraben, ist es, ihre Energieerzeugung unzuverlässig und teuer zu machen.  Dieses Ziel des grünen Denkens wird nach und nach durch die Regierungspolitik in der gesamten westlichen Welt erreicht, allerdings ohne Auftrag der Bevölkerung.

Der Anteil der wetterabhängigen erneuerbaren Energien an der Stromerzeugungsflotte der drei Länder beträgt jetzt ~60 %, in Deutschland jedoch 70 % und in Frankreich deutlich weniger.

● Diese DE UK FR wetterabhängigen erneuerbaren Energien haben eine Gesamtproduktivität/Kapazitätsanteil von weniger als 20%.

● Mit einem so hohen Anteil an wetterabhängigen erneuerbaren Energien und der fortschreitenden Eliminierung von Grundlaststromerzeugern geraten sowohl Großbritannien als auch Deutschland in Gefahr, da ihre Stromnetze aufgrund des Mangels an Grundlaststrom zunehmend anfällig werden.

Wenn die Ziele der Verwendung von wetterabhängigen erneuerbaren Energien nicht mit möglicherweise „Rettung des Planeten“ vermengt würden und der Anteil der CO2-Emissionen (für die Stromerzeugung, weniger als 25% von 1,1%, das Vereinigte Königreich 2019 Anteil der anthropogenen globalen CO2-Emissionen), so gering wäre, würden wetterabhängige erneuerbare Energien hinsichtlich ihrer tatsächlichen Kosten, In-Effektivität und ihrer inhärente Unzuverlässigkeit immer von jeder technischen Berücksichtigung als Mittel der nationalen Maßstab Stromerzeugung ausgeschlossen werden.

Der jährliche Ausstoß von CO2-Emissionen in Großbritannien wird allein durch das jährliche Wachstum der CO2-Emissionen in China und den Entwicklungsländern weit übertroffen.  Es ist wichtig, sich die Frage zu stellen, welchen tatsächlichen Wert diese von der westlichen Regierung angeordneten Mehrausgaben für die Verbesserung der Umwelt und für die Möglichkeit haben, einen praktisch nicht nachweisbaren Temperaturanstieg bis zum Ende des Jahrhunderts zu verhindern, insbesondere in einem Kontext, in dem die Entwicklungsländer ihre CO2-Emissionen erhöhen werden, um ihren Lebensstandard in den kommenden Jahrzehnten weiter zu verbessern.

(Hier)

(Hier. Es gibt keinen Klima-Notstand)

Der Zusammenhang der Jahre 2020 – 2021

Trotz all der lauten Klimapropaganda der letzten 30 Jahre stand die Welt im Frühjahr 2020 vor einem anderen, aber sehr realen wirtschaftlichen Notfall als den Reaktionen auf die COVID-19-Viruspandemie.

Dieser Notfall, bei dem die Welt mit dem Verlust vieler Bürger sowie einem globalen wirtschaftlichen Zusammenbruch konfrontiert ist, sollte die vergeblichen, selbstschädigenden und kostspieligen, von der Regierung verordneten Versuche, das zukünftige Klima zu kontrollieren, in eine starke Perspektive rücken.  Dieser reale Notfall zeigt deutlich, wie irrelevant Sorgen über einen wahrscheinlich folgenlosen „Klimawandel“ in einer fernen Zukunft wirklich sind.

Datenquellen:

  • For the progress and scale of EU(28) installations by the end of 2019, EurObserver’ER publish their Renewable Energy “Barometers” for each type of Renewable generation annually, as yet unavailable for 2020, for an example see: www.EurObservER-Wind-Energy-Barometer-2020.pdf

Link: https://wattsupwiththat.com/2021/05/07/weather-dependent-renewable-power-performance-in-europe-de-uk-fr-2020/

Übersetzt von Chris Frey EIKE

 




Warum „Grüne Energie“ keine „saubere Energie“ ist – und schon gar nicht fossile Treibstoffe ersetzen kann

Aber jetzt hat Präsident Biden seine eigene Version. Er kündigte im März seinen „Energy Efficiency and Clean Electricity Standard“ an. Die Washington Post berichtete, er würde „im Turbo-Gang den Übergang des Landes weg von fossilen Treibstoffen auf den Weg bringen, mit den enormen Ressourcen der US-Bundesregierung, um in Strommärkte eingreifen. Er würde den Ausbau von Wind und Solar fördern, ebenso wie technologische Durchbrüche in saubere Energie“.

Dies wird uns angeblich vor dem bewahren, was Biden die „existenzielle Bedrohung“ des Klimawandels nennt.

Wetten Sie nicht darauf. Bereits im Januar sagte Bidens eigener „Sonderbeauftragter des Präsidenten für das Klima“, der ehemalige Senator John Kerry: „Wir könnten morgen auf Null [Kohlendioxid-Emissionen] gehen und das Problem ist nicht gelöst.“ Ende April sagte er das Gleiche – nur noch mehr: „Wenn China morgen zusammen mit den Vereinigten Staaten auf Null gehen würde, hätten wir immer noch ein Problem.“

Lassen wir einmal beiseite, ob der Klimawandel eine existenzielle Bedrohung ist. Lassen Sie uns einfach diese Frage beantworten: Ist die „saubere Energie“, die Bidens Plan fördert, wirklich sauber? Ist sie besser für Mensch und Umwelt als die Energie, die sie ersetzen soll?

Um das zu beantworten, müssen wir zunächst definieren, was in dieser Diskussion mit „sauber“ gemeint ist, und dann müssen wir fragen, wie gut „grüne Energie“ diese Definition erfüllt.

„Saubere Energie“ bedeutete früher Energie, deren Produktion unsere Luft und unser Wasser nicht mit giftigen Dämpfen, giftigen Flüssigkeiten und Ruß füllte. Vom späten 19. bis zur Mitte des 20. Jahrhunderts waren solche Emissionen, vor allem aus Kohlekraftwerken, ein ernsthaftes Problem – obwohl der Schaden, den sie der Gesundheit der Amerikaner zufügten, durch die Vorteile, die die Energie für den Rest unserer Wirtschaft brachte, mehr als ausgeglichen wurde, wie unsere stetig steigende Lebenserwartung beweist.

Seitdem haben bessere Verfahren diese Emissionen so weit reduziert, dass sie kaum noch ein Risiko für unsere Gesundheit darstellen. Man würde es aus den Medienberichten über die amerikanische Luftqualität nicht vermuten, aber sie hat sich seit über fünfzig Jahren verbessert.

Vor dreißig Jahren konnte ich in meinem Buch Prospects for Growth: A Biblical View of Population, Resources, and the Future schreiben:

„Von 1976 bis 1986 sanken die durchschnittlichen Kohlenmonoxidwerte an den Messstationen um 36 Prozent, die Ozonwerte um 20 Prozent, die Schwefeldioxidwerte um 40 Prozent, die Gesamt-Schwebstaubwerte um 24 Prozent, die Stickstoffdioxidwerte um 11 Prozent und die Bleiwerte um 80 Prozent.“

Diese Trends haben sich fortgesetzt. Die EPA berichtete letztes Jahr: „Zwischen 1970 und 2019 sind die kombinierten Emissionen von Kriterien und Vorläuferschadstoffen um 77 Prozent gesunken, während die US-Wirtschaft um 285 Prozent gewachsen ist.“

Nun, Bidens Plan konzentriert sich in erster Linie nicht auf solche traditionell verstandenen Schadstoffe, sondern auf Kohlendioxid, weil es angeblich eine katastrophale globale Erwärmung verursacht. Energiequellen, die das angeblich eindämmen, sind „sauber“. Diejenigen, die das nicht tun, sind es nicht.

Das bedeutet, Kohlendioxid als Schadstoff zu behandeln. Ist es aber nicht. Es ist ein geruchloses, farbloses Gas, ungiftig bei über 20-facher Konzentration in der Erdatmosphäre und essentiell für die Photosynthese und damit für alles Leben.

Trotzdem will Biden Energiequellen, die weniger Kohlendioxid (CO2) in die Atmosphäre abgeben, als „sauber“ bezeichnen. Für alle praktischen Zwecke sind das Windturbinen und Sonnenkollektoren. Wie „sauber“ sind diese also – nach der alten oder der neuen Definition? Und werden sie wirklich einen signifikanten Unterschied in der globalen Erwärmung machen?

Nein. Warum?

Der erste Grund ist einfach. Erinnern Sie sich daran, was Kerry sagte: Sie könnten morgen alle amerikanischen und chinesischen CO2-Emissionen eliminieren und das Problem wäre nicht gelöst. Wenn wir in Amerika fossile Brennstoffe durch Wind- und Solarenergie ersetzen würden, würde das nicht alle unsere Emissionen eliminieren.

Also wird es das Problem nicht lösen.

Aber wir sollten hier nicht aufhören. Die Herstellung von Windturbinen und Solarmodulen erfordert große Mengen an Bergbau, Transport und Verarbeitung von Mineralien und deren Verarbeitung zu Endprodukten – und fast alles davon muss mit Energie aus fossilen Brennstoffen erfolgen.

In Mines, Minerals, and „Green“ Energy: A Reality Check erklärt Mark P. Mills, warum Wind- und Solarenergie einfach nicht so „grün“ oder „sauber“ sind, wie ihre Befürworter denken.
Und warum? Dafür gibt es mehrere Gründe.

Erstens erfordert die Herstellung von Windturbinen und Solaranlagen sowie der Batterien, die benötigt werden, um den Strom für Elektrofahrzeuge zu speichern, oder wenn der Wind nicht weht und die Sonne nicht scheint, den Abbau, die Bewegung und die Veredelung riesiger Mengen an Erde – weit mehr als für die Gewinnung der gleichen Energiemenge aus Kohle, Öl und Erdgas erforderlich ist.

Mills zeigt:

„Der Bau von Windturbinen und Sonnenkollektoren zur Stromerzeugung sowie von Batterien für Elektrofahrzeuge erfordert im Durchschnitt mehr als die zehnfache Menge an Materialien im Vergleich zum Bau von Maschinen, die Kohlenwasserstoffe [fossile Brennstoffe] verwenden, um die gleiche Energiemenge an die Gesellschaft zu liefern. … eine einzige Elektroauto-Batterie mit einem Gewicht von 1.000 Pfund erfordert die Gewinnung und Verarbeitung von etwa 500.000 Pfund an Materialien.“

Das sind 5 Pfund Erde für jede Meile, die das Auto in seinem Leben zurücklegt – etwa 25 Mal so viel wie für einen Verbrennungsmotor benötigt wird.

Er weist auch darauf hin, dass „Erdöl, Erdgas und Kohle benötigt werden, um den Beton, den Stahl, die Kunststoffe und die gereinigten Mineralien herzustellen, die für den Bau grüner Maschinen verwendet werden. Das Energie-Äquivalent von 100 Barrel Öl wird in den Prozessen zur Herstellung einer einzigen Batterie verwendet, die das Äquivalent von einem Barrel Öl speichern kann.“

Hinzu kommt, dass die meisten der benötigten Geräte – die riesigen Bagger, Lastwagen und andere gigantische Maschinen – mit Diesel laufen müssen, der aus Erdöl hergestellt wird. Sie sind einfach zu groß und schwer, um effizient von Batterien angetrieben zu werden.

Zweitens wird die überwiegende Mehrheit der Seltenen Erden, die in Windturbinen und Solarpanels verwendet werden, in zwei Ländern abgebaut und veredelt: China und der Demokratischen Republik Kongo. Dort sind Frauen und Kinder, die in Sklavenarbeit arbeiten, tödlichen Gefahren ausgesetzt, und die Prozesse führen zu großen Emissionen giftiger Chemikalien, die sowohl die Umwelt als auch die umliegende Bevölkerung schädigen.

Hinzu kommt, wie Robert A. Hefner V. von Hefner.Energy erklärt, das nationale Sicherheitsrisiko, das die Vereinigten Staaten in Bezug auf immer größere Mengen an Energie vom kommunistischen China abhängig macht. Inwiefern?

1. Five of the world’s top-10 wind turbine manufacturers are Chinese-owned or operated.

2. Nine of the world’s top-10 solar panel manufacturers are Chinese-owned or operated.

3. More than two-thirds of the world’s solar panels and one-half of wind turbines are produced in China.

4. In 1954, the United States was 100% dependent on imports for eight minerals listed in the Strategic Minerals Act of 1939; today, the United States is 100% reliant for 17 strategic minerals and depends on imports for over 50% of 28 widely used minerals. China is a significant source for half of those 28 minerals.

5. China is responsible for 37% of passenger electric vehicles and 99% of e-buses sold globally since 2011.

6. China controls 90% of the battery industry’s cobalt supply chain.

Drittens ist da das Entsorgungsproblem. Ausgediente Windturbinen, Solarpaneele und Batterien enden als enorme Mengen an nicht recycelbarem Abfall, von denen viele giftig sind. „Bis 2050“, schreibt Mills, „… wird die Menge an ausgedienten Solarmodulen … die doppelte Menge des gesamten heutigen globalen Plastikmülls ausmachen, zusammen mit über 3 Millionen Tonnen nicht recycelbaren Kunststoffen aus ausgedienten Windturbinenflügeln pro Jahr. Bis 2030 werden mehr als 10 Millionen Tonnen pro Jahr an Batterien zu Müll werden.“

Es gibt ein weiteres Problem mit Wind- und Solarenergie. Da sie von vergleichsweise geringen Energiequellen ausgehen (fossile Brennstoffe enthalten hundertmal mehr Energie pro Volumen als Wind und Sonnenlicht) und unstetig sind (sie erfordern ein Backup durch fossile oder nukleare Brennstoffe, wenn der Wind nicht weht oder die Sonne nicht scheint), erhöhen sie die Kosten für Energie. Da wir für alles, was wir nutzen, Energie benötigen, erhöht dies die Lebenshaltungskosten für alle, was vor allem den Armen schadet. Als Deutschland eine intensive Politik verfolgte, um fossile Brennstoffe durch Wind- und Solarenergie zu ersetzen, haben sich seine Stromkosten mehr als verdoppelt. Diese Erfahrung ist typisch.

Das ist an sich schon schlimm genug, aber es ist nicht unser Schwerpunkt. Unser Schwerpunkt liegt darauf, ob „grüne Energie“ „saubere Energie“ ist. Aber dieser wirtschaftliche Effekt hat Auswirkungen darauf.

Inwiefern? Eine saubere, gesunde, schöne Umwelt ist ein kostspieliges Gut. Wohlhabendere Menschen können sich teurere Güter leisten als ärmere Menschen. Wenn wir die Energiepreise erhöhen, verlangsamen, stoppen oder kehren wir den Aufstieg aus der Armut für die 2 Milliarden oder mehr Menschen auf der Welt, die noch darunter leiden, um. Wir schränken auch ein, wie viel Menschen in bereits entwickelten Ländern es sich leisten können, für andere Dinge als Energie auszugeben. Zusammengenommen bedeutet dies, dass wir die Sauberkeit der Umwelt weniger erschwinglich machen – und folglich weniger verbreitet.

Ein letztes Problem mit Wind und Sonne als Hauptenergiequellen? Man kann aus ihnen keine flüssigen Transportkraftstoffe herstellen. Sie können nur Strom erzeugen. Um die gesamte Elektrizität zu ersetzen, die wir heute aus fossilen Brennstoffen beziehen, müssten wir die gesamten Vereinigten Staaten östlich des Mississippi mit Windturbinen bedecken. Wenn wir unsere Fahrzeuge mit Elektrofahrzeugen umrüsten würden, bräuchten wir so viel mehr Strom, dass Windturbinen das gesamte restliche Land vom Mississippi bis zum Pazifik abdecken müssten. Ähnlich sieht es bei der Solarenergie aus. Das wäre sowohl ökologisch als auch ökonomisch verheerend. Kurz gesagt, Wind- und Solarenergie sind weder „grün“ (gut für die Umwelt) noch „sauber“ (effektiv, um die globale Erwärmung einzudämmen – als ob das wirklich notwendig wäre – oder traditionelle Schadstoffe zu reduzieren).

Link: https://cornwallalliance.org/2021/05/why-green-energy-isnt-clean-energy-or-a-good-substitute-for-fossil-fuels/

Übersetzt von Chris Frey EIKE

 




Die Treibhaushypo­these der Klima­wissenschaft, der Strahlungs­verteilungsfaktor ½ und Speicher­wirkung vom Tag in die Nacht

Die Treibhaushypothese:

Um den Strahlungshaushalt der Erde zu erklären, entwickelte Bruce Barkstorm eine aus Satellitenmesswerten abgeleitete Modellhypothese 1 einer atmosphärischen Gegenstrahlung von 327 W/m². Diese Strahlung, auch als Backradiation bezeichnet, soll in seiner Vorstellung aus der Atmosphäre in Richtung Erdoberfläche wirken. Sie wäre damit der langwelligen Abstrahlung der Erdoberfläche entgegen gerichtet. B. Barkstorm war in den 1980ger Jahren der Chefingenieur beim Bau des Satelliten ERBS, ein Teil des NASA ERBE-Programms. Die Wissenschaftler J. K. Kiehl und K. E. Trenberth übernahmen von Barkstorm 1997 in ihrer Studie „Earth’s Annual Global Mean Energy Budget“ 2 sowohl die Strahlungsverteilung als auch die Treibhaushypothese der Gegenstrahlung. In KT97 beträgt die Gegenstrahlung 3W/m² weniger und damit 324 W/m². Im Unterschied zu Barkstorm verfeinerten Kiehl und Trenberth ihr Erklärungsmuster in der Modellierung um die Zuordnung des Treibhaus- „Effektes“ der Gegenstrahlung auf einzelne unsymmetrische, atmosphärische Gase.

In der Modellhypothese KT97 verbleiben aus der gesamten, direkten Sonnenwirkung von 1367W/m2 (TSI) im rechnerischen Mittel lediglich 66 W/m² als wärmewirksamer, langwelliger Abstrahlungsanteil (LW) für die Erde übrig. Die Summe von erwärmender Sonnenwirkung als langwellige Abstrahlung von 66 W/m² (17%) und atmosphärische Gegenstrahlung 324 W/m² (83%) sollen so gemeinsam die durchschnittliche mittlere Globaltemperatur der Erde von ca. 15 °C mit 390 W/m² (100%) bei dieser Hypothese bilden, FIG.7. rechts. 83% entsprechen einer erwärmenden Wirkung von < 1% der im Molekülaufbau unsymmetrischen, atmosphärischen Gase (Wasserdampf, Kohlendioxid, Methan, Distickstoffoxid, Ozon,..). Die solare Einstrahlung von 1367 W/m² auf die Kreisfläche (r² π) projiziert, mit r = Erdradius, entspricht dem Durchschnittswert einer Abstrahlung von rund 342 W/m² (1367 W/m² / 4) auf der gesamten Erdkugeloberfläche (4 π r²).

Die von der Erdoberfläche in FIG.7 absorbierte Strahlung im Mittel errechnet sich somit zu 168 W/m².

Von der vom Boden absorbierten Strahlung gehen in die Atmosphäre nach Abzug von Latent Heat (verborgene Wärme oder Umwandlungsenthalpie) und Sensible Heat (Konvektion) als langwellige Strahlung 66W/m² (LW).

Diese 66 W/m² sind explizit in der Studie KT97 in TABLE 1 3 erfasst. In der Zeichnung FIG. 7 sind die 66 W/m² grafisch nicht dargestellt. Sie ergeben sich gleichzeitig aus der Subtraktion der Leistungen in W/m² in FIG. 7 „Absorbed by Surface – Back Radiation“ der rechten Bildhälfte oder 390W/m² – 324 W/m² oder:

Damit entsteht der Gegenstrahlungs- „fluss“ immer aus Null, aus dem „Nichts“. Er ist für die energetische „Bilanzierung“ mathematisch „neutral“. Man kann den Rechenvorgang mit einer „Buchung“ assoziieren. Oder für (1) anders ausgedrückt, die Gegenstrahlung kann mathematisch jeden beliebigen Werten annehmen, beliebig variabel oder „fiat flux“.

Extremwert- oder Grenzwertbetrachtung: Der im Modell KT97 mathematisch zulässige Leistungswert der Gegenstrahlung nimmt einen sehr, sehr hohen, einen extremen Wert an. Seine physikalische Bedeutung bleibt.

Die mathematische Zulässigkeit der Modellierung – die Zahlenwerte der Gegenstrahlungshypothese als Leistung in W/m² dürfen beliebig groß werden – hat folgende physikalische Auswirkung: In letzter Konsequenz darf die Modelloberfläche KT97 durch Gegenstrahlung so heiß werden wie die Sonnenoberfläche mit ca. 6000 °C und gleichzeitig strahlt die Modellatmosphäre dennoch mit -19 °C in frostigem Zustand. Dies ist, wie man sofort erkennt, unmöglich, ein interner Widerspruch und deshalb ein schwerer Modellierungsfehler. Wenn die Modellierung einerseits alle Zahlen zulässt, aber für große Zahlen so eindeutig falsch ist, dann muss der gesamte Modellmechanismus KT97 aus Gründen der Logik auch für kleine Zahlen falsch sein. Der physikalische Grund für die falsch ausgeführte Modellierung liegt darin, dass die Energie, als Gegenstrahlungsleistung in W/m² mal Strahlzeit T, im Modell aus dem Nichts kommt und beliebig groß werden kann. Diese Modellierung verstößt auf das Massivste gegen den 1.Hauptsatz der Thermodynamik und ist deshalb nach Ansicht des Autors falsch. Es ist eine der Beliebigkeit unterworfene Hypothese.

Durch ihre „Bilanzneutralität“ und ihre Beliebigkeit war es möglich, die Gegenstrahlung im Nachhinein 2009 nun auf 333 W/m² abzuändern, FIG.I. Trenberth, Fassulo, Kiehl 4. Eine weitere nachträgliche Abänderung erfolgte 2012 bei Norman Loeb 5. Die Gegenstrahlung erreicht jetzt den Wert von 342 W/m². Dies entspricht dem mathematischen Rechenwert der Sonneneinstrahlung bzw. TSI von 1368 auf die Erde in der ¼ Verteilung der Modellhypothese von KT97. Oder anders formuliert die Gegenstrahlung (oder weniger als 1% des atmosphärischen Gasgemisches) strahlt exakt wie eine zweite Sonne im Modell. „Fiat lux“. Ohne „Gegenstrahlungssonne“ kann die mittlere Globaltemperatur nicht erklärt werden.6

Kann man mit die mittlere Globaltemperatur mit einem anderen Modell erklären? Dies ist nach Meinung des Autors möglich durch: 1) Genauere Betrachtung des Strahlungsverteilungsfaktors, der nach „settled theory“ mit ¼ modelliert wird.

Der Strahlungsverteilungsfaktor

Der Strahlungsverteilungsfaktor ist die maßgebliche, die zentrale Steuerungsgröße bei der Modellierung der Leistungsbilanzierung im Energiehaushalt eines Klimamodells. Er bildet die durchschnittliche Einstrahlung ab. Aus Gründen der Logik gilt allgemein: Besteht ein kontinuierlicher Betrachtungshorizont in einem physikalischen Ablauf, wie z.B. bei einem bewegten Objekt über eine Strecke oder über eine Zeitspanne, aus Σ i Intervallen, muss der Durchschnittswert über den Betrachtungshorizont – da es das mathematische Wesensmerkmal oder hervorstechende Kriterium eines Durchschnittswertes ist – in all seinen i Intervallabschnitten oder über alle i gegen unendlich gültig sein. (Trivial Kriterium).

Für ein Klimamodell folgt: Der modellierte Durchschnitt der Einstrahlung aus der Leistung der Sonne in W/m² muss nicht nur in einem Jahr, einem Monat oder an einem Tag gelten, er muss mathematisch auch für jedes T gegen Null gelten. Wir kehren zurück zur Modellierung von B. Barkstorm, Kiehl und Trenberth. Ihre Leistungsbilanz des Strahlungshaushaltes steht stellvertretend für einen Durchschnittsquadratmeter oder eine homogene Modellkugel mit Radius R. Diese hat nur die Durchschnittswerte mit der Erde gemein. Jeder Ortspunkt (Xi,Yi) auf der Modellkugeloberfläche hat identische Eigenschaften. Damit ist in KT97 die Albedo a an jeder Stelle (Xi,Yi) konstant oder a = 0.3129. Für die Stelle des Radius R wird der Erdradius gesetzt:

Die Erdoberfläche beträgt 510.1 Mio. km². Die durchschnittliche Abstrahlung als Leistungseinheit in W/m² auf ihrer gesamten Oberfläche im Betrachtungshorizont jährlich „annual global mean“, im Intervall eines Monats oder im Intervall von 24 Stunden setzt sich zusammen aus: 107 W/m2 (Reflected Solar Radiation) und 235 W/m² (Outgoing Longwave Radiation) = 342W/m², siehe FIG.7.

Die Energie E aus Durchschnittleistung in W/m² der modellierten Einstrahlung eines Jahres, Monats und eines 24 Stunden Erd-Tags wird bei Gleichsetzung der Abstrahlung mit der Einstrahlung die Energie weiterhin im Modell richtig errechnet, aber mathematisch wird die Einstrahlung über den „niedrigenDurchschnitt auf die dunkle Nachtseite mit einbezogen. Hierin liegt die Tücke dieser Modellvorstellung. In den nächsten Intervallstufen, Sekunde und in T gegen Null ist es in auf der Nacht-Hemisphäre der fiktiven, homogenen Modellkugel mathematisch taghell.

Beim Übergang des einzelnen, zeitlichen i- Intervalls von Jahr, Monat, Tag, Sekunde und weiter zu N Intervallen, der Einstrahlung im Augenblick (T gegen Null oder Zeit / N), mit einer Folge von N Intervallen und damit N gegen unendlich für einen 24 Stunden Erdtag als Betrachtungshorizont, kann aber stattdessen formuliert werden:

Für eine stets nur halbseitig beleuchtete Kugel, bezogen auf die doppelt gekrümmte Kugeloberfläche berechnet mit der Integration über Polarkoordinaten, siehe auch Kap. 5.1.2 9. Der Übergang von der nicht rotierenden zur rotierenden Kugel, siehe Anhang 19, führt wieder zu einer Einstrahlung von 684 W/m² (2). Auch diese Modellierungsvariante errechnet die Energie E richtig. Sie entspricht aber jetzt so modelliert der echten Sonneneinstrahlung in T gegen Null, also unserer Beobachtung. Deshalb beträgt die Einstrahlung auf der Hemisphäre einer stets nur halbseitig beleuchteten Kugel im rechnerischen Durchschnitt im Modell 684 W/m². Für den Strahlungsverteilungsfaktor der Einstrahlung bedeutet dies:

Für das infinitesimal kleine Stück der rotierenden Mantelflächenlinie um die Rotationsachse x gilt:

Energie E aus durchschnittlicher, flächenbezogener Leistung, die die Mantelfläche des Rotationskörpers in T(sec) erhält, mit x = 0 als Mittelpunkt. Die Energie in T errechnet sich über Integration entlang der x-Achse über Δx von x = -R bis x = 0, wenn in T stets nur eine halbe Kugel als Rotationskörper um x und Beleuchtung in x-Richtung erhält.

Mit einem Erdradius R von 6.378 Km dreht sich in jeder Sekunde die Erde um 1/86400 eines 24-h-Tages ein Stück weiter. Oder 86.400 Energieportionen einer Sekunde erhält die Erde in 24 Stunden oder:

E = 684 W/m² 2 x (6.378.124 m)² π 86400 sec = 1.51 1022 Wsec = 1.51 1022 J = 1368 W/m²π in 24 h

Die Integration über die Formulierung kartesischer Koordinaten zeigt die Parallelität der Einstrahlungsleistung L von 684 W/m² zur globalen x-Richtung und der stets nur halbseitig beleuchteten Mantelfläche der Kugel als Rotationskörper um die globale x-Richtung. Die Formulierung in Polarkoordinaten, die das identische Ergebnis liefern muss, zeigt dagegen das Wirken von 684 W/m² Einstrahlleistung auf eine stets doppelt gekrümmte Oberfläche, S.83 und S.176 -177. 9 Beide Rechenwege liefern das identische Ergebnis von 1.51 1022 J Energie aus Sonne unter stets halbseitiger Beleuchtung der in 24 h einmal rotierenden Erde liefern. Damit ist der Strahlungsverteilungsfaktor ¼ falsch und ½ richtig. Was es bedeuten kann, einen falschen Verteilungsfaktor in einer Netzmodellierung zu benutzen, siehe Kap. 5.17 9.

2) Genauere Betrachtung der Satellitenmesswerte: In der Rezeption von KT97 werden die Werte wattgenau benutzt. KT97 bezieht sich in S.199 auf die ERBE Datensätze „ …, we use the ERBE outgoing longwave flux of 235 W/m²…“ [Hervorhebungen hinzugefügt]. Es wird darauf hingewiesen, dass dieser olf für die einzelnen Satelliten ERBS, NOAA-9, NOAA-10 (ERBE) vorsichtig formuliert nicht 235 W/m² beträgt. Der Unterschied zwischen dem ERBE-Datensatz 1985-1989 z.B. (ERBS min. 242.3 – max. 243.5 W/m² nach CEDA) und der in KT97 modellierten Strahlungsgröße olf macht hier bereits 7 W/m² aus, weitere Abweichungen siehe auch Kap 4.1.1.bis 4.1.6 9. In KT97 wird auf S.206 erklärt: „The purpose of this paper is not so much to present definite values,…“. Die Qualität der Datensätze ist beim Satelliten ERBS am höchsten (Begründung: Kap. 2.3 bis 2.6 9). Mit diesen kann ein neues Modell formuliert werden (Kap 5 9). Bei den Datensätzen des ERBS Satelliten gibt es spezielle Net– Werte (siehe die weiter hinten im Text grün abgebildete Werte mit Verweis auf GLOBAL MEAN OF nach CEDA, Centre for Environmental Data Analysis, Oxford, England). Das folgende Beispiel eines Datensatzes der Quelle CEDA 7, gemeint ist die Zahlenkolonne nach Mean1987, verdeutlicht dies in a) bis c) als ein Beispiel zur Interpretation der Net– Strahlungen:

a) Net-Strahlungen unter Berücksichtigung des negativen Vorzeichens, gemäß der Datenübermittlung von ERBS:

Net Cloud Forcing -20.25 + Net Radiation 20.19 = 0 Clear-Sky Net Radiation (40.44). Es gibt keine Übereinstimmung. Alternativ ohne Berücksichtigung des Vorzeichens und damit als mathematischer Betrag:

Net Cloud Forcing |-20.25 | + Net Radiation |20.19| = 40.44 = Clear-Sky Net Radiation (40.44). Es gibt eine Übereinstimmung. Wenn man die drei Net-Strahlungen berücksichtigt, erscheint es sinnvoll, sie als mathematische Beträge von Leistungen zu interpretieren.

b) Unabhängig von einer Datenübermittlung mit Vorzeichen oder ohne Vorzeichen als Betrag ist:

Clear-Sky Net Radiation |40.44 | + Clear Sky Shortwave Radiation |52.52 | = 92.96 Shortwave Radiation 97.21. Dies ist halbwegs eine Übereinstimmung von mathematischer Summe zum Messwert und bei Betrachtung der Datensätze eher selten.

c) TSI/4 – (shortwave rad.) – (longwave rad.) = (net rad.) 20.19 oder 1368/4 – |97.21 | -|245.13 | = – 0.34

– 0.34 ungleich 20.19 (net rad.). Es gibt keine Übereinstimmung der mathematischen Differenz zum Net-Messwert. Wäre die Net-Radiation lediglich eine Strahlungsdifferenz und kein eigener Messwert, müsste der Messwert hier ebenfalls 0 sein. Das ist nicht der Fall. Damit ist diese Net-Radiation ein eigener Messwert. Wenn sie ein eigener Messwert ist, sind aus Gründen der Logik, alle drei Typen der übermittelten Net– Radiations Messwerte (weitere Beispiele und Begründungen, siehe Kap. 5.4.2 bis 5.4.5, 5.12 und S.187 -190 9 ).

Unabhängig von dieser Begründung wurden für die Modellierung trotzdem beide Varianten untersucht. Die Net- Werte wurden zu Null gesetzt und unberücksichtigt gelassen und im anderen Fall als gemessene Strahlung verstanden. In der jeweiligen Modellierung unterscheiden sich dann lediglich die Größen von SH, LH und Satm (Kap. 5.4.2 9). Die Wärme des Tages wirkt in beiden Varianten über Speichereffekte in die Nacht (Kap. 5.4.3 9). Die ERBS Messwerte zeigen für beide Fälle, es bildet sich eine mittlere Globaltemperatur mit rund 15 °C ohne Treibhaushypothese durch unsymmetrische atmosphärische Moleküle aus. Fasst man die NetWerte als Messwerte auf, lässt sich ein Modell 5 formulieren, welches alle Messreihen widerspruchsfrei abbildet. Die Modellabweichung dieses Modell ist < = 2 W/m² zu der vom Satelliten erst einzeln gemessenen, danach gemittelten Strahlung oder macht weniger als fünf Tausendstel der „top of“ gemessenen Gesamtstrahlung aus (4.8 = 2.0 W/m²/414.5 x 1.000). Exakte Ableitung des Gegenmodels (Modell 5) zu KT97 (siehe Kap. 5.3f 9 ).

Die durchschnittliche, mittlere stets halbseitige Einstrahlungsleitung des Modell 5 (siehe cloudy sky und clear sky), jährlich (annual), monatlich, in 24 h oder in T gegen Null betrug über Integration über Polarkoordinaten, wie die kartesische Berechnung 684 W/m². 684 W/m² sind auf die gekrümmte Oberfläche bezogen (siehe Kap. 5.1.2, S.83 9). 1368 sind auf den ebenen Einstrahlkreis bezogen. Messwerte des ERBS Satelliten 1985 bis 1989 im 5- jährigen Mittel nach CEDA:

Die römischen Zahlen entsprechen den horizontalen Ebenen der Atmosphäre in Bild 2 und bilden eine stehende halbseitig beleuchtete Hemisphäre ab. Für den Übergang zur rotierenden halbseitig beleuchteten Kugel (siehe Kap. 5.4.2, S.92 – 93 9).

Aus der Erdkrümmung folgt eine Strahlungsabschwächung für die Messebene des Satelliten ERBS auf knapp 600 km mittlere Höhe in Ebene I´ (siehe Anhang 7 9). Wird eine Abschwächung von 17.2% berücksichtigt, folgt:

500 W/m² x 0.828 = 414 W/m² oder = Summe der Messwerte in W/m² = Σ 101 +19 +20 +243 +31 = 414 W/m².

Ebene I´ ist die Messebene des Satelliten und Ebene VII die Ebene der Erdoberfläche mit einer durchschnittlichen Globaltemperatur aus Tag- und Nachtmittel von rund 15 °C. In Analogie zu KT 97 mit 62 % durchschnittlicher Wolkenbedeckung für die Erde (nach KT97, S.206) aber mit atmosphärischem Fenster von 87 W/m² (Begründung Kap 4.1.8 9). Es wird so sichtbar, (500 W/m²) werden vom Tag in die Nacht hinein gespeichert.

Die Atmosphärenebene I bis VII aus Tag + Nacht erfüllen in 24 h gemeinsam das horizontale Gleichgewicht der Leistungsbilanzierung. Die Einstrahlung stets in T gegen Null auf der halben Kugel und Abstrahlung auf der Vollkugel, durch | getrennt, erfüllen das vertikale Bilanzgleichgewicht. 368/1368 = 0.269 = Albedo von ERBS oder als Tag und Nachtmessung durch ERBS:

II Σ +183 +0 +185 -185 -0 -1183 + 86 +86 +2 [Tag- und Nachtmessung] x (+101 +19 +20 +243 +31) = 0 q.e.d.

Eine der Beliebigkeit unterworfene Gegenstrahlung, ein fiat flux“, kaschierte die falsche Strahlungsverteilung. Es existiert kein Treibhauseffekt von 33 K zur Bildung einer globalen mittleren Oberflächentemperatur von rund 15 °C. Die gemessenen Daten des ERBS Satelliten, mit allen Reihen beweisen dies. In der Leistungsbilanz über Ebene I´ bis VII wird sichtbar, wie die Tagestemperatur über Speicherwirkung in die Nacht hineinwirkt. Bei Kiehl- und Trenberth im Modell KT97 gibt es keine Wärmespeicherung. Von der direkten Wirkung der Sonne blieben nur 66 W/m² übrig. Deshalb musste in KT97 die Sonne mit 342 W/m² nachts rechnerisch in jedem T gegen Null die nicht beleuchtete Hemisphäre „nachheizen“.

Eine generelle Strahlungsbehinderung in der Abstrahlung durch eine hohe Gegenstrahlung von 300 W/m² existiert nicht. Die Nacht reicht aus, um die von der Sonne empfangene Wärme des 24 Stunden Tages über SH, LH, Satm, Reflektion und Strahlung ungehindert auf der Vollkugel abzustrahlen. Für den betrachteten Gleichgewichtszustand in der Leistungsbilanz Einstrahlung/Abstrahlung in W/m² stellt sich so Oberflächentemperatur von rund 15 °C ohne Treibhauseffekt ein. Durch Wolken und durch die Wärmeleiteigenschaften der Luft mag es zeitliche Verzögerungen in der Wärmeabgabe geben, ebenso durch langfristige Effekte von Änderungen in den Wärmespeichern der Erde. Man kann zeigen, dass statt der Gegenstrahlung die Änderung der Albedo in der Modulierung der Globaltemperatur eine sehr wichtige Rolle spielt Kap 5.13 9). Ein Experiment mit CO2 unter direktem Sonnenlicht, Anhang 4 9, bestätigt ebenfalls, dass es einen atmosphärischen Treibhauseffekt aus einer Gegenstrahlungshypothese nicht gibt. Für eine verstärkte Einbindung der Wolken in die Modellierung über den Messwert des Longwave Cloud Forcing wird auf Kap. 5.7 9 verwiesen.

Zusammenfassung des Artikels:

Die Gegenstrahlung ist eine reine Modellhypothese aber Basis der aktuellen Klimamodelle. Der Strahlenverteilungsfaktor ¼ ist zur Berechnung der Einstrahlung im Klimamodell falsch und stattdessen ½ richtig. Mit ¼ wird die mittlere Einstrahlung in der Modellierung viel zu gering errechnet. Diesen Fehler musste die Gegenstrahlungshypothese in der Treibhaushypothese bereits bei B. Barkstorm ausgleichen. Mit dem richtigen, über ½ errechneten Einstrahlungsdurchschnitt entfällt sofort ihre Grundlage. Bei Verwendung aller Messreihen der fünfjährigen gemittelten Datensätzen des ERBS Satelliten lässt sich in Anschluss ohne Gegenstrahlung bei stets halbseitiger Beleuchtung der Erde – die unserer Beobachtung entspricht – die Speicherwirkung der Erdoberfläche vom Tag in die Nacht hinein darstellen Die Abweichung zwischen Messwert und Rechenwert oder Modellgüte des neuen Modells beträgt dann weniger als fünf Tausendstel der „top of“ gemessenen Gesamtstrahlung oder ist kleiner gleich 2W/m².

9 A. Agerius, 2021, Kritische Analyse zur globalen Klimatheorie, Erweiterung-Vertiefung-Prognose, 2. Auflage, tredition, Hamburg

1Barkstorm, Ramanathan and Harrison, 1989, CLIMATE AND THE EARTH’S RADIATION BUDGET, in PHYSICS TODAY, American Institute of Physics.

2J. Kiehl, K.E. Trenberth, 1997, Bulletin of the American Meteorological Society, Vol. 78, No. 2, February 1997, S. 197-208. Im Folgenden wird diese Studie als KT97 bezeichnet.

3KT97, Table 1. Summary of the earth energy budget estimates…, S. 199. [Hervorhebung hinzugefügt]

4Trenberth, Fasullo and Kiehl, 2009, EARTH’s GLOBAL ENERGY BUDGET, American Meteorological Society, BAMS S. 1-13, DOI:10.1175/2008BAMS2634.I.

5Loeb, Dutton, Wild et altera, 2012, The global energy balance from a surface perspective, Clim Dyn (2013) 40:3107-3134, Springer-Verlag, Doi 10.1007/s00382-012-1569-8.

6Für die Messung einer solchen Gegenstrahlungssonne mit Messgeräten wird auf 9, Kap. 4.24, 75 f. verwiesen.

7CEDA, Oxford, England, ERBS Datensätze 1985 – 1989, mit Stand vom 19.11.2020, beispielsweise für die Messreihe mean1987: http://data.ceda.ac.uk/badc/CDs/erbe/erbedata/erbs/mean1987/ und hierin die Datei data.txt aufrufen. Der Datenaufruf im ERBS Datensatz muss für die Jahre, Strahlungstypen/Albedo, spezielle Messreihen, Durchschnitte, Darstellungen, etc. entsprechend angepasst werden.




Kältester April in Deutschland seit 1977 (Minimum des Sonnenzyklus‘ 20), und selbst NASA-Forscher räumen einen sich abkühlenden Planeten ein

Europa ist die Region, die nachweislich am stärksten unter früheren Grand Solar Minima (Dalton/Maunder) gelitten hat, was angesichts der Nähe zum Pol und der großen Bevölkerungszahl auch Sinn macht.

Der Beginn dieses nächsten GSM zeigt, dass das auch diesmal der Fall ist, selbst in diesem frühen Stadium…

Wie Anfang der Woche berichtet, hat der europäische Kontinent gerade einen historisch kalten April erlebt, der nun bis in den Mai hinein anhält.

[Einschub: Dazu passt die Meldung der auf der alarmistischen Seite stehenden Plattform wetteronline.de, wonach sich heute früh (7. Mai) in den Niederlanden (!) verbreitet kurzzeitig eine dünne Schneedecke gebildet hatte {Link}. Ende Einschub]

Mit einer Durchschnittstemperatur von nur 6C war der April 2021 in Deutschland der kälteste vierte Monat des Jahres seit 1977 (solares Minimum des Zyklus 20). Dieser Durchschnittswert liegt etwa 3C unter der klimatologischen Norm von 1991-2020 und 2,3C unter dem bisherigen 30-jährigen Mittel von 1981-2010.

Der Monat war auch etwas trockener als im Durchschnitt, berichtet der DWD Klima und Umwelt auf Twitter:

Man beachte den starken Temperaturrückgang in dieser Graphik.

Unter der Lupe sieht man den Absturz vom April 1920 auf den April 2021 noch deutlicher:

Dies ist ein Hinweis darauf, wie schnell sich das Klima abkühlen kann, wenn die Bedingungen es zulassen, Bedingungen wie geringe Sonnenaktivität und La Ninas.

Entscheidend ist hier auch, dass die Zeitspanne zwischen geringer Sonnenaktivität und terrestrischer Abkühlung nun vorbei zu sein scheint.

Der „Abkühlungstrend“, den die NASA in den letzten Jahren in der „oberen“ Atmosphäre registriert hat, ist nun endlich in die unteren Atmosphärenschichten und in die globale „untere“ Atmosphäre und damit in den Lebensraum von uns Menschen durchgedrungen.

„Hoch über der Erdoberfläche, nahe dem Rand des Weltraums, verliert unsere Atmosphäre Wärmeenergie“, sagte Martin Mlynczak von der NASA, Associate Principal Investigator für das SABER-Instrument an Bord des TIMED-Satelliten der NASA, bereits im Jahre 2018. „Wenn sich die aktuellen Trends fortsetzen, könnte es bald einen Kälterekord für das Weltraumzeitalter geben“ – was Ende 2018 der Fall war.

Der TIMED-Satellit der NASA:


Die Aufgabe von SABER ist es, die Infrarot-Emissionen von Kohlendioxid (CO2) und Stickstoffmonoxid (NO) zu überwachen – durch die Messung des Infrarot-Glühens dieser Moleküle kann SABER den thermischen Zustand des Gases ganz oben in der Atmosphäre beurteilen: eine Schicht, die die Forscher „Thermosphäre“ nennen.

„Die Thermosphäre kühlt immer während des solaren Minimums ab“, so Mlynczak weiter. „Das ist eine der wichtigsten Arten, wie der Sonnenzyklus unseren Planeten beeinflusst.“

Um zu verfolgen, was in der Thermosphäre passiert, haben Mlynczak und Kollegen kürzlich den „Thermosphären-Klima-Index“ (TCI) eingeführt – eine in Watt ausgedrückte Zahl, die angibt, wie viel Wärme die NO-Moleküle in den Weltraum abstrahlen. Während des Sonnenmaximums ist der TCI hoch („heiß“), während des Sonnenminimums ist er niedrig („kalt“).

Und obwohl SABER seit zwei Jahrzehnten im Orbit ist, konnten Mlynczak und Kollegen den TCI bis in die 1940er Jahre zurück berechnen: „SABER hat uns das gelehrt, indem es uns gezeigt hat, wie TCI von anderen Variablen wie der geomagnetischen Aktivität und der Leistung der Sonne abhängt – Dinge, die seit Jahrzehnten gemessen werden“, erklärt er.

Eine historische Aufzeichnung des Thermosphären-Klima-Index‘.

Mlynczak und Kollegen haben kürzlich eine Arbeit über den TCI veröffentlicht, die zeigt, dass der Zustand der Thermosphäre mit einer Reihe von fünf Begriffen in einfacher Sprache beschrieben werden kann: Kalt, Kühl, Neutral, Warm und Heiß.

Betrachtet man Mlynczaks obiges Diagramm – und genauer gesagt seine Darstellung der letzten 6 Sonnenzyklen, die direkt mit dem Thermosphären-Klima-Index von SABER übereinstimmen – so zeigt sich, dass diese jüngste und historische Runde niedriger Sonnenleistung erst mit dem Minimum von Zyklus 23 (wohl 2008) begann.

Und da die Auswirkungen des rekordstarken El Nino von 2016-17 nun vollständig verblasst sind und die Auswirkungen des moderaten Ereignisses von 2019-20 sich ebenfalls verflüchtigt haben (beides deutlich sichtbar in der untenstehenden Grafik), wirkt sich die kumulative Verringerung der Aktivität durch die Zyklen 23 und 24 schließlich auf unsere „globalen“ Temperaturdaten aus, und nicht nur auf die regionalen – wie oben erwähnt, hat sich die Rekordabkühlung der Thermosphäre nun bis in die Troposphäre vorgearbeitet [Hervorhebung im Original]:

[drroyspencer.com]

Um noch einmal kurz auf die regionalen Daten zurückzukommen, denn ich denke, es ist wichtig, dass wir uns der Auswirkungen vor Ort bewusst sind, damit wir uns richtig vorbereiten können: Deutschland war eine der Nationen, die während des vorangegangenen Großen Sonnenminimums, dem gemäßigteren Dalton-Minimum (1790-1830), eine schnelle und intensive terrestrische Abkühlung verzeichneten.

Die Oberlacher Wetterstation beispielsweise verzeichnete Anfang des 19. Jahrhunderts einen Temperaturrückgang von 2°C innerhalb von nur 20 Jahren – diese rapide Abkühlung zerstörte die Nahrungsmittelproduktion des Landes und trug dazu bei, dass Millionen und Abermillionen von Menschen in ganz Eurasien hungern mussten. Es räumt auch mit der Behauptung auf, dass solch starke Veränderungen des Klimas Jahrhunderte brauchen, um sich zu manifestieren – dies ist nicht wahr, historische Dokumente – ganz zu schweigen von Proxydaten – zeigen uns, dass eiszeitliche Bedingungen innerhalb von nur wenigen Jahren eintreten können.

Der starke Temperaturrückgang in Deutschland von April 2020 auf April 2021 ist ein weiterer Beleg dafür.

Link: https://electroverse.net/germanys-coldest-april-since-1977-as-even-nasa-notes-a-cooling-planet/

Übersetzt von Chris Frey EIKE

 




Die sogenannte „gemessene globale Durchschnitts­temperatur“ wird von den Ozeanen bestimmt

Insbesondere erblicken wir in dem System der fossilen Klimazeugen keinen empirischen Anhalt für die Annahme, daß die von der Sonne ausgehende Strahlung sich im Laufe der Erdgeschichte geändert habe. Desgleichen fehlt es an Tatsachen, welche durch Änderung der Durchstrahlbarkeit der Atmosphäre (Arrhenius) oder des Weltalls (Nölke) zu erklären wären; …“

Daran hat sich bis heute nichts geändert, denn die Klimawissenschaft ist seit nunmehr knapp 100 Jahren mit einem eindeutigen Beweis für diesen vorgeblichen „natürlichen atmosphärischen Treibhauseffekt“ nicht vom Fleck gekommen. Vielmehr basiert das Bild der Klimawissenschaft von unserer Erde noch immer auf einer „Erde ohne Atmosphäre“, wie sie Julius von Hann im Jahre 1897 beschrieben hatte, Sekundärzitat mit Dank an Dr. Gerhard Kramm (Fairbanks, Alaska):

«Denken wir uns die Erdoberfläche ganz vom Fest-land eingenommen und ohne Atmosphäre, also etwa in dem Zustande, in dem sich der Mond befin-det, so würde die Wärmeverteilung auf derselben überall nur von der jedem Orte zukommenden Quantität der Sonnenwärme und dem Betrage der Wärmeausstrahlung daselbst abhängig sein. Da nun diese beiden Faktoren für alle Orte auf demsel-ben Parallel- oder Breitekreise dieselben sein müß-ten, so würden die Erdgürtel gleicher Wärme mit den Breitekreisen zusammenfallen. Selbst die Exis-tenz einer wasserdampffreien Atmosphäre würde an dieser Wärmeverteilung wenig ändern, bloß die absoluten Quantitäten der Wärme-Einstrahlung und -Ausstrahlung an der Erdoberfläche würden dadurch beeinflußt

Und um jetzt den Unterschied zwischen einer „Erde ohne Atmosphäre [und Ozeanen]“ einerseits und andererseits den Messwerten von einer realen Erde zu erklären, hatte man schließlich den ominösen „natürlichen atmosphärischen Treibhauseffekt“ erfunden. Dieser Effekt soll auf einer sogenannten „atmosphärischen Gegenstrahlung“ beruhen, die wiederum dem 2. HS der Thermodynamik widerspricht.

Es stehen hier also zwei konkurrierende Modelle für unsere reale Erde zur Diskussion:

Das Faktor4-Tag=Nacht-THE-Flacherdemodell mit einem „natürlichen atmosphärischen Treibhauseffekt“ (THE) der etablierten Klimawissenschaft auf dem Stand des 19. Jh.:

Reale Erde = „Erde ohne Atmosphäre“ + THE

Der Ketzer Weber behauptet im 21. Jh. dagegen, es gäbe gar keinen THE:

Reale Erde = Hemisphärisches S-B-Modell ohne THE

Wir setzen jetzt die beiden Modelle für die „reale Erde“ gleich und erhalten die Alternativen:

Erde ohne Atmosphäre“ plus THE = Hemisphärisches S-B-Modell ohne THE

Und welches von beiden Modellen ist nun wohl richtig?

Das Dilemma der exakten Atmosphärenwissenschaft sind Tag und Nacht, die von der Jahreszeit bestimmte breitenabhängige Tageslänge sowie die physikalischen Einheiten für Leistung und Arbeit. Die üblichen klimawissenschaftlichen Darstellungen der solaren Einstrahlung auf unserer Erde umfassen seit mehr als einem Jahrhundert lediglich die taggenaue örtliche Gesamtstrahlungsmenge der Sonne über die gesamte Erdoberfläche, sogar inklusive der Elliptizität der Erdbahn; einige dieser Beispiele hatte ich hier diskutiert. Bei einem solchen 24h-Durchschnitt der solaren Arbeit ist dann physikalisch allerdings Endstation. Unbeleuchtete Flächen und zeitliche Ableitungen haben in einer S-B-Inversion nämlich nichts zu suchen, und daher müssen wir uns bei der Betrachtung der Sonneneinstrahlung auf die Tagseite unserer Erde beschränken.

Zur Erinnerung, ich hatte in meinen beiden DGG-Veröffentlichungen (2016 und 2019) diesen sogenannten „natürlichen atmosphärischen Treibhauseffekt“ als Ergebnis einer fehlerhaften Faktor4-Inversion des Stefan-Boltzmann-Gesetzes widerlegt. Unter anderem hatte ich das hier noch einmal näher ausgeführt und einen konkreten Nachweis geliefert, dass unbeleuchtete Flächen in einer Inversion des Stefan-Boltzmann-Gesetzes nichts zu suchen haben, Zitat:

Es gibt im streng ‚gleichzeitigen‘ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer ‚gleichzeitigen‘ S-B-Inversion erlaubt. Physikalisch ‚gleichzeitig‘ bedeutet übrigens auch nicht, dass unterschiedliche ‚Gleichzeitigkeiten‘ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften.“

ALSO: Der Faktor4-Tag=Nacht-THE-Flacherdeansatz leitet sich aus der durchschnittlichen solaren ARBEIT über den 24h-Tag her. Ein solcher Tag+Nacht-Durchschnittswert der solaren Strahlungsleistung hat aber überhaupt nichts mit der Temperatur auf unserer Erde zu tun, wie ich hier bereits ausführlich erläutert hatte. Denn von der 24h-durchschnittlichen Arbeit führt nun einmal kein physikalisch korrekter Weg mehr zurück zur Ermittlung der tatsächlichen spezifischen solaren Strahlungsleistung auf der Tagseite unserer Erde.

Aus einer solchen rückgerechneten 24h-Tag&Nacht-Durchschnittsleistung der Sonneneinstrahlung hatten erstmals Kramm et al. (2017) eine breitenabhängige Ortstemperatur (Kramm et al. (2017) Abbildung 22a) vorgelegt. Dieser Wert entsteht aus der Division der eingestrahlten solaren 24h-Gesamtenergie geteilt durch die Sekunden@24h pro Quadratmeter, die eigentliche physikalische Einheit ist also 1 J/(m² s). Folgerichtig ergibt die Ableitung einer Temperatur aus einer solchen 24h-durchschnittlichen Rückrechnung der solaren Strahlungsleistung durch die Einbeziehung der unbeleuchteten Nachtseite eine „Schneeball-Erde“ mit gefrorenen tropischen Meeren und einem Temperatur-Hotspot am Pol der jeweiligen Sommerhemisphäre, wie man das ebenfalls in der nachfolgenden Abbildung 1b ablesen kann.

In seiner E-Mail vom 29.01.2021 um 09:58 Uhr* an mich und den üblichen Skeptiker-Email-Verteiler hatte dieser Dr. Gerhard Kramm schließlich ein PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ (wird in der Folge als „Kramm 2021“ bezeichnet) mit einem direkten Vergleich zwischen meinem hemisphärischen S-B-Modell und seiner „Erde ohne Atmosphäre“ verschickt. Die beiden nachfolgenden Abbildungen entstammen diesem PDF:

Abbildungen 1 a und b*: Berechnete Oberflächentemperaturen aus dem PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ von Dr. Gerhard Kramm, Fairbanks, Alaska*

Anmerkung: Die Temperaturskalen dieser Abbildungen stimmen nicht überein.

Originalbeschreibung:Abbildung 15. Wie in Abbildung 12, jedoch für die auf dem lokalen Strahlungsgleichgewicht nach Gleichung (3) beruhende Oberflächentemperatur.“

Dazu der Text zu Abbildung 12:Berechnete solare Einstrahlung für alle Tage des Jahres und alle geographischen Breiten:

(a [links]) Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545),

(b [rechts]) Tägliche Mittelwerte nach Kramm et al. (2017), beginnend mit 1.Januar 2010, 00:00 Uhr (JD =2455197,5).“

Die „Maxima nach Weber“ in der linken Abbildung, abgeleitet aus dem Maximum der örtlichen solaren LEISTUNG [W/m²] ohne Albedo, schwanken mit dem jahreszeitlichen Sonnenstand um den Äquator („Latitude 0°“) mit bis zu 394 Kelvin. Sie reduzieren sich dann zum Pol der Winterhemisphäre gegen null Kelvin. In der Realität werden diese theoretischen Maximalwerte aber aufgrund von Albedo, Verdunstung und Konvektion nicht erreicht; die Minimalwerte werden dagegen durch Advektion und Kondensation gestützt.

Die „Tägliche[n] Mittelwerte nach Kramm et al. (2017)“ in der rechten Abbildung, abgeleitet aus einer 24h-durchschnittlichen solaren ARBEIT [J/m²s] ohne Albedo, stellen dagegen die äquatoriale Zone bei 150-200 Kelvin mit gefrorenen tropischen Meeren als „Snowball-Earth“ dauerhaft im ewigen Eis dar; dafür verwandelt sich die Polarregion der jeweiligen Sommerhemisphäre in einen Touristen- und Temperatur-Hotspot mit 275-300 Kelvin.

Allein unser Schulwissen sagt uns also schon, welche der beiden Abbildungen am ehesten den Verlauf der Klimazonen unserer Erde spiegelt und dass der Pol der jeweiligen Sommerhemisphäre gar kein globaler Temperatur-Hotspot ist. Meine Ausführungen dazu hatte ich in dem EIKE-Artikel „Verbesserungswürdig: Über fehlerhafte Ansätze für eine breitenabhängige Globaltemperatur“ vom 18. März 2020 ausführlich dargestellt.

Abbildung 2: Zum physikalischen Unterschied zwischen Leistung (Watt) und Arbeit (Joule) der solaren Einstrahlung (Graphiken nicht flächengetreu)- Links: Tentative Gegenüberstellung der Beleuchtungsklimazonen mit dem Jahresverlauf der maximalen solaren Strahlungsleistung im Sommerhalbjahr (Südsommer linke Hälfte und Nordsommer rechte Hälfte). Overlays: Die Beleuchtungsklimazonen der Erde, von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License) Darunter: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über ein volles Jahr von Herbstäquinoktium zu Herbstäquinoktium- Rechts: Die maximale spezifische solare (Strahlungs-) LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel (weitere Erläuterungen sind hier zu finden)

Auf unserer Erde wandert der senkrechte Sonnenstand im Verlauf des Jahres zwischen den beiden Wendekreisen und verursacht so die gegenläufigen Jahreszeiten auf der Nord-und Südhemisphäre. Das maximal mögliche rechnerische S-B-Temperaturäquivalent der solaren Strahlungsleistung (@W/m²) folgt diesem vertikalen Sonnenstand, also von der Sonnenwende am Wendekreis der jeweiligen Sommerhemisphäre über den Äquator mit dem Äquinoktium zum gegenüber liegenden Wendekreis und wieder zurück. Polare Temperatur-Hotspots dagegen existieren nicht, es gibt in der Polarzone der Sommerhemisphäre lediglich eine tageszeitlich länger eingestrahlte solare Energiemenge [J/m²], die dort zu einer erhöhten Biomasse-Produktion im Sommerhalbjahr führt.

Also schauen wir mal, was wir sonst noch über die sogenannte „gemessene globale Durchschnittstemperatur“ herausfinden können

Betrachten wir jetzt einmal, wie sich die Tagseite (A) und die Nachtseite (B) auf die sogenannte „gemessene globale Durchschnittstemperatur“ von vorgeblich 14,8°C auswirken. Denn diese Durchschnittstemperatur NST kann über ihren 24h-Verlauf eigentlich nur ganz minimal schwanken. Schließlich soll dieser Wert aus weltweit zeitgleich ermittelten Temperaturen berechnet werden und bildet deshalb für jeden Zeitpunkt des 24h-Tages einen globalen Tag&Nacht-Durchschnitt ab. Die Tagseite (A) und die Nachtseite (B) der Erde sind an diesen Durchschnittswerten also gleichberechtigt beteiligt. Lediglich die unterschiedliche geographische Verteilung von Land- und Ozeanflächen und deren Position zum aktuellen Stand der Sonne dürften einen merklichen Einfluss auf den globalen tages- und jahreszeitlichen Temperaturdurchschnitt ausüben.

Es ist etwas ärgerlich, aber die „gemessenen“ Globaltemperaturen werden üblicherweise als Differenzen zu einem Referenzzeitraum angegeben, sodass eine echte Zuordnung oder gar die Überprüfung von konkreten Aussagen kaum noch möglich ist. Diesem Vorgehen liegt sicherlich keine böse Absicht zugrunde, Zusammenhänge zu verschleiern oder gar fehlerhafte Aussagen zu stützen. Auf meteo.plus findet man schließlich eine Copyright-geschützte Abbildung mit dem Verlauf der absoluten Globaltemperaturen seit 1979 bis heute, und zwar aufgeteilt in Globaltemperaturen sowie die Temperaturen von Nord- und Südhemisphäre, deren grobe Durchschnittswerte nachstehend aufgeführt sind:

Tabelle 1: Globale Durchschnittswerte der Temperatur (Daten von meteo.plus)

Im Ergebnis schwankt die Globaltemperatur also zwischen 12°C und 17°C, und im langjährigen Durchschnitt liegt sie bei etwa 14,5°C. Sie verläuft in Phase mit der Temperatur der Nordhemisphäre, und zwar mit dem Mittelwert der jeweiligen Temperaturen von Nord- und Südhemisphäre, beispielsweise als MED(MIN-Nord, MAX-Süd) oder MED(MAX-Nord, MIN-Süd).

In einer ersten groben Näherung können wir also die Nord-Temperatur den Landmassen und die Süd-Temperatur den Ozeanen zuordnen, wohl wissend, dass eine reine Land-Temperatur eine noch größere Schwankungsbreite hätte und eine reine Ozean-Temperatur eine noch geringere; Willis Eschenbach gibt übrigens die Schwankungsbreite der reinen Landtemperatur mit 15°C und die der Ozeane mit 5°C an. Was bei den meteo.plus-Daten allerdings in beiden Fällen bleibt, ist eine Mitteltemperatur von etwa 14,5°C, die der sagenhaften „gemessenen globalen Durchschnittstemperatur“ (NST) von 14,8°C recht nahe kommt. Und in seiner E-Mail vom 11.04.2021 um 23:47 Uhr an den Skeptiker-Verteiler verweist Kramm auf einen Artikel von Lockyer, „Studies of temperature and pressure observations„, der 1906 in Nature erschien war. Darin heißt es, Zitat:

« It is interesting to remark that the northern hemisphere appears to be 1.5 °C warmer than the southern. Spitaler in 1886 came to a similar conclusion, his figures being :-

[Der Google-Übersetzer: Es ist interessant festzustellen, dass die nördliche Hemisphäre 1,5 ° C wärmer zu sein scheint als die südliche. Spitaler kam 1886 zu einem ähnlichen Ergebnis, seine Zahlen waren:- ]

Northern hemisphere …..15.4 °C,

Southern hemisphere….. 14.8 °C,

Whole earth………………. 15.1 °C,

Excess of N. over S. ………0.6 °C

Die „Whole-earth-Temperatur“ von Spitaler (1886) liegt also bei etwa 15°C. Da bleibt die Frage, wie überhaupt die „aktuelle globale Erwärmung bereits bei etwa 1 Grad Celsius“ über einer „vorindustriellen Durchschnittstemperatur“ liegen kann, wo doch in der Gegenwart immer noch sogenannte Globaltemperaturen um 15°C herum gemessen werden. Schließlich können für die Zeit vor 1886 gar keine neuen Temperaturmessungen mehr dazugekommen sein…

Meinem hemisphärischen S-B-Modell für unsere reale Erde wird von diversen Kritikern eine Nachttemperatur von 0 Kelvin nachgesagt. Nun erhält die Nachtseite unserer realen Erde zwar keinerlei Sonneneinstrahlung, aber trotzdem herrscht dort keine Mond-Temperatur von etwa minus 200°C. Vielmehr befindet sich die Temperatur unserer Erde in einem „eingeschwungenen“ Zustand. Lediglich die Differenz zur minimalen Nachttemperatur muss täglich ersetzt werden (hier letzte Abbildung). Denn die Nachttemperatur eines passiv bestrahlten Himmelskörpers hängt im Wesentlichen von dessen Wärmespeicherfähigkeit ab. Und auf unserer Erde wird der Nachtseite die erforderliche Wärme von ihrer kombinierten Luft-Wasser-Heizung aus den globalen Zirkulationen (Atmosphäre und Ozeane) zur Verfügung gestellt. Allein die Ozeane, die zwei Drittel unserer Erdoberfläche bedecken, enthalten ein Wärmeäquivalent von etwa 50.000 24h-Tagen Sonneneinstrahlung; und diese Wärmespeicher (Atmosphäre und Ozeane) werden wiederum fortwährend durch die solare Einstrahlung auf der Tagseite unserer Erde „aufgeladen“. In der nachfolgenden Abbildung ist links die jahresdurchschnittliche Oberflächentemperatur der Ozeane dargestellt, also der Durchschnitt zwischen Tag und Nacht sowie Frühling, Sommer, Herbst und Winter – mit entgegengesetzten Jahreszeiten auf beiden Hemisphären:

Abbildung 3: Temperaturvergleich Ozeane und S-B-Temperaturäquivalent der solaren Einstrahlung. Links: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA). Rechts: Das maximale breitenabhängige S-B-Temperaturäquivalent über den 24h-Tag im Äquinoktium, das aufgrund von Verdunstung und Konvektion nirgendwo erreicht wird

Mit angepasster Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)) Darüber: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über einen 24h-Tag im Äquinoktium

ALSO noch einmal ganz langsam zum Mitdenken: Die Sonne muss unsere Erde gar nicht jeden Morgen von 0 Kelvin auf Tagestemperatur bringen. Die Erde befindet sich nämlich in einem „eingeschwungenen“ Zustand und ihre Wärmespeicher sind mit dem Äquivalent von mehr als 50.000 24h-Tagen Sonneneinstrahlung gefüllt. Diese Wärmespeicher verlieren also nachts „nur etwas“ Energie und müssen deshalb auf der Tagseite lediglich „nachgefüllt“ werden, mehr nicht. Im Mittel sprechen wir hier von 1,05*10^22 Joule, die die Erde über den durchschnittlichen 24h-Tag netto erhält und auch wieder abstrahlt. Denn sonst wäre die sogenannte „gemessene“ globale Durchschnittstemperatur (NST) nicht einigermaßen stabil. Herr Werner Schulz hatte die KKDML-Fraktion mit pädagogischem Langmut immer wieder darauf hingewiesen, dass auf der Tagseite im Mittel* 480W/m² kontinuierlich eingestrahlt und 240W/m² kontinuierlich über die Gesamtfläche der Erde abgestrahlt werden. Abgestrahlt werden also jeweils 240W/m² auf der Tagseite und 240W/m² auf der Nachtseite – das ergibt in Summe dann wieder 480W/m² Abstrahlung, also gilt: IN=OUT.

*) Für die Sophisten unter Ihnen: Korrekt wäre bei der Einstrahlung eine Summierung über (S0(1-Albedo)* COSZenitwinkel). Ich verwende hier nach KT97 weiterhin 940W/m² für (S0(1-ALBEDO)); in meinen DGG-Veröffentlichungen beschreibe ich dagegen einen Zweischichtfall.

Die solare Einstrahlung ersetzt also lediglich die terrestrische Abstrahlung bei einer „gemessenen globalen Durchschnittstemperatur“ (NST) von etwa 15°C, die sich wiederum ohne einen „natürlichen atmosphärischen Treibhauseffekt“ ganz zwanglos aus meinem hemisphärischen S-B-Ansatz herleitet. Es gilt demnach im langjährigen Durchschnitt:

[ Solare Einstrahlung @2PIR² = terrestrische Abstrahlung @4PIR² ] @ NST

Unsere Erde verfügt auf zwei Dritteln ihrer Oberfläche über eine Fußbodenheizung mit der in Abbildung 3 (links) dargestellten mittleren Vorlauftemperatur. Diese Ozean-Temperaturen repräsentieren wiederum zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Die mittlere jährliche Oberflächentemperatur der Ozeane liegt bis etwa 70° nördlicher und südlicher geographischer Breite zwischen 0°C – 30°C und fällt erst jenseits davon auf bis zu -5°C ab; ein globaler Durchschnitt dürfte also in etwa bei der NST von etwa 15°C kumulieren. Wie wir bereits erfahren haben, wird das maximale rechnerische S-B-Temperaturäquivalent meines hemisphärischen S-B-Modells aufgrund von örtlicher Konvektion und Verdunstung in der Realität nirgendwo erreicht. Andererseits sinkt die Temperatur der Winterhemisphäre, insbesondere in der Polarnacht, niemals auf das rechnerische S-B-Temperaturäquivalent der geringen/fehlenden solaren Einstrahlung ab. Die nachfolgende Abbildung zum globalen horizontalen Wärmetransport gibt Aufschluss über die Gründe dafür:

Abbildung 4: Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite. QUELLE: HÄCKEL, Meteorologie, Verlag Eugen Ulmer, Stuttgart 1990, hier aus dem Internet

Alle diese Energieströme summieren sich für eine feste geographische Breite im durchschnittlichen Jahresmittel gerade auf null. Wir können hier also erkennen, dass sich die Überschüsse und Defizite gegenüber dem hemisphärisch berechneten S-B-Temperaturäquivalent durch den lateralen Transport von Wärme gerade global ausgleichen und damit mein hemisphärisches S-B-Modell voll bestätigen.

Wenn wir jetzt abschließend in der nachfolgenden Abbildung noch einmal die beiden Modell-Temperaturverläufe mit den Beleuchtungsklimazonen unserer Erde vergleichen, dann finden wir estätigt, dass unser Schulwissen über diese Klimazonen gar nicht mal so schlecht ist:

Abbildung 5: Vergleich unterschiedlicher Modelle für die globale Verteilung der Temperatur. Links mein hemisphärisches S-B-Modell: Oberflächentemperatur für die solaren Strahlungsmaxima nach Weber aus Kramm (2021)*. Mitte: Die Beleuchtungsklimazonen der Erde: von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License). Rechts ein breitenabhängiges 24h-Temperaturmittel: Oberflächentemperatur für die solaren tägliche Mittelwerte nach Kramm et al. (2017) aus Kramm (2021)*

Ergebnis: Unserem profanen Schulwissen ist an dieser Stelle wohl nichts mehr hinzuzufügen. Wie erwartet, spiegeln die Beleuchtungsklimazonen (Definition) unserer Erde (Abbildung 5 Mitte) den Verlauf der maximalen örtlichen solaren Strahlungsleistung. Und diese solare Strahlungsleistung ist in den Tropen am höchsten und fällt dann zu den Polarregionen kontinuierlich ab. Von den beiden konkurrierenden theoretischen Klimamodellen in Abbildung 5 wird dieser natürliche Verlauf lediglich von meinem hemisphärischen S-B-Modell korrekt abgebildet. Mein hemisphärisches S-B-Modell aus dem 21. Jahrhundert ersetzt als realistisches Modell unserer Erde ohne THE also das Faktor4-Tag=Nacht-THE-Flacherdemodell der real existierenden Klimawissenschaft mit einem fehlerhaft konstruierten „natürlichen atmosphärischen Treibhauseffekt“ von konstant 33°C.

*) Nachtrag: Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Adressat der o. g. E-Mail vom 29. Januar 2021 um 09:58 Uhr mit Kramms PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ und den dort enthaltenen Abbildungen 15 a und b (hier Abb. 1 a und b sowie Abb. 5 links und rechts) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein. Ich beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung dieser Graphiken in meinem Artikel „Die sogenannte ‚gemessene globale Durchschnittstemperatur‘ wird von den Ozeanen bestimmt“, Zitat:

CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, die Inhalte der besagten E-Mail Kramm vom 29. Januar 2021 um 09:58 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.




Ist die Wissenschaft wirklich settled?

Am Montag, den 15. März, wurde ein Artikel [1] in Nature Geoscience veröffentlicht (eine der Zeitschriften des Nature-Verlags), in dem behauptet wird, dass „die Abfolge der jüngsten [mitteleuropäischen] Sommertrockenheit seit 2015 beispiellos in den letzten 2.110 Jahren ist“ und „wahrscheinlich durch die anthropogene Erwärmung und die damit verbundenen Veränderungen in der Position des Sommer-Jetstreams verursacht wurde.“ Der Guardian [2] griff diese Erkenntnisse auf und titelte: „Recent European Droughts: Worst in 2,000 Years“.

Aber am Freitag derselben Woche (19. März) wurde in einem anderen Nature-Journal – Communications Earth & Environment – ein weiterer Artikel[3] veröffentlicht, der zu dem Ergebnis kam, dass „Mitteleuropa viel längere und schwerere Dürren [in den Jahren 1400-1480 n. Chr. und 1770-1840 n. Chr.] als die im 21. Jahrhundert beobachteten erlebt hat“ und dass die Megadürren durch Winterblockaden über den Britischen Inseln, reduzierten solaren Antrieb und explosiven Vulkanismus verursacht wurden. Sie kommen zu dem Schluss, dass die „jüngsten Dürre-Ereignisse (z.B. 2003, 2015 und 2018) im Bereich der natürlichen Variabilität liegen und im letzten Jahrtausend nicht beispiellos sind.“

Wie kann es sein, dass zwei Arbeiten, die innerhalb derselben Kalenderwoche in zwei angesehenen Fachzeitschriften veröffentlicht wurden, zu Schlussfolgerungen kommen, die diametral entgegengesetzt sind? Willkommen in der Welt der Wissenschaft, wo „The Science is Never Settled“. Ungeachtet dessen, was die Alarmisten Sie glauben machen wollen, ist die Klimawissenschaft immer noch eine laufende Debatte, und wir haben sicherlich nicht alle Antworten.

————————

[1] Büntgen, U., Urban, O., Krusic, P.J. et al. Recent European drought extremes beyond Common Era background variability. Nat. Geosci. (2021). https://doi.org/10.1038/s41561-021-00698-0

[2] https://www.theguardian.com/environment/2021/mar/15/climate-crisis-recent-european-droughts-worst-in-2000-years

[3] Ionita, M., Dima, M., Nagavciuc, V. et al. Past megadroughts in central Europe were longer, more severe and less warm than modern droughts. Commun Earth Environ 2, 61 (2021). https://doi.org/10.1038/s43247-021-00130-w

Link: https://cornwallalliance.org/2021/05/is-the-science-settled/

Übersetzt von Chris Frey EIKE

 




Die CO2-Verschiebung: Eiszeit zu Gaszeit

Der CO2-Hockeyschläger

Der CO2-Hockeyschläger ist eine bekannte Grafik. Abbildung 1 zeigt CO2-Daten aus Eiskernblasen, CO2-Daten aus dem Firn sowie atmosphärische, instrumentelle CO2-Messungen von Cape Grim. Atmosphärische Daten sind nur für etwa die letzten 150 Jahre verfügbar. Daher werden Firn- und Eiskerndaten verwendet, um den CO2-Datensatz weiter in die Vergangenheit zu verlängern. Hochakkumulierte Eisdaten wie DE08 reichen häufig nicht so weit in die Vergangenheit zurück und decken nicht einmal die Kleine Eiszeit (LIA) ab. Es ist erstaunlich, wie sich all die sehr unterschiedlichen CO2-Datensätze bis auf wenige Ausnahmen recht gut überschneiden.

Abbildung 1: Auf das Gasalter korrigierte CO2-Konzentrationen. Inset ist ein Blow-up zwischen 1900-2020 n. Chr., das den CO2-Flachpunkt zeigt. Kästen markieren verschiedene Datenmedien und die ungefähre Lage der Eisblasenzone. Die CO2-Daten für Law Dome (DE08, DSS) stammen aus Rubino 2019; WAIS stammt aus Bauska 2015; Siple stammt aus Neftel 1994; und EDML stammt aus Siegenthaler, 2005.

Abgesehen von dem auffälligen Hockeyschläger gibt es noch einige andere bemerkenswerte Beobachtungen. Es gibt eine größere Streuung in den CO2-Messungen von 1900 und älter zwischen den verschiedenen Eiskernaufzeichnungen. Ein Grund für die größere Streuung ist, dass die WAIS-CO2-Daten systematisch 3-4 ppm höher sind als die Law-Dome-Eiskern-CO2-Daten (Ahn, 2012). Wissenschaftler können diese Abweichung nicht erklären und subtrahieren häufig einfach 4 ppm von diesem Datensatz (Bereiter, 2014).

Ein CO2-Flachpunkt und eine Stabilisierung von 310-312 ppm von 1940-1960 ist in den Law-Dome-Daten erkennbar (MacFarling, 2006). Die Glättung aufgrund der Gasdiffusion im Firn und des Einschlusses in Blasen reduziert die CO2-Variationen, so dass die tatsächliche atmosphärische Variation wahrscheinlich größer ist als die Aufzeichnung des Law Dome-Eiskerns. Leider endete die CO2-Glättung kurz bevor die atmosphärischen Aufzeichnungen am Mauna Loa begannen.

Eine CO2-Ausbuchtung tritt in allen Eiskernaufzeichnungen von etwa 1000 n. Chr. bis 1600 n. Chr. auf und ist über 600 Jahre lang. Auch dieser CO2-Anstieg hatte wahrscheinlich eine größere atmosphärische Signatur, als in den Eisbohrkernen erhalten ist. Der CO2-Buckel endet mit dem Beginn der LIA um 1600 n. Chr., wo CO2 in allen Eiskernaufzeichnungen abnimmt. Ein einzigartiger CO2-Einbruch in den Law Dome DSS-Daten tritt um 1610 n. Chr. nahe dem Beginn der LIA auf und könnte auf die höhere Auflösung zurückzuführen sein (Rubino, 2019). Diese Senke ist in keinem anderen Eisdatensatz zu finden und trägt zur Streuung der CO2-Daten bei. DSS hat auch andere CO2-Tiefpunkte um 1780 n. Chr. nahe dem Ende der LIA und um 1278 und 1350 n. Chr. in der Mitte der CO2-Ausbuchtung. Rubino weist darauf hin, dass das Verständnis dieser vom Eis aufgezeichneten Amplitudenschwankungen und der tatsächlichen Größe der ursprünglichen atmosphärischen Signaturen vor der Firnglättung ein entscheidendes Teil des CO2-Puzzles ist.

Die CO2-Verschiebung

Wie in meinem früheren WUWT-Beitrag hier besprochen, werden atmosphärische Gase während des Firnübergangs zu Eis und Blaseneinschluss modifiziert. Es gibt zwei wesentliche Modifikationen, die von der Schneeakkumulationsrate und der Temperatur abhängig sind. Erstens wird die CO2-Variabilität aufgrund der atmosphärischen Durchmischung und Diffusion mit den CO2-Konzentrationen im Firn geglättet. Zweitens wird angenommen, dass das Gas jünger als das Alter des Eises ist, wenn es schließlich in den Blasen eingeschlossen wird. (Battle, 2011; Trudinger, 2002, Blunier, 2000). Sobald das Gas in den Blasen eingeschlossen ist, wird angenommen, dass es mit dem Eis altert. Dieser Altersunterschied wird als Eis-Gas-Altersdelta bezeichnet. Das Delta reicht von etwa 30 Jahren im Law Dome bis zu 835 Jahren im EDML-Eiskern mit geringer Akkumulation. Sehr niedrig akkumulierende Standorte wie Dome C und Vostok haben ein großes Delta von Tausenden von Jahren.

Abbildung 2 zeigt die CO2-Messungen aus dem tatsächlichen Alter des Eises, in dem es eingeschlossen ist, für fünf Eiskerne in der Antarktis und vor den Anpassungen durch die Anwendung von Eis-Gas-Alter-Deltas, wie in Abbildung 1 gezeigt. Atmosphärische Daten von Cape Grim und Firndaten sind zum Vergleich in der Grafik dargestellt. Die Deltadifferenz in Jahren zwischen dem jüngeren Gasalter und dem älteren Eisalter sind vermerkt. Die Spitze des Eises, die ungefähr der Basis der Blasenzone entspricht, ist ebenfalls dargestellt. Dieser Plot ist ein Profil, das in der veröffentlichten Literatur selten zu finden ist oder diskutiert wird.

Abbildung 2: CO2-Konzentrationen in der Eiszeit. Die Zahlen zeigen die Eiszeitdifferenz in Jahren. Die gestrichelte Linie ist die Spitze des Eises und die ungefähre Position der Basis der Blasenzone. Die Referenzen der CO2-Daten sind in Abbildung 1 vermerkt.

Abbildung 2 führt zu der Frage, wie das Delta zwischen Eis- und Gasalter berechnet wird. Wenn die Gasmessungen in Eis oder Firn mit den Instrumentaldaten übereinstimmen, wird es einfach auf das Alter der Instrumentaldaten verschoben. Zum Beispiel werden die Eisgasdaten von Law Dome DE08 einheitlich um 31 Jahre verschoben, um mit den instrumentellen atmosphärischen Daten übereinzustimmen. Verschiedene andere Methoden werden verwendet, um das Delta und die daraus resultierende einheitliche Verschiebung zu schätzen. Firnmodelle können das Eisgas-Altersdelta für Eiskerne unter Verwendung von Dichte- und Temperaturdaten berechnen und werden durch die Verwendung von Stickstoff-15-Daten, einem Proxy für die Firndicke, eingeschränkt (Raynaud, 2005). Ein anderer Ansatz verwendet Eistiefen im Kern, die zeitgleich mit Eiskernen sind, bei denen die Gasalter gut eingegrenzt sind (Bender, 2005). DSS und Siple werden um 58 bzw. 83 Jahre verschoben, um mit den DE08-Daten übereinzustimmen. Nachdem alle Verschiebungen vorgenommen wurden, erscheint ein großer Hockeyschläger steigender CO2-Konzentrationen um 1900 n. Chr., wie in Abbildung 1 dargestellt.

Die CO2-„Verschiebungsmethode“ unter Verwendung der Siple-Daten wurde insbesondere von Jaworowski, 2004, hervorgehoben. Er wies darauf hin, dass im Jahr 1890 n. Chr. im Siple-Eiskern hohe CO2-Konzentrationen von 328 ppm auftraten, die nicht mit der interpretierten CO2-Basislinie übereinstimmten. Die gesamten Siple-CO2-Daten wurden einfach um 83 Jahre verschoben, um mit den modernen instrumentellen CO2-Messungen am Mauna Loa von 1973 übereinzustimmen. Diese einfache Verschiebungsmethode ist nach wie vor eine akzeptierte Technik zur „Korrektur“ des jüngeren Gasalters in Eiskernen.

Das Ausmaß der Altersverschiebung ist interpretierbar, und Wissenschaftler verwenden verschiedene Methoden, die zu unterschiedlichen Verschiebungen für denselben Datensatz führen. Eisgasalter-Deltas haben Unsicherheiten von 10-15% (Seigenthaler, 2005). Warum ist dies also wichtig? Die Temperaturen aus der Wasser-Isotopenzusammensetzung des Eises sind eiszeitlich. Daher werden die Temperaturen immer im gleichen Alter wie das Eis dargestellt. Die Gasdaten hingegen werden vom Alter des Eises auf ein interpretiertes Gasalter korrigiert. Jede Auswertung von Lead-Lag-Beziehungen sollte die 10-15%ige Unsicherheit berücksichtigen, die mit der Berechnung der CO2-Eis-Gas-Alter-Deltas verbunden ist.

Die Erhaltung des CO2-Hocleyschlägers in Eis

Wenn die CO2-Verschiebung oder das Altersdelta entfernt wird, wie in Abbildung 2 gezeigt, dann wird die CO2-Variabilitätsunterdrückung mit niedrigeren Akkumulationsstellen leicht erkennbar. Mit Ausnahme von DE08 zeigen die Eiskernaufzeichnungen unterhalb der Blasenzone, dass die höchste Aufzeichnung von CO2 nur 312-316 ppm beträgt, was fast 100 ppm unter dem aktuellen atmosphärischen Wert von 410 ppm liegt (Abbildung 3a). Es ist interessant festzustellen, dass diese Messwerte von 312-316 ppm mit dem DE08-Flachpunkt vergleichbar sind.

Viele Autoren haben eine Gasglättung in der Firnschicht aufgrund von vertikaler Gasdiffusion und allmählicher Blasenschließung beim Übergang von Firn zu Eis dokumentiert (Trudinger, 2002; Spahni, 2003; MacFarling, 2006; Joos und Spahni, 2008; Ahn, 2012; Fourteau, 2019; Rubino, 2019). Um Kerne von Standorten mit unterschiedlicher Akkumulationsrate zu kompensieren, wird eine Gasaltersverteilungsbreite oder Glättung modelliert. Zum Beispiel haben Kerne mit hoher Akkumulation wie Law Dome ein durchschnittliches Gasalter von 10-15 Jahren, WAIS ein durchschnittliches Gasalter von etwa 30 Jahren und DML von 65 Jahren. Standorte mit geringer Akkumulation wie Dome C und Vostok zeigen, dass das Gas über Hunderte von Jahren gemittelt oder geglättet ist. Das bedeutet, dass ein Glättungsfaktor auf atmosphärische Gasmessungen angewendet werden muss, wenn man sie mit verschiedenen Eiskernen vergleicht. Die meisten historischen CO2-Diagramme spleißen jedoch einfach atmosphärisches und Firn-CO2 auf Eis-CO2-Daten auf, ohne eine Glättung anzuwenden, wie in Abbildung 1 gezeigt.

Abbildung 3: a) Anfängliche CO2-Konzentration in jedem Eiskern unterhalb der Blasenzone. b) Diagramm, das die Beziehung zwischen Eis-Gas-Alter-Delta und Gasglättung in Jahren zeigt. Daten aus Ahn, 2012; Trudinger, 2002, und Seigenthaler, 2005.

Eiskerne mit geringer Akkumulation, die größere Verschiebungen und größere Eis-Gas-Alter-Deltas erfahren, bewahren auch eine geringere CO2-Variabilität und eine höhere Glättung. Die Beziehung zwischen der Verschiebung des Eisgasalters und der Glättung der Gasamplitude ist in Abbildung 3b dargestellt.

Beobachtungen

Beim Vergleich des schnellen Anstiegs des atmosphärischen CO2 in diesem Jahrhundert mit Daten aus vergangenen Eiskernen werden viele Variablen und Datenannahmen verwendet. CO2-Messungen aus sehr unterschiedlichen Datensätzen werden häufig miteinander verknüpft; atmosphärische, Firn- und Eiskerne. Atmosphärisches CO2-Gas wird im Firn durch Diffusion und allmählichen Blaseneinschluss verändert und kann nicht direkt mit CO2-Daten in Eiskernen unterhalb der Blasenzone verglichen werden. Die übliche Methode, CO2-Eiskernaltersmessungen einfach zu verschieben, kombiniert mit der Nichtanwendung der entsprechenden atmosphärischen Abschwächung, ergibt den verstärkten CO2-Hockeyschläger.

Acknowledgements: Special thanks to Donald Ince and Andy May for reviewing and editing this article.
Download the bibliography here.

Link: https://wattsupwiththat.com/2021/05/02/the-co2-shift-ice-age-to-gas-age/

Übersetzt von Chris Frey EIKE




Erwärmung der Ozeane? Nun ja…

Und was habe ich gefunden? Nun, ich bin ein visueller Typ, das heißt, ich brauche es anschaulich. Hier sind also meine Grafiken. Ich interessiere mich für die Veränderungen im ozeanischen Wärmeinhalt, also sind das zwei Ansichten dieser Trends.

Abbildungen 1 & 2. Dekadische Trends im ozeanischen Wärmeinhalt, in Exajoule (1018 Joule) pro Dekade.

Meine erste Überraschung? Es gibt eine Reihe riesiger ozeanischer, langsam rotierender Wirbel, die ich schon einmal gesehen habe. Sie beginnen an der Südspitze Afrikas und reichen bis unter Australien. Ich wusste von ihnen, weil sie in Grafiken von Satellitendaten über die Meeresoberfläche sichtbar sind. Aber was mir nicht klar war: diese Wirbel mischen warmes Oberflächenwasser in die Tiefe. Dies wird durch die orange/gelbe Linie der erhöhten Unterwasserwärme angezeigt, die sich von Afrika unter Australien erstreckt.

Und wenn man etwas warmes Oberflächenwasser nach unten mischt, muss anderes kühles Tiefenwasser nach oben kommen … wie die entsprechende Linie von Gebieten direkt südlich der Wirbel anzeigt, die von schwarz/weißen Linien umgeben sind und Gebiete zeigen, die seit 1955 tatsächlich Wärme verloren haben.

Was hat mich noch überrascht? Die Turbulenzen des Golfstroms, die mit der Topographie des Ozeanbodens entlang der Ostküste der USA interagieren, mischen auch warmes Oberflächenwasser nach unten … und der entsprechende Auftrieb von kaltem Wasser unter der Oberfläche findet gerade südlich von Grönland statt.

Ich habe mich schon lange gefragt, wie sich weniger dichtes, wärmeres Wasser nach unten in dichteres, kühleres, tieferes Wasser mischen kann … nun, es gibt ein paar Orte, an denen dies geschieht.

Zum Schluss habe ich mir noch die tatsächliche Temperaturänderung angesehen, die durch diese Exajoule an Energieänderungen dargestellt wird. Ich bin sicher, ich weiß es nicht.

Aber man kann es ausrechnen. Also habe ich die langsame Zunahme des Wärmeinhalts in Exajoule in Grad Celsius langsamer Erwärmung umgerechnet. Hier ist das Ergebnis:

Abbildung 3. Veränderung der globalen Ozeantemperatur, Oberfläche bis 700 Meter Tiefe von 1955 bis 2020

Ein Viertelgrad in einem halben Jahrhundert?

Nun lese ich immer wieder davon, dass Fische als Reaktion auf die Erwärmung der Ozeane ihre Standorte ändern. Aber das erscheint mir äußerst zweifelhaft, weil die Veränderungen so gering sind. In den letzten fünfzig Jahren hat sich der Ozean um etwa 0,005°C pro Jahr erwärmt … und nennen Sie mich verrückt, aber ich glaube einfach nicht, dass die Fische und andere Unterwasserbewohner so temperaturempfindlich sind, dass eine Veränderung von einem Viertelgrad in einem halben Jahrhundert sie dazu bringt, ihr glückliches Zuhause zu verlassen.

Zum einen liegt die vertikale Temperaturveränderung im offenen Ozean oft in der Größenordnung von 1°C pro 40 Meter Höhe oder so. Hier sind einige ARGO-Schwimmerprofile der oberen 200 Meter:

Abbildung 4. Vertikale Temperaturprofile des Nordpazifiks, Argo-Float-Daten.

Und das bedeutet, dass ein Fisch oder ein anderer Unterwasserbewohner, wenn er sich um zehn Meter nach oben oder unten bewegt, bereits die gefürchtete Temperaturänderung von einem Viertelgrad durchgemacht hat …

Hinzu kommt, dass viele Millionen von Meeresfischen, Garnelen und Copepoden jede Nacht von 800-1000 Metern Tiefe auf etwa 100 Meter Tiefe wandern und dann bei Sonnenaufgang wieder abtauchen … was bedeutet, dass sie jede Nacht fröhlich 5° – 10° Temperaturwechsel ertragen. Ich bezweifle daher sehr, dass sie sich von einer Temperaturänderung von einem Viertelgrad in einem halben Jahrhundert stören lassen.

Und gemessen an der Tonnage ist diese tägliche vertikale Wanderung die größte Bewegung von Lebewesen auf dem Planeten … wir reden also nicht über ein paar Fische hier und da.
Das ist die Quintessenz. Wenn die Lebewesen auf der Welt, sowohl an Land als auch im Meer, so temperaturempfindlich wären, wie die Alarmisten uns glauben machen wollen, wären diese Lebewesen (und auch wir Humanoiden) alle schon längst ausgestorben. Und soweit ich das beurteilen kann, ist das nicht geschehen … zumindest noch nicht.

Link: https://wattsupwiththat.com/2021/05/01/oceanic-warming-well-sorta/

Übersetzt von Chris Frey EIKE

 




Das neue Buch von Steven Koonin: Unsettled…

Der Buchautor Steven E. Koonin

Professor Koonin schickte mir im November einen fast endgültigen Entwurf zum Lesen und Kommentieren und ich habe sein Buch ein wenig überarbeitet, aber der Entwurf war schon damals in guter Form. Jetzt ist er noch besser. Ich habe vor ein paar Wochen ein signiertes Vorabexemplar erhalten, aber ich habe trotzdem eine Kindle-Version vorbestellt, um leichter darauf zugreifen zu können, und ich empfehle Ihnen, das auch zu tun. Dies ist ein wichtiges Buch, nicht nur weil Koonin ein brillanter und berühmter Physiker ist, sondern auch wegen des Inhalts. Es ist ein guter Überblick über die Wissenschaft, aber auch philosophisch wichtig.

Koonin hat mehr als 200 wissenschaftliche Arbeiten und Artikel geschrieben. Sie wurden laut Google Scholar über 14.000 Mal zitiert. Diese beziehen sich meist auf seine Hauptgebiete der Kern- und Atomphysik. Er hat auch über Biokraftstoffe, Energie, Klimawissenschaft, Beobachtungen der Albedo der Erde und die Analyse des menschlichen Genoms geschrieben. Er war einst Vorsitzender der kleinen JASON-Gruppe von Wissenschaftlern, die das Pentagon und andere Bundesbehörden beraten. Wie das Wall Street Journal in seiner kürzlichen Rezension des Buches berichtet, sind „Mr. Koonins wissenschaftliche Referenzen tadellos.“ (Mills, 2021).

Wir können erwarten, dass er von der Presse geschmäht wird, weil er nicht auf der Parteilinie liegt, aber er ist in dem Buch eindeutig korrekt und besonnen. Das Buch ist noch nicht für die Öffentlichkeit zugänglich, aber es ist bereits ein #1 Bestseller im Amazon Kindle Store, unter „Wetter“. Ein paar interessante Zitate aus der frühen Kopie, die er mir geschickt hat:

Die Erde hat sich im letzten Jahrhundert erwärmt, teilweise aufgrund natürlicher Phänomene und teilweise als Reaktion auf wachsende menschliche Einflüsse. Diese menschlichen Einflüsse (vor allem die Anhäufung von CO2 aus der Verbrennung fossiler Brennstoffe) üben einen physikalisch kleinen Effekt auf das komplexe Klimasystem aus. Leider reichen unsere begrenzten Beobachtungen und unser Verständnis nicht aus, um sinnvoll zu quantifizieren, wie das Klima auf menschliche Einflüsse reagiert oder wie es sich auf natürliche Weise verändert. Doch selbst wenn sich die menschlichen Einflüsse seit 1950 verfünffacht haben und sich der Globus nur geringfügig erwärmt hat, bleiben die meisten schweren Wetterphänomene innerhalb der Variabilität der Vergangenheit. Projektionen zukünftiger Klima- und Wetterereignisse beruhen auf Modellen, die für diesen Zweck nachweislich ungeeignet sind.“ (Koonin, 2021, S. 24)

Dieses Zitat ist besonders wichtig, weil viele in der Öffentlichkeit nicht erkennen, dass der menschliche Einfluss auf das Klima nie in der Natur beobachtet oder gemessen wurde. Sie halten es für eine Tatsache, aber das IPCC hat uns nur eine sehr grobe Schätzung auf der Basis von Modellen geliefert. Was hat Professor Koonin zu den Klimamodellen zu sagen?

Es ist leicht, sich von der Vorstellung verführen zu lassen, dass wir einfach den gegenwärtigen Zustand der Atmosphäre und der Ozeane in einen Computer einspeisen können, einige Annahmen über zukünftige menschliche und natürliche Einflüsse machen und so das Klima Jahrzehnte in die Zukunft genau vorhersagen können. Leider ist das nur ein Hirngespinst, wie man aus Wettervorhersagen schließen kann, die bis auf zwei Wochen oder so genau sein können. (Koonin, 2021, S. 79)

Zwei Wochen? Koonin ist sehr großzügig; er beruft sich auf diese Quelle [EZMW]. Er fügt ein paar Seiten später hinzu:

Jeder, der sagt, dass Klimamodelle ’nur Physik‘ sind, versteht sie entweder nicht oder er will absichtlich in die Irre führen. (Koonin, 2021, S. 81).

Einige Wissenschaftler des Max-Planck-Instituts haben beschrieben, wie sie ihr Klimamodell getrimmt haben, indem sie eine ECS (die Klima- oder Temperatursensitivität auf eine Verdoppelung der CO2-Konzentration) von etwa 3°C anvisierten, indem sie ihre Wolkenrückkopplungen anpassten. Um zu verstehen, wie ungeheuerlich dies ist, muss man verstehen, dass Wolken nicht modelliert werden; sie sind einstellbare Parameter. ECS ist kein Modell-Input, sondern wird aus dem Modell-Output errechnet. Koonin’s Kommentar: „Die Forscher haben ihr Modell so manipuliert, dass die Sensitivität gegenüber Treibhausgasen ihren Vorstellungen entsprach. Das heißt, sie frisieren die Modelle, bis sie zum Narrativ passen.“ (Koonin, 2021, S. 93).

Die Regierungen der Welt und die U.N. haben Milliarden von Dollar für die Klimaforschung ausgegeben, und Tausende von Wissenschaftlern auf der ganzen Welt haben ihre ganze Karriere mit diesem Thema verbracht, wie steht es also um uns? Koonin sagt es uns:

Ein erhebliches Problem ist, dass die Streuung des [IPCC AR5] CMIP5-Ensembles in den Jahren nach 1960 größer ist als die der Modelle in CMIP3 – mit anderen Worten, die spätere Generation von Modellen ist tatsächlich unsicherer als die frühere. Hier gibt es also eine echte Überraschung: selbst als die Modelle anspruchsvoller wurden – einschließlich feinerer Gitter, ausgefeilterer Untergitter-Parametrisierungen … nahm die Unsicherheit zu (Koonin, 2021, S. 87)

Wir fügen hinzu, dass die Unsicherheit bei der Berechnung des Effekts von CO2 auf die globale Erwärmung (ECS) im AR5 genau der Berechnung entspricht, die im Charney-Report (Charney, et al., 1979, S. 2) angegeben wurde, nämlich 1,5° bis 4,5° (IPCC, 2013, S. 16).

Koonin wurde zuerst in Physik an der Cal Tech ausgebildet, wo er Richard Feynman kannte und mit ihm studierte, den berühmten Physiker, der uns lehrte, „an die Unwissenheit der Experten zu glauben.“ Koonin zitiert diese Passage aus Feynmans Cal-Tech-Eröffnungsrede von 1974:

Gestern Abend habe ich (im Fernsehen) gehört, dass das Wesson-Öl nicht das Essen durchtränkt. Nun, das ist wahr. Es ist nicht unehrlich; aber die Sache, von der ich spreche, ist nicht nur eine Angelegenheit von nicht unehrlich sein, es ist eine Angelegenheit der wissenschaftlichen Integrität, die eine andere Ebene ist. Die Tatsache, die zu dieser Werbeaussage hinzugefügt werden sollte ist, dass Öle keine Lebensmittel durchtränken, wenn sie bei einer bestimmten Temperatur zubereitet werden. Wenn sie bei einer anderen Temperatur betrieben werden, werden sie alle durchweichen – auch Wesson Oil. Es ist also die Implikation, die vermittelt wurde, nicht die Tatsache, die wahr ist, und der Unterschied ist das, womit wir uns beschäftigen müssen. (Koonin, 2021, S. 7)

Wie Koonin erzählt, ist dies der Zustand der Klimawissenschaft heute. Was der IPCC und die US-Regierung uns über die Klimawissenschaft erzählen, ist im Allgemeinen wahr, aber in ihrem Bemühen, „eher zu überzeugen als zu informieren“, lassen sie das weg, was nicht in ihr Narrativ passt. Sie erzählen uns genug, um alarmiert zu sein, aber nicht genug, um uns zu informieren. Es ist der Verlust der wissenschaftlichen Integrität, der alarmierend ist, nicht das Klima.

Ein Großteil des Buches wird damit verbracht, den Mythos zu zerstreuen, dass extreme Wetterereignisse aufgrund des vom Menschen verursachten Klimawandels zunehmen. Er erzählt, dass Hitzewellen heute nicht häufiger vorkommen als im Jahr 1900, Tornados nehmen nicht zu, ebenso wenig wie Dürren. Koonin kritisiert die Medien für die Behauptung, dass extremes Wetter irgendwie mit menschlichen Aktivitäten zusammenhängt, obwohl es dafür keine Beweise gibt.

Holman Jenkins vom Wall Street Journal hat ebenfalls einen Entwurf des Buches gelesen und Folgendes geschrieben, basierend auf einem Interview mit Koonin:

Koonin argumentiert nicht gegen die aktuelle Klimawissenschaft, sondern dass das, was die Medien und Politiker und Aktivisten über die Klimawissenschaft sagen, so weit von der tatsächlichen Wissenschaft entfernt ist, dass es absurd und nachweislich falsch ist. (Jenkins, 2021)

Jenkins und Koonin beklagen sowohl den Verlust der Ehrlichkeit als auch des Glaubens an die Bedeutung von Ehrlichkeit und Wahrheit in den heutigen Nachrichtenmedien und der Politik. Von 2009 bis 2011 war Koonin Präsident Obamas Unterstaatssekretär für Wissenschaft im Energieministerium. Später, im Jahr 2020, erklärte Obama, dass wir uns in einer „epistemologischen Krise“ befinden. Ob wir mit Obama in der Sache übereinstimmen oder nicht, wir sind uns einig, dass sich die USA in einer Krise in Bezug auf Wahrheit und Wissen befinden. In der Wissenschaft geht es darum, die Wahrheit auf objektive und reproduzierbare Weise zu ermitteln. Die eigenen Gefühle spielen keine Rolle, Ausreden spielen keine Rolle, Konsensmeinungen spielen keine Rolle, wie man es nennt („globale Erwärmung“ oder „Klimawandel“) spielt keine Rolle, es zählt nur das, was man präsentiert, das unabhängig reproduziert werden kann. Bei Unsettled geht es darum, die Wissenschaft wieder auf den richtigen Weg zu bringen, Wissenschaftler sollten berichten, was sie wissen, was sie nicht wissen, was sie modelliert haben und was sie beobachtet haben. Nicht mehr und nicht weniger.

Einige von Ihnen erinnern sich vielleicht daran, dass Professor Koonin 2014 einen interessanten, hochkarätig besetzten Workshop der American Physical Society zum Thema Klimawandel leitete. Sie diskutierten und debattierten die wesentlichen Elemente der laufenden Klimawandel-Debatte. Meine Zusammenfassung des Workshops kann hier nachgelesen werden. Das Lesen des Transkripts dieses Workshops war für mich ein großes Aha!-Erlebnis, es ist 573 Seiten lang, aber ein großartiges Beispiel für gut gemachte Wissenschaft. Leider wurden die großen Defizite in der populären, vom Menschen durchgeführtten Klimawissenschaft, die er aufzeigte, ignoriert. Koonin setzte sich aktiv für mehr solcher formalen wissenschaftlichen Debatten über die Wissenschaft ein; wobei ihm zufolge beide Seiten vertreten sein sollten. Leider wurde jeder Vorschlag in diese Richtung abgeschmettert. In Kapitel 11 beschreibt er „Fixing the Broken Science,“ und wie prominente demokratische Senatoren Markey, Schatz, Smith, Blumenthal, Shaheen, Booker, Stabenow, Klobuchar, Hassan, Markey, und Feinstein versuchten, jede Finanzierung einer ehrlichen Debatte über die Klimawissenschaft buchstäblich zu verbieten:

die Verwendung von Geldern an Bundesbehörden zu verbieten, um ein Gremium, eine Arbeitsgruppe, einen beratenden Ausschuss oder andere Bemühungen einzurichten, die den wissenschaftlichen Konsens zum Klimawandel in Frage stellen, und für andere Zwecke. (Koonin, 2021, S. 202)

Versuchen sie wirklich, ein Forschungsergebnis gesetzlich festzulegen? Wissenschaft ist Debatte. Ohne Debatte gibt es keine echte Wissenschaft. Die verschiedenen wissenschaftlichen Akademien sind nicht besser als der Senat. Koonin und seine Kollegen haben sie gedrängt, ihren Prinzipien treu zu bleiben und zu informieren, anstatt zu überreden, aber ihre Bitten wurden ignoriert. An diesem Punkt sind wir heute. Wir applaudieren Professor Koonin’s Standpunkt zur wissenschaftlichen Integrität und ermutigen andere, seinem Beispiel zu folgen.

[Hervorhebung vom Übersetzer]

Works Cited

Charney, J., Arakawa, A., Baker, D., Bolin, B., Dickinson, R., Goody, R., . . . Wunsch, C. (1979). Carbon Dioxide and Climate: A Scientific Assessment. National Research Council. Washington DC: National Academies Press. doi:https://doi.org/10.17226/12181

IPCC. (2013). In T. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. Allen, J. Boschung, . . . P. Midgley, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. Retrieved from https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SPM_FINAL.pdf

Jenkins, H. (2021, April 16). How a Physicist Became a Climate Truth Teller. Wall Street Journal. Retrieved from https://www.wsj.com/articles/how-a-physicist-became-a-climate-truth-teller-11618597216?mod=article_inline

Koonin, S. E. (2021). Unsettled: What Climate Science Tells us, What it doesn’t, and why it matters. Dallas, Texas, USA: BenBella. Retrieved from https://www.amazon.com/dp/B08JQKQGD5/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1

Mills, M. P. (2021, April 25). ‘Unsettled’ Review: The ‘Consensus’ On Climate. Wall Street Journal. Retrieved from https://www.wsj.com/articles/unsettled-review-theconsensus-on-climate-11619383653

Link: https://andymaypetrophysicist.com/2021/04/26/unsettled-steven-koonins-new-book/

Übersetzt von Chris Frey EIKE

 




Der sich abzeichnende Thermostat

Abstract

Das aktuelle Paradigma der Klimawissenschaft besagt, dass die langfristige Änderung der globalen Temperatur durch eine Konstante namens „Klimasensitivität“ multipliziert mit der Änderung der abwärts gerichteten Strahlung, genannt „Strahlungsantrieb“, gegeben ist. Trotz über vierzigjähriger Untersuchungen hat sich die Unsicherheit des Wertes der Klimasensitivität jedoch nur vergrößert.1 Dieser Mangel an jeglichem Fortschritt bei der Bestimmung des zentralsten Wertes im aktuellen Paradigma deutet stark darauf hin, dass das Paradigma selbst falsch ist, dass es keine genaue Beschreibung der Realität darstellt. Hier schlage ich ein anderes Klimaparadigma vor, das besagt, dass eine Vielzahl von auftretenden Klimaphänomenen zusammenwirken, um die Oberflächentemperatur in engen Grenzen zu halten. Dies erklärt die ungewöhnliche thermische Stabilität des Klimasystems.

Übersicht

Mehrere Autoren haben das Klimasystem als eine Wärmekraftmaschine analysiert. Hier ist die Beschreibung von Reis und Bejan:

Die Erde mit ihrem solaren Wärmeeintrag, ihrer Wärmeabstrahlung und den Schwingungen der atmosphärischen und ozeanischen Zirkulation ist eine Wärmekraftmaschine ohne Welle: ihre maximierte (aber nicht ideale) mechanische Leistung kann nicht an ein extraterrestrisches System abgegeben werden. Stattdessen ist der Erdmotor dazu bestimmt, die gesamte von ihm erzeugte mechanische Leistung durch Luft- und Wasserreibung und andere Irreversibilitäten (z. B. Wärmelecks über endliches ∆T) zu zerstreuen. Er tut dies, indem er sich so schnell wie möglich „in seiner Bremse dreht“ (daher die Winde und Meeresströmungen, die auf einfachsten Wegen verlaufen).2

Einer der ungewöhnlichsten und im Allgemeinen nicht beachteten Aspekte bei der Betrachtung der Wärmekraftmaschine ist ihre verblüffende Stabilität. Im Laufe des 20. Jahrhunderts schwankte die globale durchschnittliche Oberflächentemperatur um weniger als ein Kelvin. Das ist eine Schwankung von ± 0,2 %. In Anbetracht der Tatsache, dass das System eine variable Menge an einfallender Energie zurückweist, wobei die Schwankungen größtenteils durch nichts Handfesteres als Wolken gesteuert werden, ist dies ein höchst überraschender Grad an Stabilität.

Dies wiederum spricht stark für einen globalen Thermo-Regulations-Mechanismus. Die Stabilität kann nicht auf einfacher thermischer Trägheit beruhen, da die hemisphärischen Landtemperaturen im Laufe des Jahres um ~ 20 K und die hemisphärischen Meerestemperaturen um ~ 5 K variieren.

Emergenz*
[*Es lässt sich keine befriedigende Übersetzung für diesen Terminus finden. Er wird daher im Folgenden beibehalten. Der Vergleich des Titels im Original und in dieser Übersetzung macht klar, was gemeint ist. – A. d. Übers.]

Es gibt keine allgemein akzeptierte Definition von Emergenz. Im Jahr 1874 schlug Lewes die folgende Definition vor: „Emergenz: Theorie, nach der die Kombination von Entitäten einer bestimmten Ebene eine Entität einer höheren Ebene hervorbringt, deren Eigenschaften völlig neu sind“.3
Für die Zwecke dieses Artikels werde ich emergente Klimaphänomene funktional und anhand eines Beispiels definieren.

Emergente Klimaphänomene entstehen spontan, oft beim Überschreiten einer thermischen oder anderen Schwelle. Man Betrachte die tägliche Entwicklung des tropischen Kumuluswolkenfeldes.

Beim Überschreiten einer Temperaturschwelle können aus einem klaren Himmel in kurzer Zeit Hunderte von einzelnen Kumuluswolken entstehen.

Sie haben eine Entstehungszeit und eine begrenzte Lebensdauer. Staubteufel bilden sich spontan zu einem bestimmten Zeitpunkt, bestehen eine Zeit lang und lösen sich dann auf und verschwinden.
Sie bilden ein separates Ganzes, das sich von der Umgebung unterscheidet. Tropische Gewitter sind von klarer Luft umgeben.

Sie sind oft beweglich und bewegen sich auf unvorhersehbare Weise. Infolgedessen haben tropische Wirbelstürme „Vorhersagekegel“ dafür, wohin sie möglicherweise als nächstes ziehen werden, anstatt genau vorhersehbar zu sein.

Sie sind oft mit Phasenänderungen in den entsprechenden Flüssigkeiten verbunden. Konvektive Wolkenentstehung beinhaltet eine Phasenänderung von Wasser.

Einmal vorhanden, können sie unterhalb der für ihre Entstehung notwendigen Schwelle bestehen bleiben. Die Rayleigh-Benard-Zirkulation erfordert eine bestimmte Temperaturdifferenz, um zu entstehen, aber wenn sie einmal existiert, kann die Zirkulation bei einer kleineren Temperaturdifferenz bestehen bleiben.

Es handelt sich um Strömungssysteme, die weit vom Gleichgewicht entfernt sind. Als solche müssen sie sich gemäß dem Konstruktionsgesetz4 weiterentwickeln und mutieren, um zu überleben.

Sie sind nicht einfach vorhersehbar, da sie ganz andere Eigenschaften haben als das Medium, aus dem sie hervorgehen. Wenn Sie irgendwo leben würden, wo es nie Wolken gibt, würden Sie wahrscheinlich nicht vorhersagen, dass plötzlich ein riesiges weißes Objekt Hunderte von Metern über Ihrem Kopf auftauchen könnte.

Beispiele für natürliche emergente Phänomene, mit denen wir vertraut sind, sind das Verhalten von Vogelschwärmen, Wirbel aller Art, Termitenhügel, Bewusstsein und sogar das Leben selbst. Bekannte emergente Klimaphänomene sind Gewitter, Tornados, die Rayleigh-Bénard-Zirkulation der Atmosphäre und des Ozeans, Wolken, Zyklone, El Ninos und Staubteufelchen.

Ein einfaches Beispiel

Um zu erklären, wie emergente Phänomene die Temperatur der Erdoberfläche thermoregulieren, betrachten wir das kleine „Staubteufelchen“. Wenn die Sonne im Sommer ein Feld aufheizt, ist die Temperaturänderung eine ziemlich lineare Funktion des Antriebs, hier der abwärts gerichteten Sonnenstrahlung. Dies steht im Einklang mit dem aktuellen Paradigma. Aber wenn der heißeste Teil des Feldes eine bestimmte Temperatur in Bezug auf die darüber liegende atmosphärische Temperatur erreicht, taucht aus klarem Himmel ein Staubteufelchen auf. Dieser kühlt die Oberfläche auf mehrere Arten ab. Erstens bewegt er warme Oberflächenluft nach oben in die untere Troposphäre. Zweitens erhöht er die fühlbare Wärmeübertragung, die eine ungefähr lineare Funktion der Windgeschwindigkeit über der Oberfläche ist. Drittens erhöht sie die Verdunstung, was wiederum eine ungefähr lineare Funktion der Windgeschwindigkeit über der Oberfläche ist.

An diesem Punkt bricht das derzeitige Paradigma, dass die Temperaturänderung eine lineare Funktion der Änderung des Antriebs ist, vollständig zusammen. Wenn die Sonne die Oberfläche weiter bestrahlt, erhalten wir statt einer höheren Temperatur mehr Staubteufel. Dies setzt eine Obergrenze für die Oberflächentemperatur. Man beachte, dass diese Obergrenze nicht eine Funktion des Antriebs ist. Der Schwellenwert ist Temperatur-basiert, nicht Antriebs-basiert. Folglich wird sie nicht von Dingen wie einer veränderten Sonneneinstrahlung oder Variationen der Treibhausgase beeinflusst.

Ein vollständiges Beispiel

Die Schwerstarbeit des thermo-regulatorischen Systems wird jedoch nicht von Staubteufeln geleistet. Sie wird durch Variationen des Zeitpunkts und der Stärke des täglichen Auftretens tropischer Kumulusfelder und der darauf folgenden tropischen Gewitter, insbesondere über dem Ozean, erreicht. Dabei handelt es sich um das Zusammenspiel mehrerer verschiedener emergenter Phänomene.

Hier kommt der Ablauf von Tag und Nacht im tropischen Ozean ins Spiel. Der tropische Ozean ist der Ort, an dem der Großteil der Sonnenenergie in die riesige Wärmemaschine, die wir Klima nennen, eintritt. Infolgedessen befinden sich dort auch die wichtigsten thermostatischen Mechanismen.

Abbildung 1: Tägliche emergente Phänomene der tropischen Ozeane

Wie im Paneel „Early Morning“ zu sehen, weist die Atmosphäre in der Morgendämmerung mehrere Schichten auf, wobei die kühlste Luft der Oberfläche am nächsten ist. Die nächtliche, emergente Rayleigh-Bénard-Umwälzung des Ozeans geht zu Ende. Die Sonne ist frei, um den Ozean zu erwärmen. Die Luft nahe der Oberfläche wirbelt willkürlich.

Während die Sonne den Ozean weiter aufheizt, entsteht gegen zehn oder elf Uhr morgens ein neues Zirkulationsmuster, welches die zufällige atmosphärische Verwirbelung ersetzt. Sobald eine kritische Temperaturschwelle überschritten wird, bilden sich überall lokale Zirkulationszellen vom Rayleigh-Bénard-Typ. Dies ist der erste emergente Übergang von der zufälligen Zirkulation zur Rayleigh-Bénard-Zirkulation. Diese Zellen transportieren sowohl Wärme als auch Wasserdampf nach oben.

Am späten Vormittag ist die Rayleigh-Bénard-Zirkulation typischerweise stark genug, um den Wasserdampf bis zum lokalen Lifting Condensation Level (LCL) anzuheben. In dieser Höhe kondensiert der Wasserdampf zu Wolken, wie im Paneel „Late Morning“ gezeigt.

Diese flächendeckende Verschiebung zu einem organisierten Zirkulationsmuster ist weder eine Änderung der Rückkopplung, noch steht sie in Zusammenhang mit einem Antrieb. Es handelt sich um ein selbstorganisiertes, emergentes Phänomen. Es ist schwellenbasiert, was bedeutet, dass es spontan auftritt, wenn eine bestimmte Schwelle überschritten wird. In den feuchten Tropen gibt es viel Wasserdampf, so dass die Hauptvariable für den Schwellenwert die Temperatur ist. Außerdem ist zu beachten, dass es in Tafel 2 zwei verschiedene Phänomene gibt – die Rayleigh-Bénard-Zirkulation, die vor der Cumulusbildung entsteht, und die durch die völlig getrennte Entstehung der Wolken verstärkt wird. Wir haben es nun auch mit zwei Zustandsänderungen zu tun, mit der Verdunstung an der Oberfläche und der Kondensation und Wiederverdunstung in der Höhe.

Unter diesem neuen Regime der Cumulus-Zirkulation am späten Vormittag findet viel weniger Oberflächenerwärmung statt. Ein Teil des Sonnenlichts wird zurück in den Weltraum reflektiert, so dass zunächst weniger Energie in das System gelangt. Dann erhöht der zunehmende Oberflächenwind aufgrund des Cumulus-basierten Zirkulationsmusters die Verdunstung, wodurch die Oberflächenerwärmung noch weiter reduziert wird, indem die latente Wärme nach oben in die aufsteigende Kondensationsebene transportiert wird.

Entscheidend sind hier der Zeitpunkt und die Stärke des Auftretens. Wenn der Ozean etwas wärmer ist, setzt das neue Zirkulationsregime früher am Morgen ein und verringert die gesamte Tageserwärmung. Ist der Ozean hingegen kühler als üblich, hält der klare Morgenhimmel bis spät in den Tag hinein an und ermöglicht eine verstärkte Erwärmung. Die Systemtemperatur wird also sowohl vor Überhitzung als auch vor übermäßiger Abkühlung durch den Zeitpunkt des Einsetzens des Regimewechsels reguliert.

Man betrachte das Phänomen „Klimasensitivität“ in diesem System, die die Empfindlichkeit der Oberflächentemperatur auf den Antrieb ist. Der solare Antrieb nimmt ständig zu, wenn die Sonne höher am Himmel steht. Morgens vor dem Einsetzen der Kumuluszirkulation kommt die Sonne durch die klare Atmosphäre und erwärmt die Oberfläche schnell. Daher ist die thermische Reaktion groß und die Klimasensitivität hoch.

Nach dem Einsetzen der Cumulus-Zirkulation wird jedoch ein Großteil des Sonnenlichts zurück in den Weltraum reflektiert. Es bleibt weniger Sonnenlicht übrig, um den Ozean zu erwärmen. Zusätzlich zur reduzierten Sonneneinstrahlung kommt es zu einer verstärkten Verdunstungs-Abkühlung. Im Vergleich zum Morgen ist die Klimasensitivität deutlich geringer.

Wir haben hier also zwei Situationen mit sehr unterschiedlichen Klimasensitivitäten. Am frühen Morgen ist die Klimasensitivität hoch, und die Temperatur steigt mit der zunehmenden Sonneneinstrahlung schnell an. Am späten Vormittag kommt es zu einem Regimewechsel hin zu einer Situation mit viel geringerer Klimaempfindlichkeit. Das Hinzufügen von zusätzlicher Sonnenenergie erhöht die Temperatur nicht mehr annähernd so schnell wie zuvor.

Irgendwann am Nachmittag besteht eine gute Chance, dass das Cumulus-Zirkulationsmuster nicht ausreicht, um den weiteren Anstieg der Oberflächentemperatur zu stoppen. Wenn die Temperatur einen bestimmten höheren Schwellenwert überschreitet, wie im Paneel „Late Afternoon“ gezeigt, findet ein weiterer vollständiger Regimewechsel statt. Dieser beinhaltet die spontane Entstehung von unabhängig voneinander beweglichen Wärmekraftmaschinen, die Gewitter genannt werden.

Gewitter sind Wärmekraftmaschinen mit zwei Brennstoffen. Sie werden mit Luft niedriger Dichte betrieben. Diese Luft steigt auf und kondensiert die Feuchtigkeit aus. Die Kondensation setzt Wärme frei, die die Luft wieder erwärmt, die bis weit nach oben in die Troposphäre aufsteigt.

Es gibt zwei Möglichkeiten, wie die Gewitter die Luft mit niedriger Dichte erhalten. Einer ist die Erwärmung der Luft. So entsteht ein Gewitter als ein von der Sonne angetriebenes Phänomen, das aus mächtigen Kumuluswolken entsteht. Die Sonne und die Treibhausgasstrahlung erwärmen zusammen die Oberfläche, die dann die Luft erwärmt. Die Luft mit geringer Dichte steigt nach oben. Wenn diese Zirkulation stark genug wird, bilden sich Gewitter. Sobald das Gewitter begonnen hat, wird der zweite Treibstoff hinzugefügt – Wasserdampf. Je mehr Wasserdampf sich in der Luft befindet, desto leichter wird sie. Das Gewitter erzeugt starke Winde um seine Basis. Die Verdunstung ist proportional zur Windgeschwindigkeit, so dass die lokale Verdunstung stark zunimmt. Dadurch wird die Luft leichter und steigt schneller auf, wodurch das Gewitter stärker wird, was wiederum die Windgeschwindigkeit um die Gewitterbasis erhöht. Ein Gewitter ist ein regeneratives System, ähnlich wie ein Feuer, bei dem ein Teil der Energie verwendet wird, um einen Blasebalg anzutreiben, damit das Feuer noch heißer brennt. Ist es einmal entfacht, ist es viel schwieriger zu stoppen. Dies verleiht Gewittern eine einzigartige Fähigkeit, die in keinem der Klimamodelle dargestellt ist. Ein Gewitter ist in der Lage, die Oberflächentemperatur weit unter die Auslösetemperatur zu drücken, die nötig war, um das Gewitter in Gang zu setzen. Das Gewitter kann bis in den Abend hinein laufen, oft sogar bis weit in die Nacht hinein, dank der Kombination aus thermischen und Verdunstungs-Energiequellen.

Gewitter fungieren als Wärmeleitbahnen, die warme Luft schnell von der Oberfläche zum Kondensationsniveau transportieren, wo sich die Feuchtigkeit in Wolken und Regen verwandelt, und von dort in die obere Atmosphäre, ohne mit den dazwischenliegenden Treibhausgasen zu interagieren. Die Luft und die in ihr enthaltene Energie werden im Inneren des aufsteigenden Gewitterturms versteckt in die obere Troposphäre transportiert, ohne auf dem Weg dorthin von Treibhausgasen absorbiert oder behindert zu werden. Gewitter kühlen die Oberfläche auch auf eine Vielzahl anderer Arten, indem sie eine Kombination aus einem Standard-Kältekreislauf mit Wasser als Arbeitsmedium plus von oben zurückfließendem kaltem Wasser, klarer Umgebungsluft, die eine größere aufsteigende Oberflächenstrahlung ermöglicht, windgetriebener Verdunstung, Sprühnebel, der die Verdunstungsfläche vergrößert, Albedo-Änderungen und kalter, nach unten gerichteter, mitgerissener Luft nutzen.

Wie beim Einsetzen der Cumulus-Zirkulation tritt das Einsetzen von Gewittern früher an Tagen auf, an denen es wärmer ist, und es tritt später (und manchmal gar nicht) an Tagen auf, die kühler sind als üblich. Auch hier gibt es keine Möglichkeit, eine durchschnittliche Klimasensitivität zuzuordnen. Je wärmer es wird, desto weniger erwärmt jedes zusätzliche Watt pro Meter die Oberfläche.

Sobald die Sonne untergeht, zerfallen zuerst die Kumuluswolken und dann die Gewitter und lösen sich auf. In Paneel 4 zeigt sich ein letztes und wiederum anderes Regime. Das Hauptmerkmal dieses Regimes ist, dass der Ozean während dieser Zeit die allgemeine Menge an Energie abstrahlt, die während aller anderen Teile des Tages absorbiert wurde.

Während der Nacht empfängt die Oberfläche immer noch Energie von den Treibhausgasen [?]. Dies hat den Effekt, dass das Einsetzen der ozeanischen Umwälzung verzögert und die Abkühlungsrate verringert wird. Man beachte, dass die ozeanische Umwälzung wieder die entstehende Rayleigh-Bénard-Zirkulation ist. Da es weniger Wolken gibt, kann der Ozean freier in den Weltraum abstrahlen. Darüber hinaus bringt die Umwälzung des Ozeans ständig neues Wasser an die Oberfläche, das abstrahlt und abkühlt. Dies erhöht den Wärmeübergang über die Grenzfläche. Wie bei den vorherigen Schwellenwerten ist der Zeitpunkt dieses endgültigen Übergangs temperaturabhängig. Sobald ein kritischer Schwellenwert überschritten ist, setzt die ozeanische Umwälzung ein. Die Schichtung wird durch Zirkulation ersetzt, die neues Wasser zum Abstrahlen, Abkühlen und Absinken bringt. Auf diese Weise wird Wärme abgeführt, nicht nur von der Oberfläche wie tagsüber, sondern vom gesamten Körper der oberen Schicht des Ozeans.

Prognosen

Eine Theorie ist nur so gut wie ihre Prognosen. Aus den obigen theoretischen Überlegungen können wir Folgendes vorhersagen:

Prognose 1: In warmen Gebieten des Ozeans wirken Wolken kühlend auf die Oberfläche, in kalten Gebieten wirken sie wärmend auf die Oberfläche. Dies wird oberhalb einer Temperaturschwelle bei den wärmsten Temperaturen am stärksten ausgeprägt sein.

Beweise, die die erste Prognose bestätigen:

Abbildung 2. Streudiagramm, Meeresoberflächentemperatur (SST) versus Strahlungseffekt der Oberflächenwolke. Je negativer die Daten sind, desto stärker ist die Abkühlung.

Wie prognostiziert, erwärmen die Wolken die Oberfläche, wenn sie kalt ist, und kühlen sie, wenn sie warm ist, wobei der Effekt oberhalb von etwa 26°C – 27°C sehr ausgeprägt ist.

Prognose 2: Im tropischen Ozean, wiederum oberhalb einer bestimmten Temperaturschwelle, werden Gewitter mit steigender Temperatur sehr schnell zunehmen.

Beweise, die die zweite Prognose bestätigen:

Da es immer viel Wasser über dem tropischen Ozean gibt und viel Sonnenschein, um sie anzutreiben, werden thermisch angetriebene tropische Gewitter eine Funktion von wenig mehr als der Temperatur sein.

Abbildung 3. Höhe der Wolkenobergrenze als Indikator für hoch reichende konvektive Gewitter im Vergleich zur Temperatur der Meeresoberfläche.

Wie bei Wolken im Allgemeinen gibt es eine klare Temperaturschwelle bei etwa 26°C – 27°C, mit einem fast vertikalen Anstieg der Gewitter oberhalb dieser Schwelle. Dies setzt dem Temperaturanstieg eine sehr starke Grenze.

Prognose 3:. Vorübergehende Abnahmen des solaren Antriebs, wie z.B. durch Eruptionen, werden durch eine erhöhte Sonneneinstrahlung infolge einer verspäteten und selteneren Bildung tropischer Gewitter kompensiert. Das bedeutet, dass nach einer anfänglichen Abnahme die eingehende Sonneneinstrahlung über den Ausgangswert vor der Eruption steigt, bis der Status quo ante wiederhergestellt ist.

Belege zur Validierung der dritten Prognose

Was die dritte Prognose betrifft, so löst meine Theorie das folgende Pinatubo-Rätsel von Soden et al.5:

Ab 1994 werden zusätzliche Anomalien in den Satellitenbeobachtungen der von der Atmosphäre absorbierten Sonnenstrahlung deutlich, die nichts mit dem Ausbruch des Mount Pinatubo zu tun haben und daher in den Modellsimulationen nicht reproduziert werden. Es wird angenommen, dass diese Anomalien von dekadischen Veränderungen in der tropischen Zirkulation Mitte bis Ende der 1990er Jahre herrühren [siehe J. Chenet al., Science 295, 838 (2002); und B.A. Wielicki et al., Science 295, 841 (2002)], aber ihr Wahrheitsgehalt bleibt Gegenstand von Debatten. Wenn sie real sind, impliziert ihr Fehlen in den Modellsimulationen, dass Diskrepanzen zwischen den beobachteten und den modellsimulierten Temperaturanomalien, die durch die thermische Trägheit des Klimasystems um 1 bis 2 Jahre verzögert werden, bis Mitte der 1990er Jahre auftreten könnten.“

Abbildung 4: Abbildung 1 aus Soden mit Original-Inschrift

Dies ist jedoch ein vorhersehbares Ergebnis der emergenten Thermostat-Theorie. Hier ist die Änderung der unteren atmosphärischen Temperatur zusammen mit den ERBS-Daten von Soden:

Abbildung 5. ERBE absorbierte Sonnenenergie (oberes Feld in Abbildung 4) und UAH untere troposphärische Temperatur (TLT). Beide Datensätze enthalten eine Lowess-Glättung.

Wie von der Theorie vorhergesagt, steigt die absorbierte Sonnenenergie über die Basislinie, bis die Temperatur der unteren Troposphäre zu ihrem Wert vor dem Ausbruch zurückkehrt. An diesem Punkt hört die erhöhte Aufnahme von Sonnenenergie auf und das System befindet sich wieder in seinem stationären Zustand.

Prognose 4: Die „Klimasensitivität“ ist bei weitem keine Konstante, sondern wird sich als eine Funktion der Temperatur herausstellen.

Beweise, die die vierte Prognose bestätigen.

Die folgende Abbildung 6 zeigt die Beziehung zwischen der Nettoabwärtsstrahlung an der Oberfläche und der Oberflächentemperatur in einem Raster von 1° Breitengrad und 1° Längengrad für jede Zelle:

Abbildung 6. Streudiagramm, CERES-Nettoabstrahlung der Oberfläche (kurzwellig plus langwellig) im Vergleich zur globalen Oberflächentemperatur von Berkeley Earth. Die Steigung der Lowess-Glättung an jedem Punkt ist die „Klimasensitivität“ bei dieser Temperatur, in °C pro W/m².

Die enge Korrelation zwischen der Oberflächentemperatur und der abwärts gerichteten Strahlung bestätigt, dass es sich um eine gültige Langzeitbeziehung handelt. Dies gilt insbesondere, wenn man bedenkt, dass die beiden betrachteten Variablen aus völlig unterschiedlichen und nicht miteinander verbundenen Datensätzen stammen.

Man beachte, dass die „Klimasensitivität“ tatsächlich eine Funktion der Temperatur ist, und dass die Klimasensitivität bei den höchsten Temperaturen negativ wird. Es ist auch erwähnenswert, dass fast nirgendwo auf dem Planeten die langfristige Durchschnittstemperatur über 30°C liegt. Dies ist ein weiterer Beweis für die Existenz starker thermo-regulatorischer Mechanismen, die die durchschnittliche Erwärmung der Oberfläche effektiv begrenzen.

Prognose 5: In einigen Gebieten wird die Temperatur nicht durch die abwärts gerichtete Oberflächenstrahlung gesteuert, sondern die Oberflächenstrahlung wird durch die Temperatur gesteuert.

Beweise zur Bestätigung der fünften Prognose

Abbildung 7 unten zeigt die Korrelation zwischen der abwärts gerichteten Oberflächenstrahlung (kurzwellige plus langwellige Strahlung) und der Oberflächentemperatur. Wie erwartet, ist die Korrelation über den meisten Landmassen positiv – wenn die Einstrahlung zunimmt, steigt auch die Oberflächentemperatur.

Abbildung 7. Korrelation zwischen den monatlichen Oberflächentemperaturen und der monatlichen abwärts gerichteten Oberflächenstrahlung. Saisonale Schwankungen wurden aus beiden Datensätzen entfernt.

Über weite Bereiche des tropischen Ozeans sind die Temperatur und die Einstrahlung jedoch negativ korreliert. Da eine abnehmende Einstrahlung die Oberflächentemperatur nicht erhöhen kann, ist die einzig mögliche Schlussfolgerung, dass in diesen Gebieten die steigende Temperatur die Anzahl und Art der darüber liegenden Wolken so verändert, dass die Einstrahlung abnimmt.

CONCLUSIONS

1) Das derzeitige Klimaparadigma, das besagt, dass Änderungen der globalen Oberflächentemperatur langfristig eine einfache lineare Funktion von Änderungen des Antriebs (Einstrahlung) sind, ist falsch. Dies zeigt sich an der Unfähigkeit der Forscher, die Unsicherheit des zentralen Wertes des Paradigmas, also der „Klimasensitivität“, einzugrenzen, trotz vierzigjähriger Untersuchungen, Millionen von Dollar, Milliarden von Computerzyklen und Millionen von Arbeitsstunden, die bzgl. dieses Problems aufgewendet worden waren. Es wird auch durch die obigen Grafiken demonstriert, die zeigen, dass die „Klimasensitivität“ keineswegs eine Konstante ist, sondern eine Funktion der Temperatur.

2) Ein höchst merkwürdiger Aspekt des Klimasystems ist seine erstaunliche Stabilität. Trotz der Unterstützung einer Temperatur, die um Dutzende Grad über der des Mondes liegt, durch nichts stabiler als evaneszenten Wolken, trotz Vulkanausbrüchen, trotz Änderungen in CO2 und anderer GHG-Antriebe, trotz großer Schwankungen in Aerosolen und schwarzen Kohlenstoff variierte die Temperatur über das 20. Jahrhundert um nur ±0,2%.

3) Diese erstaunliche Stabilität impliziert und erfordert in der Tat die Existenz eines sehr starken Thermo-Regulationssystems.

4) Meine Theorie ist, dass die Thermoregulation durch eine Vielzahl von interagierenden emergenten Phänomenen bereitgestellt wird. Dazu gehören die Rayleigh-Benard-Zirkulation des Ozeans und der Atmosphäre, Staubteufelchen, tropische, thermisch angetriebene Kumuluswolkenfelder, Gewitter, Sturmböen, Wirbelstürme, Tornados, die La-Nina-Pumpe, die tropisches warmes Wasser zu den Polen bewegt und kühles darunter liegendes Wasser freilegt, und die großen Veränderungen in der Ozeanzirkulation, die mit der pazifischen dekadischen Oszillation, der nordatlantischen Oszillation und anderen ozeanischen Zyklen einhergehen.

5) Dies impliziert, dass es unwahrscheinlich ist, dass die Temperaturen aufgrund von CO2-Variationen, Vulkanen oder anderen sich ändernden Einflüssen stark von ihrem derzeitigen Zustand abweichen. Die Schwellenwerte für die verschiedenen Phänomene sind temperaturbasiert, nicht antriebsbasiert. Daher werden Variationen des Forcings sie nicht stark beeinflussen. Es stellt sich jedoch auch eine neue Frage: Was verursacht eine langsame thermische Drift in thermoregulierten Systemen?

REFERENCES

1 Knutti, R., Rugenstein, M. & Hegerl, G. Beyond equilibrium climate sensitivity. Nature Geosci 10, 727–736 (2017). https://doi.org/10.1038/ngeo3017

2 Lewes, G. H. (1874) in Emergence, Dictionnaire de la langue philosophique, Foulquié.

3 Reis, A. H., Bejan, A, Constructal theory of global circulation and climate, International Journal of Heat and Mass Transfer, Volume 49, Issues 11–12, 2006, Pages 1857-1875, https://doi.org/10.1016

4 Bejan, A, Reis, A. Heitor, Thermodynamic optimization of global circulation and climate, International Journal of Energy Research, Vol. 29, Is. 4, https://doi.org/10.1002/er.1058

5 Brian J. Soden et al., Global Cooling After the Eruption of Mount Pinatubo: A Test of Climate Feedback by Water Vapor,Science 26 Apr 2002, Vol. 296, Issue 5568, pp. 727-730, DOI: 10.1126/science.296.5568.727

Anyhow, that’s what I have to date. There are few references, because AFAIK nobody else is considering the idea that emergent phenomena act as a global thermostat. Anyone who knows of other references that might be relevant, please mention them.

Finally, any suggestions as to which journal might be willing to publish such a heretical view of climate science would be much appreciated.

Link: https://wattsupwiththat.com/2021/04/28/a-request-for-real-peer-review/

Übersetzt von Chris Frey EIKE

 




Wieder einmal: Gescheiterte Klima-Prophezeiungen

Es gibt jetzt eine Menge neuerer aktiver Kommentatoren hier, ein gutes Zeichen für Anthony und Charles. Sie haben vielleicht nicht tief in den umfangreichen WUWT-Archiven gegraben. Eine Möglichkeit, ihren Dialog über das große Bild zu gestalten, ist, sich einige der grundlegendsten gescheiterten Vorhersagen der Klima-Alarmisten anzusehen und warum sie gescheitert sind. Hier sind neun von meinen eigenen GROSSEN, gruppiert nach drei Ursprüngen.

Modelle

● Es gibt einen modellierten tropischen Troposphären-Hotspot. ABER, wie John Christy vor dem Kongress im Jahr 2016 aufzeigte, ist dieser in der Realität nicht existent. Die Klimamodelle überbewerten die Erwärmung der tropischen Troposphäre um etwa das Dreifache. Der plausibelste Grund ist Eschenbachs Hypothese der aufkommenden Phänomene, insbesondere Gewitter. Diese waschen Feuchtigkeit aus, können aber nicht modelliert, sondern nur parametrisiert werden. (Details in einem lange zurückliegenden Beitrag, ‚The trouble with climate models‚ [in deutscher Übersetzung beim EIKE hier]). Aus Beobachtungen heraus modellierte CMIP5 etwa die Hälfte der tropischen Niederschläge, die ARGO beobachtet, durch Änderungen des Salzgehalts der Thermokline. Es stimmt also.

● Modelle passen Anomalien ausreichend an, um mit Beobachtungen übereinzustimmen. Eigentlich ist das nur halb wahr, denn die erforderlichen Modellparameter werden so lange abgestimmt, bis sie stimmen. Die Täuschung liegt in der Verwendung von Modellanomalien. In Wirklichkeit wichen die CMIP5-Modelle in Bezug auf die absolute Temperatur im Jahr 2000 (früh in ihrer Abstimmungsperiode) um ~4C vom beobachteten globalen Durchschnitt von ~15,5C ab.

Fast keine waren nahe an der beobachteten Realität – fast alle waren viel zu warm. Anomalien verbergen diesen grundlegenden Vorhersagefehler des Klimamodells.

● Modelle sagen zuverlässig eine ‚Gleichgewichts-Klimaempfindlichkeit‘ (ECS) von etwa 3C voraus. Wiederum halb wahr. Sie tun es alle, aber nicht „zuverlässig“. Beobachtete ECS unter Verwendung von Energiebudget- (und anderen) Methoden zeigen konsistent etwa 1,6-1,7C, etwa die Hälfte der modellierten. Das ist eine große Sache, da die ganze alarmistische Untergangsstimmung von einem hohen ECS (oder seinem nahen Verwandten TCR) abhängt. Bei 1,6 gibt es überhaupt kein Klimaproblem. Bei 3 gibt es vielleicht eines, vielleicht auch nicht. Die Diskrepanz zwischen Modell und Beobachtung ist so groß, dass der AR5 es abgelehnt hat, eine zentrale Schätzung des ECS zu erstellen, eine peinliche Unterlassung.

Fortsetzung

Der Meeresspiegelanstieg wird sich beschleunigen. Aber das ist nicht der Fall, basierend auf langen Aufzeichnungen differentieller GPS-korrigierter Gezeitenpegel, von denen es jetzt etwa 70 gibt. Der Grund dafür ist, dass wir ähnliche Bedingungen wie im letzten Eem-Interglazial erleben (das Holozän ist jetzt laut Paläoproxy- und Eiskernaufzeichnungen etwa 1 °C kälter), währenddessen die geologischen Beweise auf einen maximalen Eem-Meeresspiegelanstieg (SLR) von etwa 2,2 mm/Jahr hindeuten – genau das, was wir jetzt beobachten, mit Abschluss, von den langen Aufzeichnungen der Gezeitenpegel im letzten Jahrhundert. Es gibt keine SLR-Beschleunigung.

● Die Ernteerträge werden ausfallen und die Menschen werden verhungern. Dies war das Thema meines ersten Beitrags hier vor langer Zeit. Die schreckliche NRDC-Vorhersage an den Kongress basierte auf zwei Unwahrheiten. Erstens stellten sie die „schlechteste“ Vorhersage als die Norm dar. Zweitens war das „schlimmste“ Papier, auf das sie sich für Mais stützten, selbst grundlegend fehlerhaft (ob absichtlich oder aus Inkompetenz, darüber kann man streiten). Es handelte sich um eine umfangreiche statistische Analyse der US-Maiserträge im Laufe der Zeit, und zwar auf der Ebene der einzelnen US-Bezirke für alle wichtigen Mais produzierenden Staaten. Sie behauptete zu zeigen, dass vorübergehende Temperaturen über x die Maiserträge dauerhaft um y reduzierten. AUSSER, ihre multivariate Regressionsanalyse ließ einen wichtigen kovarianten Term aus, Temperatur x Wasser. Die Logik der Auslassung war, dass Temperatur und Wasser meteorologisch nicht korreliert sind. Richtig. Der Fehler in ihrer Argumentation war, dass Mais WIRKLICH wichtig ist, und ihre y-Variable war der Maisertrag. Der ausgelassene Term verfälscht ihre Analyse, wie (nachdem die Autoren unter Alarmisten berühmt wurden und dann dummerweise ihre nun berühmten Maisdaten in grafischer Form veröffentlichten) durch einfache visuelle Inspektion und ein wenig Logik leicht ersichtlich wurde. Keine fortgeschrittene Statistik erforderlich. Schlussfolgerung: BOGUS.

Eisbären werden aussterben, weil das arktische Sommereis irgendwann verschwinden wird (die Vorhersage, wann das sein wird, variiert, aber Wadkins war ein führender Alarmist, der bereits dreimal bewiesen hat, dass er falsch liegt). Wie Dr. Susan Crawford schon mehrfach betont hat, ist die gesamte wissenschaftliche Aussterbeprämisse falsch. Eisbären nehmen etwa 80% ihrer jährlichen Kalorienzufuhr während der Robbenfangsaison im Frühjahr auf. In der Tat ist zu dickes Eis im Frühjahr, nicht zu dünnes, ein Problem für Robben und dann für Bären. Sie sind zur Nahrungsaufnahme überhaupt nicht auf das Sommereis angewiesen. Sie kommen an Land und ernähren sich dann im Sommer wie ihre nahen Verwandten, die Braunbären (Grizzlybären), opportunistisch von Eiern aus Vogelnestern, Beeren, Aas wie angeschwemmten toten Walen und Walrossen, vielleicht sogar von einem gelegentlichen unglücklichen Karibu-Kitz.

Lösungen

● „Erneuerbare“ Energien und der Green New Deal (GND). AOC und Konsorten haben offensichtlich keine Ahnung von Elektrotechnik. Das Netz soll zuverlässig sein. Erstens sind „erneuerbare“ Energien (Wind, Sonne) intermittierend. Daher brauchen sie bei jeder signifikanten Verbreitung ein Backup, ein großer Kostenfaktor, der von den stets subventionierten (weil unwirtschaftlichen) „erneuerbaren“ Energien nicht getragen wird. Zweitens erfordert das Netz Frequenzstabilität, auch bekannt als Netzträgheit. „Erneuerbare“ Energien sind asynchron, liefern also keine. Große rotierende konventionelle Generatoren, die mit Kohle, Erdgas oder Kernkraft betrieben werden, liefern automatisch Trägheit. Es gibt eine Lösung, die als Synchronkondensator bezeichnet wird (im Wesentlichen eine große, sich drehende, aber nicht angetriebene Generatormasse), aber auch für diese leisten die „erneuerbaren“ Energien keinen Beitrag, also werden keine hinzugefügt.

EVs werden das „Kohlenstoff“-Problem der Benzin-/Diesel-Emissionen lösen. Sie benötigen große Mengen an Kobalt und Lithium (Hydroxid oder Karbonat). Von beidem haben wir nicht genug, und die Aussichten, die Situation in den nächsten Jahrzehnten durch neue Minen zu verbessern, sind bei der vom GND gewünschten Verbreitung von Elektrofahrzeugen gleich null. Lithium ist das 33. am häufigsten vorkommende Element der Erde, Kobalt das 31. Die Aussichten sind auf lange Sicht NICHT gut. Im Vergleich zur Häufigkeit in der Erdkruste (allein) liegt Aluminium auf Platz 3, Eisen auf Platz 4 und Kohlenstoff auf Platz 17. Übersetzung: Cola-Dosen und Flugzeuge, Stahl was auch immer, und „Kohlenstoff“-Treibstoffe haben wir. EV-Batterien, nicht so sehr. Ignoriert man die Dominanz Chinas bzgl. der Seltenen Erden kommt die Umweltvergiftung ist Spiel, nicht der Überfluss. Die USA haben ein sehr großes Vorkommen an der Grenze zwischen Kalifornien und Nevada in der Mountain-Pass-Mine, die jetzt im Besitz von China ist. Das Kostenproblem ist nicht das Erz, sondern die Folgen der Umweltaufbereitung. China kümmert das nicht. Uns schon. Vorteil China.

EVs werden eine große Investition in das Stromnetz erfordern. T&D plus Erzeugung. Eine grobe Schätzung ist das Doppelte, um Benzin und Diesel zu verdrängen. Das ist weder im Zeitrahmen von Biden/.GND möglich, noch auch nur annähernd wirtschaftlich. Das Versprechen von Unmöglichem mag sich gut anhören, endet aber in der Realität immer schlecht

Link: https://wattsupwiththat.com/2021/04/26/failed-climate-predictions/

Übersetzt von Chris Frey EIKE

 




Abkühlung oder Erwärmung – aber immer das gleiche Rezept dagegen

Leonard Nimoy (Spock) präsentierte diese Story in Videos wie diesem:

Während ich an der Universität von Wisconsin an meinem BS und MS mit meiner Masterarbeit zum Thema „Explosive Redevelopment In East Coast Cyclones“ arbeitete, gaben die Wissenschaftler der Verbrennung fossiler Brennstoffe und dem vom Menschen eingeführten Feinstaub die Schuld an der Abkühlung, der wie ein „menschlicher Vulkan“ wirkte und genau wie diese die Sonnenstrahlen reflektierten und Abkühlung bringen würde, was die natürlichen Kräfte verstärkte.

Die Lösung sah man in der Beseitigung der Schadstoffe und schon damals in der Suche nach Alternativen zu fossilen Brennstoffen. Der zweite Zielfokus während des arabischen Ölembargos von 1973 führte zu Engpässen und Preissteigerungen, aber erneuerbare Energien waren damals noch nicht reif für die Grundlast und, wie das Texas-Debakel zeigte, sind auch heute noch nicht zuverlässig für die Bereitstellung der Grundlast und werden zu steigenden Energiepreisen und lebensbedrohlichen Stromausfällen führen.

Dann änderte sich die Phase des Pazifiks

Aber nach der großen pazifischen Klimaverschiebung Ende der 1970er Jahre kam es zu einer Erwärmung, da stärkere, länger anhaltende El Ninos, die eine globale Erwärmung hervorrufen, plötzlich gegenüber den La Ninas bevorzugt wurden, deren Dominanz zuvor zu der Abkühlung geführt hatte.

Ab 1988 reifte in so Manchem der Gedanke, dass diese neue Phase die goldene Gelegenheit sein könnte, die Kontrolle über unsere Energiepolitik zu übernehmen und die Medienberichterstattung umzulenken.

Showtime

1988 orchestrierten die Demokraten eine Anhörung, die vom damaligen Senator Al Gore inszeniert wurde und bei der der Senator Tim Wirth (später Leiter der UN-Stiftung – siehe Chris Horners Red Hot Lies) den NASA-Wissenschaftler James Hansen vorstellte, der seinen Eiszeit-Hut gegen einen eintauschte, der für die von Menschen verursachte globale Erwärmung warb.

Die NYT berichtete:

Senator Timothy E. Wirth, der Demokrat aus Colorado, der heute die Anhörung leitete, sagte:

So wie ich es lese, sind die wissenschaftlichen Beweise zwingend: Das globale Klima verändert sich, während die Erdatmosphäre wärmer wird. Jetzt muss der Kongress damit beginnen, darüber nachzudenken, wie wir diesen Erwärmungstrend verlangsamen oder aufhalten können und wie wir mit den Veränderungen, die vielleicht schon unvermeidlich sind, umgehen können.“

New York Times 1988

Wie der inszenierte Link zeigt, hatte Tim noch andere Gründe, diesen Weg zu gehen:

„Wir müssen das Problem der globalen Erwärmung angehen. Selbst wenn die Theorie der globalen Erwärmung falsch ist, werden wir das Richtige tun, in Bezug auf die Wirtschafts- und Umweltpolitik.“

Timothy Wirth zitiert in Science Under Siege von Michael Fumento, 1993

Die Politiker und Medien begannen bei diesem Treffen ihren 30 Jahre andauernden Angriff auf fossile Brennstoffe und unsere Lebensweise. Genährt durch eine plötzliche Flut von Fördergeldern, sprangen viele Leute aus den verschiedensten Disziplinen als selbsternannte Klimatologen, Umweltwissenschaftler und Modellierer an Bord.

An beiden Enden des Warm- und Kaltzyklus war der Feind also derselbe – Menschen und fossile Brennstoffe.

[Hervorhebung vom Übersetzer]


Beachten Sie die Abflachung seit den späten 1990er Jahren. Ich vermute, wenn eine Abkühlung eintritt, weil sich die Ozeane in der zweiten Schwächephase der Sonne nacheinander abkühlen, werden die Führer und Medien einen Weg finden, die Leichtgläubigen davon zu überzeugen, dass es ihre eigene Schuld war.

Siehe hier eine von mehreren Studien zum Thema neues Grand Solar Minimum, das gerade begonnen haben könnte.

Link: http://icecap.us/index.php/go/new-and-cool/man_attribution_to_natural_change_but_always_the_same_remedy/

Übersetzt von Chris Frey EIKE

 




Wolken und globale Erwärmung

Willis schrieb den Beitrag als Antwort auf eine Studie von Paulo Ceppi und Kollegen über Wolkenrückkopplung in globalen Klimamodellen (Ceppi, Brient, Zelinka, & Hartmann, 2017). Wir werden diese Studie als Ceppi17 bezeichnen. Ich habe mir in den letzten Tagen die Zeit genommen, Willis‘ Beitrag und Ceppis Studie zu verstehen und Folgendes herausgefunden; lassen Sie mich in den Kommentaren wissen, was Sie denken.

In Ceppi17, N = F + λΔT. N ist das Ungleichgewicht des Energieflusses an der Oberseite der Atmosphäre, F ist ein Forcing in W/m² aufgrund eines plötzlichen Anstiegs der Treibhausgase. Die hypothetische Situation, die in dem Papier verwendet wurde, war eine sofortige Vervierfachung des CO2, bezogen auf vorindustrielle Bedingungen. Dann berechneten sie ein hypothetisches F. „λ“ ist die Wolkenrückkopplung und ΔT ist die gesamte globale Temperaturänderung, die erforderlich ist, um das Gleichgewicht wiederherzustellen, oder ein N von Null. Ihre Rückkopplungszahlen können aufgrund des unplausiblen Szenarios nicht mit Daten dupliziert werden. Hier sind zwei weitere Versionen der Gleichung als Referenz.

ΔT = (N-F)/ λ or λ = (N-F)/ ΔT

Was ist N? N ist ein Kräfteungleichgewicht zwischen eingehender (oder abwärts gerichteter) Strahlung und ausgehender Strahlung an der Obergrenze der Atmosphäre, die wir mit den CERES-Satelliten definieren werden. N ist positiv, wenn die abwärts gerichtete Kraft größer ist (Erwärmung) und negativ, wenn die abgehende Strahlung größer ist (Abkühlung). Die Erde befindet sich im Gleichgewicht, wenn die Rückkopplung, N und F gleich Null sind. Eine positive Rückkopplung (λ) führt zur Erwärmung und zu einem größeren Ungleichgewicht (N). Je höher die Rückkopplung ist, desto größer ist die Erwärmung. Ist die Rückkopplung negativ, kommt es zu einer Abkühlung oder langsameren Erwärmung.

„CRE“ ist der Wolken-Strahlungseffekt oder die Differenz zwischen dem Strahlungsfluss bei klarem Himmel und dem gesamten Himmel am Satelliten (TOA). Wolken reflektieren die eintreffende kurzwellige Sonnenstrahlung (SW), so dass bei Vorhandensein von Wolken mehr SW zum Satelliten aufsteigt, im Durchschnitt beträgt der Anstieg etwa -45 W/m². Dies ist eine negative Zahl, weil es bedeutet, dass mehr Strahlung die Erde verlässt, ein kühlender Effekt. Wolken blockieren auch einen Teil der von der Erdoberfläche ausgehenden langwelligen Infrarotstrahlung (LW), im Durchschnitt etwa 27 W/m², eine positive Zahl, da es sich um Energie handelt, die von der Erde zurückgehalten wird oder weniger Energie, die den Satelliten erreicht, ein wärmender Einfluss. Die Differenz beträgt -18 W/m², was bedeutet, dass die Wolken insgesamt die Erde kühlen.

Man würde denken, dass sich die Erde umso schneller abkühlt, je mehr Wolken vorhanden sind, aber so einfach ist es nicht. Einige Wolken, insbesondere niedrige Wolken und Kumuluswolken, neigen dazu, tagsüber mehr Energie zu reflektieren als sie nachts einfangen. Hoch liegende Wolken, wie Zirruswolken, neigen dazu, solare SW-Energie durchzulassen und fangen viel aufsteigende LW-Energie ein, daher haben sie einen wärmenden Effekt. Der Wolkentyp spielt also eine Rolle.

Abbildung 1. CRE in W/m². Negative Werte (schwarz, grau und blau) bedeuten Abkühlung. Daten von https://ceres.larc.nasa.gov/data/

Abbildung 1 ist eine Karte des durchschnittlichen TOA (Obergrenze der Atmosphäre) Wolken-Strahlungs-Ungleichgewichts (CRE) bei den CERES-Satelliten. Die blauen Farben bedeuten ein negatives Energie-Ungleichgewicht oder eine Abkühlung der CRE. Die Karte ist ein Durchschnitt der monatlichen CERES-Daten von 2001 bis 2019. Die abgebildete CERES-Variable ist „toa_cre_net_mon“ oder der „Top of The Atmosphere Cloud Radiative Effects Net Flux“. Der Effekt ist überall negativ (oder kühlend), außer über Wüsten und den polaren Landregionen. Dies sind Gebiete, in denen die Wolken dazu neigen, die Infrarotstrahlung der Oberfläche und der unteren Atmosphäre einzufangen und gleichzeitig die kurzwellige Sonnenstrahlung zur Oberfläche durchzulassen.

Der Punkt, an dem sich die wärmenden und kühlenden Effekte der Wolken in der Farbskala von Abbildung 1 treffen, ist dort, wo das hellste Blau auf das hellste Gelb trifft. Genau bei Null ist der Punkt, an dem die eingehende Energie gleich der ausgehenden Energie ist, in Bezug auf die Wolken. Mit Ausnahme der Sahara, des Nahen Ostens, Westchinas, Teilen Südostasiens, Indonesiens, Nordaustraliens, des Südwestens der USA und Mexikos kühlen die Wolken also die Erde ab. Die dunkleren Gebiete in Abbildung 1 haben mehr anhaltende Wolken.

Abbildung 2 hat hellere Farben für Wolken und dunklere Farben für klaren Himmel. So ist der hellere Streifen in der Nähe des Äquators, sowohl im Pazifik als auch im Atlantik, in Abbildung 2 weiß, im Gegensatz zu Abbildung 1. Dies ist die intertropische Konvergenzzone (ITCZ), in der die Passatwinde der nördlichen und südlichen Hemisphäre zusammenlaufen. Hier ist die Verdunstung von Meerwasser am größten. Da Wasserdampf eine geringere Dichte als trockene Luft hat, handelt es sich um eine Zone mit schnell aufsteigender feuchter Luft und häufigem Regen und Gewitter. Sie ist fast immer bewölkt. Die ITCZ folgt dem Zenitpunkt der Sonne und die kühlende Wirkung der Wolken in dieser Zone ist sehr hoch.

Die maximale Wolkenabkühlung bzw. die negativsten CRE-Werte befinden sich in den kleinen weißen Flecken in der Mitte der schwarzen Flecken vor dem südlichen Peru und im südöstlichen China, nördlich von Vietnam. Diese CRE-Werte sind sehr negativ (extrem kühlend) und liegen außerhalb der Skala. Abbildung 1 korreliert einigermaßen gut mit dem Wolkenanteil in Abbildung 2 bzw. den helleren Farben in Abbildung 3, mit Ausnahme der Polkappen.

Abbildung 2. CERES-Wolkenanteil in Prozent. Dunklere Farben bedeuten weniger Bewölkung, hellere Farben bedeuten mehr Wolken.

Abbildung 3 ist die blaue NASA-Murmel mit Eis und Wolken in einer Mercator-Projektion dargestellt. Beachten Sie die Ähnlichkeit mit Abbildung 2, außer an den Polen.

Abbildung 3. Darstellung der NASA mit Eis und Wolken.

Abbildung 4 zeigt die gleichen Daten, die CERES EBAF 4.1-Variable „toa_cre_net_mon“, als jährliche globale Mittelwerte. EBAF bedeutet „energy balanced and filled“. Wie Norman Loeb und Kollegen (NASA Langley Research Center) erklären, ist das Energie-Ungleichgewicht der Erde so winzig, zwischen 0,5 und 1 W/m², dass es nur 0,15% der gesamten ein- und ausgehenden Strahlung ausmacht. Die Zahl, nach der wir suchen, ist also die Differenz zwischen zwei großen Zahlen und liegt kaum über der Unsicherheit der Satellitenmessungen.

Die Kalibrierungsunsicherheit bei der CERES SW-Messung beträgt 1 % und 0,75 % für die LW. Somit ist die ausgehende LW nur auf ±2 W/m² bekannt. Es gibt viele andere Fehlerquellen, und wie Loeb, et al. erklären, beträgt das Netto-Ungleichgewicht aus den Standard-CERES-Datenprodukten nur ~4,3 W/m², nicht viel größer als der erwartete Fehler. Aufgrund der groben Auflösung des CERES-Instruments gibt es viele fehlende Gitterzellen in dem Eins-zu-Eins-Gitter für Breiten- und Längengrade, das zur Erstellung der Karten in den Abbildungen 1 und 2 verwendet wird. Um diese Probleme zu umgehen, verwenden Loeb und Kollegen einen komplexen Algorithmus, um fehlende Werte aufzufüllen und die SW- und LW-TOA-Flüsse innerhalb ihrer Unsicherheitsbereiche anzupassen, um Inkonsistenzen zwischen dem globalen Netto-TOA-Energiefluss und der Wärmespeicherung im System Erde-Atmosphäre zu beseitigen (Loeb, et al., 2018).

Abbildung 4. Der flächengewichtete durchschnittliche monatliche TOA CRE (Cloud-Radiative Effect) des CERES von 2001 bis 2019. Daten von der NASA.

Der CRE- oder der Wolkenstrahlungs-Ungleichgewichtswert variiert stark von Jahr zu Jahr, der Durchschnittswert über die 19 Jahre beträgt -19,1 W/m², das liegt sehr nahe am Wert von Ceppi et al. von -18 W/m² (Ceppi, Brient, Zelinka, & Hartmann, 2017). Dies deutet darauf hin, dass die Gesamtwolkenbedeckung der Hauptfaktor ist, sie ist unten in Abbildung 5 dargestellt. Wie zu erwarten, nimmt der Kühleffekt ab, wenn der Wolkenanteil sinkt, und die CRE wird weniger negativ. Wenn der Wolkenanteil steigt, nimmt der Kühleffekt zu.

Abbildung 5. CERES Durchschnittlicher monatlicher Wolkenanteil, Variable cldarea_total_daynight_mon.

In Ceppi17 impliziert ein positiverer Rückkopplungsparameter (λ) eine Erwärmung. Da sie mit Modellen arbeiten, können sie λ berechnen, indem sie den berechneten Antrieb, der erforderlich ist, um das ursprüngliche erzwungene Energieungleichgewicht aufgrund von Wolken auszugleichen, durch die resultierende Temperaturänderung (ΔT) teilen. Abbildung 6 zeigt die globale Rückkopplung von Ceppi17 aufgrund von Wolken.

Abbildung 6. Der globale Wolken-Rückkopplungs-Parameter von Ceppi17, die Einheiten sind W/m²/K.

Die Einheiten sind W/m²/K, wobei K (Kelvin) Grad C der Erwärmung oder Abkühlung aufgrund von Wolken über die Zeit, die zum Erreichen des Gleichgewichts benötigt wird, ist. Abbildung 6 ist die Wolkenrückkopplung und nicht das Gleiche wie CRE, aber laut Ceppi17 ist die Wolkenrückkopplung tendenziell positiv und es deutet darauf hin, dass die Wolken langfristig die Erde erwärmen und nicht abkühlen. Dies brachte Willis dazu, das ganze Papier in Frage zu stellen. Er weist darauf hin, dass Abbildung 6 eine Darstellung der Modellausgabe ist und Abbildung 1 Daten sind. Die Daten in Abbildung 1 sind massiert und sie sind nahe am Rande der Unsicherheit, aber es sind Daten.

Ceppi17 hat Glück, dass wir ihre Rückkopplungsparameter nicht aus realen Daten ableiten können, denn wenn wir das könnten, würde die Karte vermutlich ganz anders aussehen als in Abbildung 6. Einer der Orte, an dem die Wolken die Oberfläche am meisten abkühlen, liegt zum Beispiel vor der Küste Perus, wie wird daraus ein Gebiet mit einer positiven Rückkopplung? Der andere ist der Südosten Chinas, OK, dort wird es ein wenig blau, aber nichts von dem, was uns die tatsächlichen Daten zeigen. Die sehr bewölkte ITCZ ist ein sehr heißes Gebiet in Abbildung 6, wie machen sie das?

Ich stimme mit Willis überein, diese ganze Idee, dass Wolken eine positive (wärmende) Rückkopplung sind, macht keinen Sinn. Das Schlimmste daran ist, dass fast jedes Modell eine positive Wolkenrückkopplung verwendet. Die Wolkenrückkopplung ist die größte Komponente der modellberechneten ECS (die Temperatursensitivität aufgrund einer Verdopplung der CO2-Konzentration), welche das IPCC bevorzugt. Wie wir wissen, können Wolken nicht modelliert werden, sondern müssen parametrisiert werden (der schicke Modellierungsbegriff für „angenommen“). Wie Steve Koonin in seinem demnächst erscheinenden Buch „Unsettled“ berichtet, haben Wissenschaftler des Max-Planck-Instituts ihr Klimamodell durch Anpassung der Wolkenrückkopplungen auf einen ECS von etwa 3°C eingestellt. Er fügt hinzu: „Talk about cooking the books.“ (Koonin, 2021, S. 93). [Etwa: Sprecht über das Frisieren der Bücher!]

Ceppi17 berichtet, dass die Wolkenrückkopplung „bei weitem die größte Quelle für die Streuung zwischen den Modellen bei der Gleichgewichts-Klimasensitivität (ECS) ist.“ Sie weisen auch darauf hin, dass die Wolkenrückkopplung stark mit der aus den Modellen abgeleiteten ECS korreliert ist und liefern uns die Daten, die in Abbildung 7 dargestellt sind.

Abbildung 7. Modellierte Wolkenrückkopplung (λ) aufgetragen gegen modellgeleitetes ECS. Daten aus (Ceppi, Brient, Zelinka, & Hartmann, 2017).

Oops! Wolken können nicht modelliert werden, Modelle gehen davon aus, dass ihre Wolken einen Erwärmungseffekt haben, CERES sagt, dass Wolken einen Nettokühleffekt haben, einen großen Nettokühleffekt von -18 W/m². Die Modelle sagen, dass der gesamte menschliche Einfluss auf das Klima seit Beginn des Industriezeitalters 2,3 (1,1 bis 3,3) W/m² beträgt (IPCC, 2013, S. 661), was den Wolkeneinfluss von -18 W/m² relativiert. Beachten Sie, dass die Variabilität in Abbildung 4 größer ist als 2,3 W/m². Wie viel der ECS von Modellen ist auf ihre Annahme zurückzuführen, dass Wolken eine Nettoerwärmung sind? Wie viel ist auf ihre Annahme zurückzuführen, dass ECS 3 W/m² beträgt? So viele Fragen.

Willis Eschenbach kindly reviewed this post for me and provided valuable input.

References

Ceppi, P., Brient, F., Zelinka, M., & Hartmann, D. (2017, July). Cloud feedback mechanisms and their representation in global climate models. WIRES Climate Change, 8(4). Retrieved from https://onlinelibrary.wiley.com/doi/full/10.1002/wcc.465

IPCC. (2013). In T. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. Allen, J. Boschung, . . . P. Midgley, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. Retrieved from https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SPM_FINAL.pdf

Koonin, S. E. (2021). Unsettled: What Climate Science Tells us, What it doesn’t, and why it matters. Dallas, Texas, USA: BenBella. Retrieved from https://www.amazon.com/dp/B08JQKQGD5/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1

Loeb, N. G., Doelling, D., Wang, H., Su, W., Nguyen, C., Corbett, J., & Liang, L. (2018). Clouds and the Earth’s Radiant Energy System (CERES) Energy Balanced and Filled (EBAF) Top-of-Atmosphere (TOA) Edition-4.0 Data Product. Journal of Climate, 31(2). Retrieved from https://journals.ametsoc.org/view/journals/clim/31/2/jcli-d-17-0208.1.xml

Link: https://andymaypetrophysicist.com/2021/04/28/clouds-and-global-warming/

Übersetzt von Chris Frey EIKE

 




Kältereport Nr. 6

Historische Frost- und Schnee-Ereignisse im Mittleren Westen und dem Osten der USA

27. April: Auf den tödlichen Februar-Frost in Nordamerika folgte Ende April ein brutaler arktischer Sturm. Das Ergebnis waren Schäden in Millionenhöhe in den wichtigsten Anbauregionen der USA, nicht zuletzt in den Weinbergen des Landes.

Link: https://electroverse.net/midwest-and-eastern-vineyards-hit-by-historic-snow-and-freeze-events/

——————————

Eisiger polarer Griff in Neuseeland – Eisausdehnung um die Antarktis nach wie vor über dem Mittel der Jahre 1979 bis 1990

28. April: Der Winter hält früh Einzug in Neuseeland, vor allem auf der Südinsel, wo die Temperaturen weit unter dem Durchschnitt liegen und sogar ein wenig Schnee außerhalb der Saison gefallen ist.

Ein mitternächtlicher Schneesturm bescherte dem Porters Alpine Resort in der Nähe von Castle Hill am Dienstagmorgen eine ordentliche Portion Schnee, während Teile des Landesinneren von Canterbury und Otago bei Temperaturen um den Gefrierpunkt erwachten, die bis auf -3,2 Grad sanken.

Am Mittwochmorgen sank die Temperatur noch weiter, da eine antarktische Luftmasse das Regiment übernahm.

Link: https://electroverse.net/polar-chill-grips-new-zealand-antarctic-sea-ice-extent-average/

——————————

Historischer Frühjahrs-Frost schädigt die Getreide-Ernte in der EU und den USA

29. April: Das sich verschärfende Große Sonnenminimum bereitet Sorgen um die Versorgung mit Getreide und treibt die aktuelle Preisspirale an. An den globalen Getreidemärkten wurden beträchtliche Preissteigerungen verzeichnet: Die Maispreise in Chicago stiegen in der vergangenen Woche um 18 Prozent und diejenigen für britischen Futterweizen legten in den letzten 12 Tagen um 17 Prozent zu.

Link: https://electroverse.net/historic-spring-freeze-impacts-eu-and-us-grain-crops/

——————————

Rekord-Frühjahrsschneefälle im zentralen Russland – außerordentlich kalter April auf der Krim

30.April: Nach einem historisch kalten und rekordverdächtig schneereichen Winter haben Teile Russlands – namentlich Sibirien – endlich ein wenig Frühlingswärme erlebt; oder besser gesagt, sie hatten es, bevor in dieser Woche die Arktis zurückkehrte.

„Nach den letzten warmen Tagen gab es einen Hauch von Kälte“, wie hmn.ru es ausdrückt – das erscheint aber untertrieben, da die Übersetzung durcheinandergeraten zu sein scheint. Die letzte Aprilwoche in und um die Region Moskau war nicht nur kühl, sondern es herrschten Bedingungen wie im tiefsten Winter, mit den dazu passenden beträchtlichen Schneemengen.

Schnee in den Regionen Moskau und Tula, Russland: gestern fiel bis zu 20 cm Schnee (Plavsk 20 cm, Kasira 17 cm) und bis zu 5 cm Schnee südlich von Moskau (Flughafen Domodevo)

Extrem kalter April auf der Halbinsel Krim

Auch auf der nahe gelegenen Halbinsel Krim herrschte sehr kaltes Wetter

30.April: Während des gesamten Monats April hat die Temperatur in Simferopol nie die 20°C-Marke überschritten – ein historischer Vorgang. Und das vergangene Jahr war „sehr ähnlich“, heißt es in einem anderen hmn.ru-Artikel. Auch 2020 lagen die Thermometerwerte häufiger unter als über der Klimanorm – ein weiteres Beispiel für die „Verlängerung des Winters“, wie es in Zeiten geringer Sonnenaktivität zu erwarten ist.

Link: https://electroverse.net/central-russia-sees-record-spring-snow-as-crimea-suffers-exceptionally-cold-april/

——————————

Teile des südlichen Afrikas von frühem Schneefall betroffen, mit starkem Schneegestöber auf dem Weg nach SA

1. Mai: Wie vorhergesagt, war die abgeschottete südafrikanische Nation Lesotho am Freitag, den 30. April, von „riesigen Flächen“ mit Schnee bedeckt, nachdem das Bergkönigreich „so etwas wie einen Schneesturm“ erlebt hatte, heißt es auf thesouthafrican.com.

AfriSki mountain resort in Lesotho begrüßte seinen ersten größeren Schneefall für den Winter“, berichtet The South African in einem aktuellen YouTube-Video (hier verlinkt); allerdings ist dies eine etwas ungenaue Aussage, da der „Winter“ in S. Hanf offiziell erst am 21. Juni beginnt. Darüber hinaus sind diese „Zentimeter“ auch einige der frühesten in den Aufzeichnungen, die im April gefallen sind – eine Tatsache, die in dem Bericht nicht erwähnt wird.

Link: https://electroverse.net/southern-africa-hit-by-early-season-snow/ [mit vielen Bildern und Videos!]

——————————

Unzeitgemäßer Schneefall“ in den Bergen Süd-Koreas – sogar die NOAA-Daten enthüllen signifikante Abkühlung

2.Mai: Ungewöhnliche Schneefälle bedeckten die Bergregionen der Gangwon-Provinz östlich von Seoul am letzten Tag des Aprils, einer Zeit, die bei den Südkoreanern normalerweise für ihre sommerliche Wärme bekannt ist, berichtet yna.co.kr.

Am späten Donnerstag, den 29. April, verwandelte sich starker Regen in schweren Schnee in den Gangwon-Bergen, die bis zu 1.300 m über den Meeresspiegel ansteigen, und am frühen Freitagmorgen hatten sich mehr als 15 cm der globalen Erwärmung auf und um den Gipfel des Mount Seorak angesammelt, so die Beamten des dortigen Nationalparks.

Link: https://electroverse.net/snowy-south-korea-as-noaa-reveal-cooling/

——————————

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE