1

Der Wechsel von Tag und Nacht erklärt das Fehlen eines äquatorialen Hotspots in der Atmosphäre

Ich bedanke mich bei der EIKE-Redaktion dafür, dass sie einem breiten Spektrum von konträren wissenschaftlichen Positionen jenseits des wissenschaftlichen „97%“-Mainstreams ein öffentliches Forum bietet. Sehr eigenartig finde ich dagegen die wiederkehrende Kritik einzelner Leser, EIKE würde keine einheitliche Realisten-Position abbilden. Denn eine solche einheitliche Realisten-Position gibt es gar nicht; aber alle diese Positionen konvergieren auf einer Meta-Ebene mit einem „natürlichen atmosphärischen Treibhauseffekt“ als einem „NON-PROBLEM“ und gar keinem oder einem sehr geringem Einfluss des Menschen auf das globale Klimageschehen.

Die wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt hatte ich bereits ausführlich diskutiert (Darstellung, Diskussion, Ergebnis). Allein mein hemisphärischer S-B-Ansatz kann die Widersprüche des konventionellen 24h-Tag=Nacht-THE-Ansatzes auflösen. Das THE-Paradigma behandelt Tag und Nacht völlig gleich und tut so, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von 235W/m² senkrecht einstrahlen. Nun hat aber noch kein THE-Anhänger erklären können, wie aus einer planaren solaren Einstrahlung eine terrestrische radiale Abstrahlung entsteht. Und, was noch viel offensichtlicher ist, eine atmosphärische „Gegenstrahlung“ von ca. 300 W/m²würde verhindern, dass es irgendwo auf unserer Erde jemals kälter als 270K (-3°C) wird. Das konventionelle THE-Modell für unsere Erde mit den globalen Eckwerten von (33°C und 155W/m²) ist also streng eindimensional und beinhaltet keinerlei Abhängigkeit von der Tages- oder Jahreszeit und von der geographischen Breite. Mein hemisphärisches S-B-Modell kann dagegen die „gemessene“ Realität von etwa 15°C widerspruchsfrei abbilden und stimmt mit den tatsächlichen Beobachtungen überein (hier Tabelle 1).

Abbildung 1: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Das 24h=Faktor4-THE-Paradigma benötigt dagegen eine zweite Sonne für die 235W/m² der Nachtseite

Das hemisphärische S-B-Modell kann als vieljährige Durchschnittsbetrachtung unserer realen Erde die oben genannten räumlichen und zeitlichen Abhängigkeiten der solaren Einstrahlung sehr wohl abbilden und erfasst damit alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Beschreibung der Temperaturgenese auf unserer Erde. Nehmen wir mal ein ganz einfaches Beispiel, die Erzeugung von Solarstrom in Deutschland:

Abbildung 2: Realisierte Erzeugungsleistung und tatsächlicher Stromverbrauch im Zeitraum 14.-25. September 2020 (Quelle: SMARD)

Aus dieser Abbildung wird unmittelbar der natürliche Tag&Nacht-Rhythmus bei der Erzeugung von Solarstrom deutlich. Im Umkehrschluss liefert also der Verlauf der Solarstromerzeugung den Beweis, dass der Wechsel von Tag und Nacht wesentliche physikalische Unterschied beinhaltet, ganz wie es mein hemisphärisches S-B-Modell beschreibt. Und dieser Tag&Nacht-Wechsel sollte sich eigentlich auch korrekt in den Klimamodellen abbilden, die sich aber lediglich auf einen 24h-Tag&Nacht-Durchschnitt stützen. Weiterhin wird die hemisphärische Tag&Nacht-Ungleichheit auf der realen Erde durch das Land-Seewind-System und dessen gegenläufigen Tag#Nacht-Verlauf nachgewiesen. Und auch die sogenannte oberflächennahe „Skin“-Schicht der Ozeane schwankt zwischen bis zu 10 Metern am Tage und weniger als einem Millimeter in der Nacht (hier, erster Absatz).

Kann ein globaler 24h-Durchschnitt solche Tag&Nacht-Unterschiede abbilden? – Nein, das kann er natürlich nicht: Es fängt schon damit an, dass die 24h-Tag&Nacht-Gleichheit des THE-Paradoxons im natürlichen Ablauf von Tag und Nacht gar nicht beobachtet werden kann. Und auch die besten mathematischen Ableitungen verlieren ihre physikalische Aussagekraft, wenn vorher die planare solare Einstrahlung auf der Tageshemisphäre der Erde in einen skalaren globalen Durchschnitt umgewandelt wird. Die Strahlungstransferberechnung leitet also aus der Differenz einer physikalisch fehlerhaften globalen 24h-S-B-Inversion als „Gleichgewichtstemperatur“ für die solare Einstrahlungsleistung (-18°C) und der sogenannten „gemessenen“ globalen Durchschnittstemperatur (NST=14,8°C) den ominösen THE (33°) her. Und auch das immer wieder vorgebrachte Argument, die ominöse „atmosphärische Gegenstrahlung“ würde den 2.HS der Thermodynamik erfüllen, entbehrt jeder physikalischen Beweiskraft.

So stellen Ozawa et al. (2003) in einer Veröffentlichung über das Prinzip der maximalen Entropie im globalen Klimasystem ein Berechnungsschema für die Entropie vor und wenden es auf die Erde an:

Abbildung 3: Fig.3 und 5a aus Ozawa et al. (2003) zur Entropie. Links Fig. 3: “A schematic of heat transport through a small system (C) between two thermal reservoirs with different temperatures (A, cold and B, hot). By the heat transport from hot to cold, entropy of the whole system increases…” Übersetzung: Ein Schema des Wärmetransports durch ein kleines System (C) zwischen zwei Wärmespeichern mit unterschiedlichen Temperaturen (A, kalt und B, heiß). Durch den Wärmetransport von heiß zu kalt nimmt die Entropie des gesamten Systems zu… Rechts Fig. 5a: “Energy and entropy budgets for the Earth. (a) Global-mean (surface-area mean) energy flux components (i.e., shortwave radiation, longwave radiation, vertical turbulent heat transport), in W/m². Übersetzung: Energie- und Entropiebudgets für die Erde. (a) Global-mittlere (Oberflächenmittelwert) Energieflusskomponenten (d. h. kurzwellige Strahlung, langwellige Strahlung, vertikaler turbulenter Wärmetransport) in W/m²

Einmal vorausgesetzt, das Schema von Ozawa et al. (2003) zur Ermittlung der Entropie in deren Fig.3 sei korrekt, dann ist es insofern auf die reale Erde adaptiert worden, als dass in deren Fig.5a die allgemein bekannten Durchschnittstemperaturen korrekt aufgeführt worden sind. Allerdings ist deren jeweilige Entsprechung als spezifisches S-B-Strahlungsäquivalent quantitativ nicht nachzuvollziehen. Zunächst fehlt in Fig.5a schon einmal die Solarkonstante von 1.367W/m², die schließlich das maximal mögliche S-B-Temperaturäquivalent von ca. 120°C auf unserer Erde bestimmt. Vielmehr wird dort der temperaturwirksame Anteil der solaren Einstrahlung nach dem Faktor4-Tag=Nacht-THE-Flacherdeansatz mit 240W/m² entsprechend einem S-B-Temperaturäquivalent von (-18°C=255K) beziffert. Und erstaunlicherweise taucht die ominöse „atmosphärische Gegenstrahlung“ im Betrag von 300-333W/m² ebenfalls nicht auf, sodass diese Abbildung aus sich heraus gar nicht erklären kann, wie sich aus einer Einstrahlung von 142W/m² an der Erdoberfläche die angegebenen 288K herleiten sollen; denn die (vernachlässigbare) natürliche mittlere Wärmestromdichte aus dem Erdinneren beträgt an der Erdoberfläche lediglich 0,065W/m².

Anmerkungen: Eine wissenschaftliche Abbildung sollte insoweit vollständig sein, als dass sie alle wesentlichen Komponenten zum Verständnis des beschriebenen Vorgangs enthält. Die näheren Erläuterungen können dann im Fließtext erfolgen. Eine unvollständige Abbildung, die ausgerechnet strittige Komponenten wie die ominöse „atmosphärische Gegenstrahlung“ ausschließt, ist völlig inakzeptabel und wahrscheinlich nicht einmal für THE-Gläubige verständlich.

Erklärung für den Begriff „Entropie“, Zitat Wikipedia: „In einem sich selbst überlassenen System in einem beliebigen Anfangszustand bewirken dann die spontan ablaufenden inneren Vorgänge, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände realisiert sein kann, also die höchstmögliche Entropie hat.“ Das ist schwerer Tobak, eine recht gute Ableitung findet man hier auf EIKE.

Und hier noch ein ganz einfaches Beispiel aus dem vollen Leben: Das Kinderzimmer war eben noch aufgeräumt, dann haben die lieben Kleinen den ganzen Nachmittag gespielt und am Ende herrscht dort Chaos. Im Kinderzimmer hat sich damit die Entropie als Maß für dessen Unordnungszustand erhöht. Und um diese Unordnung dann wieder zu beseitigen, müssen Sie Arbeit (=Leistung*Zeit) verrichten. Denn jedes System, auch das Kinderzimmer, kann seine Entropie nicht ohne zusätzlich eingebrachte Arbeit wieder verringern.

Ergebnis: Der 2. Hauptsatz der Thermodynamik macht auch vor dem Kinderzimmer nicht halt, denn die Aufräumungsarbeiten im Kinderzimmer machen sich nun mal nicht von alleine…

Fassen wir zusammen: Die von Ozawa et al. (2003) in Fig. 5a angegebenen Werte für die spezifische Strahlungsleistung entstammen einem unvollständigen Faktor4-Tag=Nacht-THE Flacherdeansatz und treffen daher nicht auf die reale Erde mit Tag und Nacht zu. Aber die dort angegebenen Temperaturen stimmen dann erstaunlicherweise trotzdem mit den realen Werten überein, Oberflächentemperatur gleich 288K (~+15°C) und Temperatur auf der „Abstrahlungshöhe“ von ca. 5.000 Metern gleich 255K (~-18°C). Ozawa et al. (2003) sagen nun, die theoretischen Abschätzungen von Paltridge (1978) würden in annehmbarer Übereinstimmung mit den tatsächlichen Beobachtungen stehen:

Abbildung 4: “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)). Reprinted from Paltridge [1978]” aus Ozawa et al. (2003, Figure 4) Übersetzung: Globale Verteilung(en) von (a) mittlerer Lufttemperatur,…, vorhergesagt unter der Bedingung der maximalen Entropieproduktion (Gleichung (9)). Nachdruck aus Paltridge [1978]
Deutlich wird hier allerdings, dass die 273K (~0°C) Isotherme bei Paltridge (1978) deutlich polferner (um 50° N und S) verläuft, als die durchschnittliche Oberflächentemperatur der Ozeane in der NASA-Abbildung (um 70° N und S):

Abbildung 5: Globale Durchschnittstemperaturen (Abbildungen in E-W-Richtung gestaucht) Links: Paltridge [1978] aus Ozawa et al. (2003, Figure 4) “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)).” Rechts: NASA “Annual Mean Ocean Surface Temperature” based on observed data up until 1994
Wir können also feststellen, dass der Faktor4-Tag=Nacht-THE-Flacherdeansatz trotz unklarer/fehlender Zwischenschritte von einer fehlerhaften „Gleichgewichtstemperatur“ (-18°C) zu einem vergleichbaren Ergebnis wie die tatsächlich gemessenen Daten (+15°C) kommt, sich also in der Zielsetzung streng an der gemessenen Realität orientiert. Ergebnis ist eine MATHEMATISCHE Strahlungstransfer-Berechnung zwischen einer PHYSIKALISCH fehlerhaften „Gleichgewichtstemperatur“ und der sogenannten „gemessenen globalen Durchschnittstemperatur“. Diese Lücke zwischen fehlerhafter Theorie und gemessener Realität wird dann mathematisch durch eine willkürliche „atmosphärische Gegenstrahlung“ als imaginärer Antrieb eines „natürlichen atmosphärischen Treibhauseffektes“ von 33° geschlossen, die dem 2.HS der Thermodynamik widerspricht. Denn ein Übergang von Wärme von einem kalten zu einem wärmeren Körper ist PHYSIKALISCH nach dem 2.HS der Thermodynamik ohne zusätzlich aufgebrachte Arbeit völlig unmöglich, wie eben auch das Aufräumen eines Kinderzimmers.

In der nachfolgenden Abbildung wird ein älteres Beispiel aus meinem hemisphärischen Modell, das die Entropie der solaren Strahlungsleistung beschreibt (A), durch eine aktuelle Abbildung von Joe Postma (B) nochmals bestätigt:

Abbildungen 6 A&B zum Wärmetransport nach dem 2.HS der Thermodynamik

A – Abbildung Weber: Der Strahlungsdurchschnitt von 470 W/m² (korrekt: 940W/m²*cosPHIi) umfasst einen Strahlungsbereich von 0-940W/m² für die tagseitige Hemisphäre mit einem maximalen S-B-Temperaturäquivalent von 85,7°C @ 940W/m². Bei der globalen Mittelung der tagseitigen solaren Einstrahlung (235W/m²) fällt also genau derjenige Teil der spezifischen solaren Strahlungsleistung (größer 235W/m²) weg, der Temperaturen oberhalb von (-18°C) erzeugen kann.

B – Abbildung Postma: Die schwarze Kurve zeigt die Differenz der IR-Spektren von (22°C=rot) und (-18°C=blau). Es wird deutlich, dass das (-18°C)-Spektrum diese Differenz, insbesondere zu den hohen IR-Frequenzen hin, gar nicht im erforderlichen Umfang enthält.

ERGO: Beide Abbildungen 6 A und B beweisen, dass ein kalter Körper (=hohe Entropie) gar nicht die notwendige physikalische Ordnung besitzt, um einen wärmeren Körper (=geringe Entropie) noch weiter zu erwärmen. Die Entropie erklärt übrigens auch die allgemein bekannten Vorgänge in der unbelebten Natur, beispielsweise die geologische Erosion. Denn während die inneren Kräfte der Erde gerade neue Gebirge auftürmen, beginnt an der Oberfläche bereits deren Erosion. Und das Ergebnis dieser Erosion landet zunächst als Erosionsschutt an der tiefsten topographischen Stelle mit der geringsten potentiellen Energie, also in irgendeinem Tal. Um diesen Schutt dann weiter zu bewegen, sind erneut Kräfte erforderlich, diesmal die Kräfte des gravitativ abfließenden Wassers.
Und die Entropie würde selbstverständlich auch „zerstreuend“ auf einen äquatorialen Hotspot wirken. Und deshalb kann sich ein solcher Hotspot nur in einem Computerprogramm entwickeln, das nach dem 24hTag=Nacht-THE-Ansatz entwickelt worden ist. Nach 10, 100, 1000 oder noch mehr 24h-Tag=Nacht-Zyklen entsteht dann eine solche digitale Wissenschaftsschimäre aus einem physikalischen Ansatz, der nicht mit der alltäglichen Tag#Nacht-Beobachtung in der realen Welt übereinstimmt. Und deshalb konnte dieser theoretische Hotspot bisher auch noch nirgendwo nachgewiesen werden, wie die nachstehende Abbildung aus Henney & Monckton zeigt:

Abbildung 7: (a) prophezeites und (b) gemessenes vertikales Temperaturprofil der Atmosphäre – links: IPCC (2007, Abb. 9.1c), rechts: Lanzante et al. (2006) (Abbildung 15 aus Henney & Monckton)

Denn ein solcher äquatorialer Hotspot würde eine ständige solare Energiezufuhr erfordern, wie sie nur rein rechnerisch in einem 24h-Tag=Nacht-Modell vorhanden ist. Die Realität des täglichen 24h-Zykus wird dagegen regelmäßig durch die hemisphärische Nacht unterbrochen. Und in dieser hemisphärischen Nacht wirkt die Entropie zerstreuend auf die geringste herausgehobene Energiekonzentration, sodass sich ein solcher vorhergesagter Hotspot aus 24h-durchschnittlichen Computerberechnungen in der Realität niemals aufbauen kann. Joe Postma fasst eine solche Situation mit den Worten zusammen, „Kann man Laufen speichern, um schneller zu laufen?“.

Die menschengemachte Klimakatastrophe ist auf eine Physik-Wende zurückzuführen

Highspeed-Computerspekulationen sind die Astrologie unserer Tage. Aufgebaut auf undurchsichtigen und/oder unzureichenden Algorithmen verbreiten sie Zukunftsvisionen, ohne je den Beweis für die physikalische Richtigkeit ihrer Algorithmen an historischen Daten nachgewiesen haben zu müssen. Und solange die Freiheit der Wissenschaft darin besteht, voll alimentiert gesellschaftspolitisch erwünschte Ergebnisse liefern zu dürfen, wird sich daran auch nichts ändern; den Plot dazu finden Sie hier. Das politisch und medial allgegenwärtige „Hört auf DIE Wissenschaft!“ müsste nämlich eigentlich heißen, „Hört auf UNSERE Wissenschaft!“.

Das hemisphärische S-B-Modell definiert den THEORETISCHEN GRENZWERT der terrestrischen Temperaturgenese aus sich selbst heraus zu (+15°C) und stimmt ohne einen sogenannten THE mit der „gemessenen globalen Durchschnittstemperatur“ von (+15°C) überein. Diese (+15°C) sind übrigens nur abhängig von der Solarkonstanten und der terrestrischen Albedo. Das THE-Paradigma definiert dagegen den fehlerhaften ANFANGSWERT („Gleichgewichtstemperatur“ von -18°C) seiner atmosphärischen Resonanzfunktion (-18°C=>Gegenstrahlung=>THE=>+15°C), kann aber einen konkreten Endpunkt dieser Resonanz aus sich selbst heraus gar nicht bestimmen. Es rekurriert mit seiner „Gegenstrahlung“ vielmehr direkt auf die „gemessene globale Durchschnittstemperatur“, und das könnten dann auch (-5°C), (+20°C) oder (+45°C) sein. So würden beispielsweise die Schwankungen des Paläoklimas allein durch eine veränderte „Gegenstrahlung“ erklärt werden können, man muss dort einfach nur die erforderlichen Zahlenwerte einsetzen.

Also noch einmal in aller Kürze: Es gibt keinen „natürlichen atmosphärischen Treibhauseffekt“, weil die Sonne nur am Tage scheint. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwellig (solar=niedrige Entropie) zu langwellig (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie, und das ist nur auf der Tagseite der Erde möglich:

(Solare HF-Einstrahlung) => (Erwärmung von Materie @2PIR²) => (IR-Abstrahlung @4PIR²)

Solange aber der Klimamainstream den längst widerlegten Hockeystick, der ein konstantes Paläoklima in den IPCC-Bericht AR3 hinein gezaubert hatte, weiterhin als Vorhersagekrücke benutzt, liefert eine Physik-Wende die für einen anthropogenen Klimawandel zwingend erforderliche sogenannte „Klimasensitivität“ des CO2-Moleküls. Und schon hat man sich durch eine solche Physik-Wende in den Klimawissenschaften einen schönen neuen CO2-Motor für das Paläoklima gebastelt, der dann eine Energie-Wende erfordert – und eine Agrar-Wende – und eine Verkehrs-Wende – und eine Industrie-Wende – und schließlich auch noch den Großen Reset mit einer anthropogenen Existenz-Wende zurück in ein ökologisches, ökonomisches und intellektuelles Mittelalter. Diesem Wahnsinn steht nicht nur mein hemisphärisches S-B-Modell entgegen, sondern auch das Aktualitätsprinzip der Geologie – aber wer kennt das nach der Bildungs-Wende überhaupt noch…

Es folgen drei Beispiele für den Fußabdruck meines hemisphärischen S-B-Modells in den real existierenden Klimawissenschaften: Das hemisphärische S-B-Modell ermöglicht in Form von einfachsten Plausibilitäten einen qualitativen Blick auf die räumlichen und zeitlichen Abhängigkeiten des Klimageschehens auf unserer realen Erde und entzaubert damit die supercomputer-gestützten Weissagungen der modernen Klimaforschung.

1. Beispiel: Die Sommerpole unserer Erde sind gar keine Temperatur-Hotspots.
Klimamodelle sind nicht in der Lage, die von jedermann zu beobachtende Realität in Form des natürlichen Wechsels von Tag und Nacht abzubilden. Und wenn dort auch noch auf die Polarzonen fokussiert wird, dann kommt es zu ganz eigenartigen klimawissenschaftlichen Stilblüten, die sich wiederum jeder realen Beobachtung entziehen. Eine der Kernerzählungen der Klimareligion ist das Abschmelzen der Polkappen durch den „menschengemachten Klimawandel“, wodurch weite Teile der heute besiedelten Tiefländer der Welt unbewohnbar werden sollen. Manche Klimarealisten sehen in dem Spiegel-Titel „Die Klima-Katastrophe“ Nr. 33/1986 mit dem versinkenden Kölner Dom den Beginn der medialen Klimahysterie.

In der Mainstream-Klimawissenschaft ist es üblich, die physikalischen Einheiten „Leistung (WATT)“ und „Arbeit (JOULE = WATT x ZEIT)“ über die ZEIT, meist den 24h-Tag, nach Belieben aus der jeweils anderen Größe abzuleiten. Der sogenannte „natürliche atmosphärische Treibhauseffekt“ leitet sich nun wiederum aus einer globalen 24-Stunden Mittelung der solaren Einstrahlung her, bei der ein gemeinsamer Mittelwert der Sonneneinstrahlung für Tag und Nacht für die Weiterverwendung in Klimamodellen berechnet wird. Das bedeutet, die tagseitige Sonneneinstrahlung (Solarkonstante S0=1.367W/m²) wird rechnerisch so verteilt, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von lediglich 235W/m² (=S0*(1-Albedo)/4) senkrecht einstrahlen. Und um diesen physikalisch fehlerhaften Ansatz etwas zu verbessern, führen manche Wissenschaftler nun eine breitenabhängige (zonale) Mittelung der globalen Sonneneinstrahlung ein. So wird, wie bereits gezeigt wurde, aus 24h-Zeitintegralen der solaren Strahlungsleistung ein physikalisch sinnfreier breitenabhängiger spezifischer Leistungsdurchschnitt abgeleitet, der am Ende zu rein rechnerischen Temperaturen jenseits jeglicher realer Beobachtungen führt, wie die nachstehende linke Abbildung mit dem jeweiligen Sommerpol als globaler Temperatur-Hotspot beweist:

Abbildung 8: Vergleich der „Daily mean values of (a) slab temperature” von Kramm et al. (2017) – Creative Commons License CC BY 4.0 (links) mit dem Jahresverlauf des örtlichen Maximums der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne (rechts)

Die tatsächliche Maximaltemperatur auf unserer Erde wird zwischen den Wendekreisen und bis in mittlere Breiten der Sommerhemisphäre erreicht. Die Sommerpole unserer Erde sind nämlich gar keine Temperatur-Hotspots, sondern dort ist lediglich die aus einer 24h-durchschnittlichen ARBEIT in JOULE abgeleitete 24h-Durchschnittsleistung ((Leistung @ 24h)/24h) aufgrund der polaren Tageslängen um die jeweilige Sommersonnenwende global gesehen am größten („Max. Arbeit“ in der nachfolgenden Abbildung 9 rechts). Und aus solchen 24h-Durchschnittswerten sollte man tunlichst keine Ortstemperaturen ableiten, sonst kommt es halt zu wissenschaftlichen Verwerfungen…

2. Beispiel: Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden lediglich das chaotische globale Wettergeschehen ab.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ soll durch eine „atmosphärische Gegenstrahlung“ verursacht werden, die wiederum aus der IR-Abstrahlung unserer Erde gespeist wird. Die beiden ursächlichen Steuergrößen für eine solche „atmosphärische Gegenstrahlung“, nämlich die aus den solaren Primärantrieben „tägliches solares Strahlungsmaximum“ und „örtliche Tageslängen“ induzierte Gesamtwärmemenge, lassen sich sekundär unter „jahreszeitlich maximale örtliche IR-Abstrahlung der Erde“ subsummieren. Der nachfolgende graphische Vergleich zeigt, dass die erforderliche Übereinstimmung zwischen den „menschengemachten“ IPCC-Temperaturdifferenzen und der maximalen örtlichen IR-Abstrahlung unserer Erde in der Farbgebung der IPCC-„Figure 1.SM.1“ jahreszeitlich nicht prägnant hervortritt:

Abbildung 9: Vergleich der IPCC-„Figure 1.SM.1“ (links) mit den tentativen jahreszeitlichen Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Anmerkung: Die jeweils zweistufige Farbskala für die Sommerhemisphäre in der Abb. links (Beispiel MAM und JJA für den Nordsommer) wurde im rechten Bild willkürlich in zwei einstufige Skalen für LEISTUNG (~JJA) und ARBEIT (~MAM) auf der jeweiligen Sommerhemisphäre aufgespalten und (nicht flächentreu) der tatsächlichen geographischen Lage zugeordnet. Deshalb können Farbsignaturen für Leistung/Arbeit (~JJA/MAM) in der jeweiligen geographischen Lage auch in umgekehrter Signatur (~MAM/JJA) auftreten; beispielsweise blau für LEISTUNG zwischen Äquator und mittleren Breiten.

Eigentlich müsste sich in der IPCC-Abbildung „Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015“ der zusätzliche THE-Anteil aus dem „menschengemachten“ CO2 aufgrund seiner vorgeblichen IR-Abhängigkeit als Temperaturanomalie proportional zur jahreszeitlich maximalen örtlichen IR-Abstrahlung unserer Erde abbilden. Das ist aber ganz offensichtlich nicht der Fall, denn insgesamt finden wir in „Figure 1.SM.1“ lediglich eine globale und unspezifische jahreszeitliche Durchmischung und sogar jahreszeitlich stark gegenläufige Anomalien. Der vorstehende Vergleich von „Figure 1.SM.1“ (links) mit den tentativen Auswirkungen der jahreszeitlich maximalen örtlichen IR-Abstrahlung aus meinem hemisphärischen S-B-Modell (rechts) verdeutlicht vielmehr, dass sich die erratisch verteilten Temperaturanomalien nicht mit den jahreszeitlichen Schwankungen erklären lassen, sondern viel eher mit deren zeitlicher Veränderung (also der 1. Ableitung), wobei das Maximum dieser Veränderung um die Äquinoktien liegt und jeweils beide jahreszeitlichen Hemisphären betrifft. Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden also lediglich das chaotische globale Wettergeschehen ab.

3. Beispiel: Der experimentelle Nachweis für den hemisphärischen S-B-Ansatz ist anhand von Satellitenmessungen gelungen.

Das IPCC-Modell KT97 gilt als Grundlage für alle computergestützten Klimamodelle. Herr Albert (Aulus) Agerius hatte auf Grundlage meines hemisphärischen Strahlungsmodells ein alternatives Klimamodell erstellt. In seinem BuchKritische Analyse zur globalen Klimatheorie: Widerlegung der Basisstudie KT97 des IPCC mit den Messwerten des ERBS Satelliten an einem neuen Modell“ deckt er erhebliche Widersprüche in der IPCC-Basisstudie KT97 auf:

Tabelle 1: Satellitenmesswerte des ERBS Satelliten in einem Modellvergleich (Quelle: A. Agerius)

Dem IPCC-Modell KT97 gelingt es also lediglich, 5 von 11 Messreihen abzubilden. Diesem IPCC-Modell KT97 stellt Agerius nun sein „Modell 5“ entgegen, das alle 11 Messreihen ohne einen atmosphärischen Treibhauseffekt abbildet und damit meinen hemisphärischen S-B-Ansatz voll betätigt.

Zum besseren Verständnis können Sie einmal die Perspektive eines Satelliten einnehmen: Die planare solare Einstrahlung erfolgt auf einer Kreisfläche (PIR²) und die jeweiligen Messwerte beziehen sich auf Schnittpunkte solcher Einstrahlungsflächen mit der entsprechenden Satellitenbahn (@4PIR²). Die Satellitenmesswerte für die Solarkonstante können die Erdkrümmung also gar nicht abbilden.

Nachtrag: Ich bitte höflich darum, im Interesse der objektiv interessierten Leser auf kreative Designerzitate und daraus abgeleitete sophistische Skandalisierungen zu verzichten. Das Stilmittel der sophistischen Skandalisierung einer ausschließenden gegenteiligen Eigenschaft (Disjunktion) fällt sofort auf, wenn es sich um Alltagswissen handelt. Ein Beispiel für den offensichtlichen Widersinn eines solchen skandalisierenden Sophismus‘ wäre die Aussage: „Der Dieselmotor widerspricht dem Prinzip der Elektromobilität“. Bei wissenschaftlichen Zusammenhängen, die zur Beurteilung einer Aussage zumindest die inhaltliche Abgrenzung zwischen Fachbegriffen erfordern, ist eine solche sophistische Skandalisierung für den interessierten Leser dagegen sehr viel schwerer zu erkennen, wie die nachfolgende Aussage beweist: „Ausgehend von dem Begriff des ‚solaren Klimas‘ wird nachgewiesen, dass die von Herrn WEBER (2019) in seinem Beitrag aufgestellten Behauptungen zur Ermittlung der global gemittelten Oberflächentemperatur einer Erde ohne Atmosphäre mit den theoretischen Grundlagen unvereinbar sind.“ Solche sophistischen Gegenargumente lassen sich nämlich für mein hemisphärisches S-B-Modell mittels einer oder mehrerer ausschließender gegenteiliger Eigenschaften jederzeit zurechtbiegen:

Sie können jetzt also sehr einfach mein hemisphärisches S-B-Modell skandalisieren, indem Sie ihm die Nichterfüllung seiner rechts aufgeführten ausschließenden Gegensätze vorhalten, also: Das hemisphärische S-B-Modell von Weber ist Mist, weil es

  • dem Prinzip der globalen Mittelung widerspricht,
  • dem Prinzip einer „Erde ohne Atmosphäre“ widerspricht,
  • dem anerkannten Lehrbuchwissen nach (Professor Dr. Beliebig) widerspricht.

Vielleicht erkennen Sie in diesen Aussagen ja den einen oder anderen Kommentar zu meinem hemisphärischen S-B-Modell wieder; sachlich korrekt oder gar verständnisfördernd sind solche Sophismen jedenfalls nicht. Für seriöse Verständnisfragen verweise ich gerne nochmals auf den Vergleich meines hemisphärischen Modells mit den wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt (Darstellung, Diskussion, Ergebnis) oder dessen direkten Abgleich mit dem sogenannten THE (hier Tabelle 1).

Einer physikalischen (nicht mathematischen) Beweisführung über eine Übereinstimmung der ominösen Faktor4-Tag=Nacht-Flacherde mit der tatsächlich beobachteten Tag#Nacht-Realität sehe ich mit Interesse entgegen.

 




Anmerkungen zur Bestimmung der hemisphärischen solaren Einstrahlung auf „Mittelerde“

Wie kommt eigentlich die sogenannte „natürliche theoretische Globaltemperatur“ von -18°C auf „Mittelerde“ zustande?

Uli Weber

Exemplarisch wird oft wie folgt vorgegangen: Man viertelt einfach die die temperaturwirksame spezifische Strahlungsleistung der Sonne (Solarkonstante * (1-ALBEDO)/4) und setzt sie ohne Rücksicht auf Tag & Nacht und die geographische Breite in das Stefan-Boltzmann-Gesetz ein. Daraus ergibt sich dann ein „rechnerisches“ S-B-Temperaturäquivalent von -18°C.

Als Argument für diesen 24h-„Flacherde“-Ansatz wird typischerweise immer wieder angeführt, die Erde würde sich schließlich in 24 Stunden einmal um ihre eigene Achse drehen, Zitat:

Legen wir halt den Fokus auf die „es wird nur eine Hemisphäre bestrahlt“, A ist die Fläche der Erde, P ist die eingestrahlte Leistung (unter den von Herrn Weber gemachten Annahme, dass man die einfach über die Halbkugel mitteln kann), t ist die Zeit:

(A/2) * P * t = A * (P/2) * t

Es sollte wieder offensichtlich sein, dass das beides gleich ist. Es wird einfach nicht mehr Energie, wenn man den Fokus darauf legt, dass die Einstrahlung nur auf eine Halbkugel wirkt…

Anmerkung: Der freundliche Kommentator wird hiermit höflich aufgefordert, den Beweis für seine Behauptung von einer vorgeblich „von Herrn Weber gemachten Annahme, dass man die einfach über die Halbkugel mitteln kann“ anzutreten. Tatsächlich ist gegen einen argumentativen Gebrauch von Durchschnittswerten erst einmal nichts einzuwenden, weil dadurch die Unterschiede zwischen den jeweiligen Modellen ganz pauschal verdeutlicht werden. Aber konkrete Berechnungen mit Durchschnittswerten erlaubt ein T-hoch4-Gesetz nun mal nicht. Dazu sei vielmehr auf den EIKE-Artikel „Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz“ verwiesen, der die wesentlichen Berechnungen aus einer Gesamtdarstellung meines hemisphärischen S-B-Ansatzes enthält.

Das Stefan-Boltzmann-Gesetz ist nun mal keine mathematische Rechenanleitung, sondern eine physikalische Verknüpfung von spezifischer Strahlungsleistung und Temperatur:

Stefan-Boltzmann-Gesetz: S = * T4 mit S = P/A = Spezifische Strahlungsleistung
und = S-B-Konstante

Diese physikalische S-B-Beziehung wird sofort klar, wenn wir in der nachfolgenden Abbildung einmal vier unterschiedlich große Schwarzkörper gleicher Temperatur betrachten:

Abbildung: Zur Bedeutung der spezifischen Strahlungsleistung „S“ im Stefan-Boltzmann-Gesetz

Für einen beliebigen Schwarzen Körper mit einer Temperatur von +15°C gilt also immer:

Die SPEZIFISCHE Strahlungsleistung S@15°C dieses Körpers beträgt 390 W/m².

Aus dieser Abbildung wird unmittelbar deutlich, dass die unterschiedlichen Strahlungsleistungen „Pi“ und Flächen „Ai“ eindeutig zusammenhängen, weil sie für jeden Körper (1-4) eine augenblickliche spezifische Strahlungsleistung „S@15°C“ definieren, die wiederum über das Stefan-Boltzmann-Gesetz eindeutig mit der Momentantemperatur des jeweiligen Körpers von 15°C verknüpft ist. Allein die Temperatur (primär) bestimmt also die spezifische Strahlungsleistung (sekundär) eines Schwarzen Körpers nach dem Stefan-Boltzmann-Gesetz:

Stefan-Boltzmann-Gesetz: Temperatur (primär) => Spezifische Strahlungsleistung (sekundär)

Jede Berechnung einer Temperatur (sekundär) aus einer spezifischen Strahlungsleistung (primär) stellt aber eine Inversion des Stefan-Boltzmann-Gesetzes dar, welche nur zulässig ist, wenn alle Randbedingungen, des S-B-Gesetzes streng erfüllt sind. Da diese die aber nicht per se erfüllt werden, ist eine Inversion des S-B Gesetzes immer nur in physikalisch wohl definierten Fällen zulässig.

Stefan-Boltzmann-Inversion: Spezifische Strahlungsleistung (primär) => Temperatur (sekundär)

Also kann durch die Sonneneinstrahlung nur dort eine Temperatur erzeugt werden, wo die Sonne auch scheint. Genau deshalb fahren so viele Urlauber aus dem Norden in den sonnigen Süden, wo sie sich tagsüber – und nicht nachts – zum Anbräunen in die Sonne legen. Vielleicht vergleichen Sie einfach mal die Zeit, die Sie sich je nach Tageszeit und Ortslage ungeschützt der Sonnenstrahlung aussetzen können, ohne einen Sonnenbrand zu riskieren. Sie werden feststellen, dass es sowohl eine Abhängigkeit von der Tageszeit als auch eine Abhängigkeit von der geographischen Breite gibt. Nur nachts können Sie keinen Sonnenbrand bekommen, es sei denn, der Timer in Ihrem Sonnenstudio ist defekt.

Die Einbeziehung unbestrahlter Flächen (Nachtseite der Erde) in eine S-B-Inversion gehört damit in das Reich der MINT-fernen Sagen und Märchen.

Jetzt wird auch ganz offensichtlich, dass die Gleichung aus dem oben zitierten Kommentar in Zusammenhang mit dem S-B-Gesetz keinerlei tieferen physikalischen Sinn ergibt, weil dort schon mal die spezifische Strahlungsleistung in [W/m²] fehlt. Die Formel „(A/2) * P * t = A * (P/2) * t“ verknüpft vielmehr eine Fläche „A“ in [m²] und eine Strahlungsleistung „P“ in [W] mit der Zeit „t“ in [s]. Damit ergeben sich auf beiden Seiten des Gleichheitszeichens gleiche Beträge für eine „Wärmemenge mal Fläche“ in [Joule mal Quadratmetern]. Und was das nun physikalisch mit dem Stefan-Boltzmann-Gesetz zu tun haben soll, weiß wohl nur der freundliche Kommentator. Aus unerfindlichen Gründen muss diese postphysikalische Gleichung dann als Beweis für eine „theoretische Globaltemperatur“ von (-18°C) herhalten. Aber immerhin kann man, analog zur obigen Schwarzkörper-Abbildung, aus dieser eigenartigen Formel jeweils rechts und links des Gleichheitszeichens eine spezifische Strahlungsleistung für die Taghemisphäre und die ganze Erde ableiten:

Hemisphäre: Fläche = (A/2) Strahlungsleistung = P Spezifische Strahlungsleistung = (2P/A)

Ganze Erde: Fläche = A Strahlungsleistung = (P/2) Spezifische Strahlungsleistung = (P/2A)

Und diesen höchst unterschiedlichen Durchschnittswerten steht nun wiederum die klimareligiöse Glaubensformel gegenüber, Zitat, „Es sollte wieder offensichtlich sein, dass das beides gleich ist“…

Wie wir gesehen haben, ist also lediglich die spezifische Strahlungsleistung „S“ über das Stefan-Boltzmann-Gesetz eindeutig mit der Temperatur „T“ eines Körpers verknüpft. Das Stefan-Boltzmann-Gesetz kann also nicht als Begründung dafür herhalten, die Solarkonstante (S0=1.367 W/m²) einfach mal so eben über die gesamte Erdoberfläche und den 24h-Tag zu mitteln. Denn schließlich gibt es auf der Erde Tag und Nacht, deshalb also auf der einen – bestrahlten – Hälfte der Erde eine spezifische solare Strahlungsleistung, und auf der anderen Hälfte ist es dunkel. Man kann die eingestrahlte spezifische Strahlungsleistung auf der Tagseite auch nicht über den 24h-Tag als Wärmemenge „speichern“ und dann durch eine willkürliche Berechnung in eine spezifische „globale“ Strahlungsleistung zurückverwandeln. Das Dumme an einer solchen Durchschnittsberechnung über die Zeit ist nämlich, dass eine Wärmemenge in „Joule“ keinerlei „Erinnerung“ daran hat, auf wie vielen Sekunden mit welcher spezifischen Strahlungsleistung sie eigentlich beruht. Also könnte eine solche Wärmemenge auch sonst woher kommen:

0,1Sonnen(@136,7W/m²*(1-ALBEDO))*240h

= 1Sonne(@1.367W/m²*(1-ALBEDO))*24h

= 10Sonnen(@13.670W/m²*(1-ALBEDO))*2h24min

= 100Sonnen(@136.700W/m²*(1-ALBEDO))*14min24sec

Ein globaler Durchschnittswert für die solare Einstrahlung über 24 Stunden sagt also physikalisch gar nichts aus. Denn man kann aus einem „kochenden Suppentopf“ die ursächliche spezifische Strahlungsleistung nicht mehr physikalisch eineindeutig rekonstruieren. Aber selbstverständlich kennen die Vertreter von „Mittelerde“ die zugehörige terrestrische Ausgangssituation und berechnen daher aus dieser Wärmemenge ihre willkürlich passende „spezifische“ globale Strahlungsleistung. Eine solche Rückrechnung ist aber reine Mathematik, die gar kein physikalisch korrektes Temperaturäquivalent für das Stefan-Boltzmann-Gesetz liefern kann. Alle oben aufgeführten Beispiele für 0,1 bis 100 Sonnen liefern physikalisch gleichwertige Wärmemengen, sind aber über unterschiedliche Zeiträume durch unterschiedliche spezifische Strahlungsleistungen erzeugt worden. Und nur die originäre spezifische Strahlungsleistung der Sonne auf der Tagseite der Erde ergibt über das Stefan-Boltzmann-Gesetz ein physikalisch korrektes Temperaturäquivalent für eine individuelle Ortslage.

Wir müssen für eine solche 24-Stunden-Betrachtung also das örtliche Maximum der spezifischen solaren Strahlungsleistung auf der gesamten Erdoberfläche ermitteln, wie die nachfolgende Abbildung auf Grundlage einer Mollweide Projektion zeigt:

Abbildung: Die maximale breitenabhängige temperaturwirksame solare Strahlungsleistung (links) und das resultierende S-B-Temperaturäquivalent (rechts) über einen 24-Stunden-Tag im Äquinoktium für das „Mittelerde“-Modell:

Linke Skala: MAX (Si) @24h-Tag mit (Si = 1.367W/m²* (1-ALBEDO) * cos PHIi)

und (PHIi = örtlicher Zenitwinkel)

Rechte Skala: Maximales örtliches S-B-Temperazuräquivalent( SBTi) zu MAX (Si)

Mit farblich unterlegter Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)

Aus dieser Abbildung wird sofort deutlich, dass die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne im Tagesverlauf bei gleicher geographischer Breite immer denselben Maximalwert und damit auch immer dasselbe maximale örtliche S-B-Temperauräquivalent ergibt. Im Tagesverlauf wird also zwischen 75 Grad N und S (mit jeweils 243 W/m²) und dem Äquator (mit 940 W/m²) die global gemittelte temperaturwirksame spezifische „Mittelerde“-Strahlungsleistung von 235 W/m² ( -18°C) weit übertroffen. Damit ist bewiesen, dass die täglich durch Sonneneinstrahlung überall auf der Erde zwischen 75°N und 75°S erzeugten Temperaturen keinerlei zusätzlichen „natürlichen atmosphärischen Treibhauseffekt“ benötigen, um die gemessenen Ortstemperatur zu erklären.

Im Gegenteil wird das maximale S-B-Temperaturäquivalent auf unserer Erde aufgrund von Konvektion und Verdunstung in der Realität niemals erreicht; umgekehrt wird aber der nächtliche Temperaturabfall durch Kondensation und Advektion abgemildert und erreicht niemals den Absoluten Nullpunkt. Letzteres gilt übrigens auch für das Strahlungsdefizit in mittleren und höheren Breiten der jeweiligen Winterhemisphäre, dazu nachfolgend ein Beispiel für Potsdam:

Abbildung: Jahresverlauf der Temperatur am Beispiel Potsdam:

Links: Treppenkurve: Maximale monatliche Bodentemperatur in Potsdam

Blau gestrichelt: Maximales jahreszeitliches S-B-Temperaturäquivalent

Rechts: Differenz zwischen der maximalen monatliche Bodentemperatur in Potsdam und dem maximalen örtlichen S-B-Temperaturäquivalent

Rote Kurve: Trendlinie für die Differenz (schwarze Zackenkurve) zwischen maximaler monatlicher Bodentemperatur und dem maximalen örtlichen S-B-Temperaturäquivalent in Potsdam

Rot schraffiert: Zufluss von Wärme im Winterhalbjahr

Blau schraffiert: Abfluss von Wärme im Sommerhalbjahr

Im Sommerhalbjahr fließt also Wärmeenergie in die globalen Wärmespeicher und im Winterhalbjahr wird die Ortstemperatur durch einen Wärmezufluss aus diesen Wärmespeichern gestützt. Und deshalb müssen Atmosphäre und Ozeane als „globale Wärmespeicher“ zwingend in die Bestimmung einer „natürlichen Temperatur“ unserer Erde einbezogen werden.

2 Scrutinizing the atmospheric greenhouse effect and its climatic impact, Natural Science 2011




HADCRU Energie und Temperatur

Um die Größenordnung des Treibhauseffektes zu berechnen, wird die einfallende und ausgehende Strahlung üblicherweise verglichen mit den Strahlungsemissionen der Erde mit ihrer gemittelten Temperatur von 14°C bis 15°C. Diese geht auf den Datensatz der absoluten Temperatur der HADCRU-Version 4 1961 bis 1990 zurück. Mittels der Planck-Funktion oder des ähnlichen Stefan-Boltzmann-Gesetzes (siehe Gleichung 1) kann die von der Erde emittierte Strahlung aus deren Temperatur T berechnet werden unter der Annahme, dass sich die Erde wie ein Schwarzkörper verhält. Normalerweise wird die Strahlungsberechnung durchgeführt unter der Annahme einer Emissivität (e) von 1. Dies bedeutet, dass die Erde ein perfekter Schwarzkörper ist, der genauso viel Energie emittiert wie er empfängt. Das verwendete Gebiet beträgt 1 Quadratmeter, so dass das Ergebnis in Watt/m² vorliegt. Mittels dieser Annahmen ergibt die Berechnung, dass die Erde etwa 390 W/m² emittiert bei einer Temperatur von 288 K (Kiehl and Trenberth, 1997).

Gleichung 1 (Quelle)

Wenn er auf diese Weise berechnet wird, zeigt der Treibhauseffekt (GHE) ein Ungleichgewicht von 390 – 239 = 151 W/m². Kiehl und Trenberth 1997 berechneten einen ähnlichen Gesamtantrieb von 155 W/m² mittels des gleichen Verfahrens. Die GHE-Berechnung erfolgt unter vielen Annahmen, von denen nicht die Geringste die Annahme ist, dass die Erde eine Emissivität von 1 aufweist und ein Schwarzkörper ist. Aber hier wollen wir das Problem der Verwendung einer globalen mittleren Temperatur T der Erde in Betracht ziehen, welche eine rotierende Kugel ist, wobei zu jeder Zeit nur die Hälfte dieser Sphäre der Sonne zugewandt ist.

Ein spezifisches Problem ist, dass die Erde eben keine gleichmäßige globale Temperatur aufweist. Falls man diese mit 288 K annimmt, dann wird es Stellen auf dem Planeten geben, welche genau diese Temperatur aufweisen, und diese Stellen werden in etwa 390 W/m² emittieren. Aber auf dem allergrößten Teil des Planeten wird die Temperatur eine andere sein und Energie proportional zu T4 emittieren. Das Mittel der Temperatur zur vierten Potenz ist nicht das gleiche wie das Mittel von T4. Dies ist einfache Hochschul-Algebra, und wie groß wird die Differenz dadurch wohl sein?

Um dies zu beantworten, wenden wir uns jetzt der Version 4 des globalen Temperatur-Datensatzes der Hadley Climate Research Unit (HADCRU) zu. Wir ziehen deren Version 4 mit der Referenzperiode 1961 bis 1990 heran sowie deren Temperaturanomalie-Datensatz von 1850 bis 2017. Die Konstruktion der Referenzperiode und der Anomalie-Datensätze wird von Jones et al. (2012) beschrieben. Da die Reihen der Temperaturanomalien Anomalien jeder Reihe im Vergleich zur Periode 1961 bis 1990 sind, sollten wir in der Lage sein, die Referenztemperatur der Reihen zu nutzen, um die Anomalien in absolute  Temperaturwerte umzuwandeln. In beiden Fällen handelt es sich um Datensätze mit Gitterpunkten von 5° zu 5°. Anomalien werden für jede Station berechnet, um Probleme wegen der unterschiedlichen Seehöhen zu vermeiden. Das wird vor dem Anbringen des Gitternetzes gemacht. Addiert man folglich die Referenztemperatur zu der Anomalie, erhält man nicht die Original-Messungen. Auf der Website von HADCRU heißt es dazu:

Festlandsstationen befinden sich in unterschiedlichen Höhen (bezogen auf NN), und verschiedene Länder messen mittlere monatliche Temperaturen mittels verschiedener Verfahren und Formeln. Um Verzerrungen aufgrund dieser Probleme zu vermeiden, werden die monatlichen mittleren Temperaturen reduziert auf Anomalien hinsichtlich der Referenzperiode mit der besten Abdeckung (1961 bis 1990). Für die herangezogenen Stationen muss ein Mittelwert der Referenzperiode berechnet werden. Weil die Messreihe vieler Stationen von 1961 bis 1990 nicht vollständig sind, kamen verschiedene Verfahren zur Anwendung, um Mittelwerte 1961 bis 1990 aus benachbarten Stationen oder anderen Datenquellen zu erhalten (mehr dazu bei Jones et al., 2012). Über den Ozeanen, wo Beobachtungen allgemein von mobilen Plattformen erfolgen, ist es unmöglich, lange Temperaturreihen für bestimmte feste Punkte zu erhalten. Allerdings kann man historische Daten extrapolieren, um räumlich vollständige Referenzwerte (Mittelwerte 1961 bis 1990) zu erstellen, so dass individuelle Beobachtungen verglichen werden können mit dem lokalen Normalwert für den gegebenen Tag des Jahres (Weiteres dazu bei Kennedy et al., 2011).

Es ist möglich, absolute Temperaturreihen für jedes gewählte Gebiet zu erhalten mittels Daten des absoluten Datensatzes und diese dann zum regionalen Mittel zu addieren, welches aus den genetzten [gridded] Daten berechnet worden ist. Falls beispielsweise ein regionales Mittel angefordert wird, sollten die Nutzer eine regionale Zeitreihe mittlerer Anomalien berechnen und dann die Werte im absoluten Datensatz für das gleiche Gebiet mitteln und diesen Wert schließlich zu jedem Wert in der Zeitreihe addieren. Man addiere NICHT die absoluten Werte zu jeder Gitterbox in jedem monatlichen Bereich, um danach großräumige Mittelwerte zu berechnen.

Übrigens ist dieses NICHT ( Im Original „NOT“, Anmerkung des Übersetzers) auf der Website selbst in Großbuchstaben zu finden, das habe ich nicht verändert. Ich hatte vor, die Gitter-Temperatur 1961 bis 1990 zu der Gitter-Anomalie zu addieren und eine angenäherte tatsächliche Temperatur zu erhalten, aber sie sagen, man solle das „NICHT“ tun. Warum sagt man dem Leser, dass man die absoluten gemittelten Referenz-Temperaturen zu den gemittelten Anomalien addieren kann, und sagt ihn danach explizit, nicht die absolute Gitter-Temperatur zu einer Gitter-Anomalie zu addieren? Jede Anomalie-Reihe muss auf ihr eigenes Mittel 1961 bis 1990 bezogen werden. Warum spielt es dann eine Rolle, dass wir die Anomalien und dann die Referenztemperaturen separat mitteln, bevor man beide addiert? Also war natürlich das Erste, was ich machte, die absoluten Gitterwerte 1961 bis 1990 zu den Anomalie-Gitterwerten zu addieren, und zwar für die gesamte Erde von 1880 bis 2016, also genau das, was ich laut Instruktion „NICHT“ tun sollte. Das absolute Temperaturgitter ist vollständig ohne fehlende Werte. Die Jahr-für-Jahr-Gitter weisen viele fehlende Werte auf, und die gleichen Gitterquadrate sind nicht in jedem Jahr gleich belegt. Es stellt sich heraus, dass dies genau das Problem ist, auf welches HADCRU mit diesem Zitat hinweist.

Abbildung 1 zeigt die globalen mittleren Temperaturen von 1880 bis 2016, berechnet nach den Vorgaben vom HADCRU. Zuerst habe ich die Anomalien eines jeden Jahres gemittelt und gewichtet nach dem Kosinus der Breite, weil es sich um ein 5° X 5°-Gitter handelt und die Fläche jedes Gitterquadrates vom Äquator zu den Polen mit dem Kosinus der Breite abnimmt. Dann habe ich die globale Mitteltemperatur 1961 bis 1990 zur mittleren Anomalie addiert. Während das Referenztemperatur-Gitter vollständig mit absoluten Temperaturen angefüllt ist, ist dies bei den jährlichen Anomalie-Gittern nicht der Fall. Außerdem wechseln die vollständig abgedeckten Gitterquadrate von Jahr zu Jahr. Dieses Verfahren vermischt eine Berechnung eines vollständig ausgefüllten Gitterquadrates mit einer Berechnung eines Gitterquadrates mit nur wenigen Werten.

Abbildung 1: Mittelung der Anomalien mit nachfolgender Addition zur mittleren globalen Temperatur 1961 bis 1990.

Wenn man das so macht, wie man uns explizit sagt es nicht zu machen, erhalten wir Abbildung 2. Darin addierte ich die geeignete absolute Gitterquadrat-Mitteltemperatur zu jedem abgedeckten Gitterquadrat für jedes Jahr, um ein Netz mit absoluten Temperaturen zu erhalten und dieses dann zu mitteln unter Nichtbeachtung der Gitterquadrate ohne Werte. In diesem Prozess passt das Gitter der absoluten Temperaturen zum Anomalie-Gitter.

Abbildung 2: Umwandlung jeder Gitterzelle in tatsächlich Temperatur mit nachfolgender Mittelung

Der Unterschied zwischen den Abbildungen 1 und 2 wird am augenfälligsten vor dem Jahr 1950. Nach 1950 ist der untere Plot ein paar Zehntelgrad niedriger, aber der Trend ist der gleiche. Mit perfekten Daten sollten beide Plots gleich sein. Jede Zeitreihe wird konvertiert in eine Anomalie unter Verwendung der eigenen Daten 1961 bis 1990. Multiple Reihen in jedem Gitterquadrat werden zusammengeführt mittels direkter Mittelwerte [straight averages]. Aber – die Daten sind eben nicht perfekt. Gitterquadrate weisen in einem Jahr viele Messungen auf, in anderen gar keine. Vor 1950 ging die Abdeckung auf der Nordhemisphäre nie über 40% hinaus, auf der Südhemisphäre nie über 20%. Angesichts der großen Differenz zwischen den Abbildungen 1 und 2 ist nicht klar, ob die Daten vor 1950 robust sind. Oder klarer ausgedrückt, die Daten vor 1950 sind nicht robust. Ebenfalls ist unklar, warum die Periode 1950 bis 2016 in Abbildung 2 um 0,2°C bis 0,3°C kühler ist als in Abbildung 1. Ich kratze mich immer noch am Kopf ob dieses Phänomens.

Das HADCRU-Verfahren zur Berechnung globaler Temperaturen

Das Verfahren zur Berechnung der Gitterquadrat-Temperaturen von HADCRU Version 4 wird auf deren Website so beschrieben:

Dies bedeutet, dass es 100 Angaben für jedes Gitterquadrat gibt, um die möglichen Annahmen abzuklopfen, welche in der Struktur der verschiedenen Komponenten des Fehlers involviert sind (siehe die Diskussion bei Morice et al., 2012). Alle 100 Angaben sind auf der Site des Hadley Centers verfügbar, aber wir haben hier das Ensemble-Mittel gewählt. Für die genetzten Daten ist dies das Ensemble-Mittel, separat berechnet für jede Gitterzelle und für jeden Zeitschritt der 100 Angaben. Für die hemisphärischen und globalen Mittelwerte ist dies wiederum der Median für die 100 Angaben. Der Median der genetzten Reihen wird nicht den Median der hemisphärischen und globalen Mittelwerte erzeugen, aber die Differenzen werden klein sein.

Folglich ist die globale Mitteltemperatur nach HADCRU Version 4 nicht ein wahres Mittel. Stattdessen ist es der Median-Wert der 100 statistischen Angaben für jede mit Messungen abgedeckte Gitterzelle und beide Hemisphären. Jede Temperaturmessung enthält Fehler und ist dadurch unsicher (Details dazu z.B. hier und hier). Das von HADCRU erzeugte 5° X 5°-Gitternetz enthält für ein Kalenderjahr mit 12 Monaten 31.104 Gitterzellen. Die meisten davon weisen keine Werte auf. Abbildung 3 zeigt die Anzahl dieser Zellen mit Null (ohne Werte) Jahr für Jahr von 1880 bis 2016.

Abbildung 3. Datenquelle

Wie man sieht, gibt es aus den meisten Zellen keine Daten, nicht einmal während der letzten Jahre. In Abbildung 4 erkennt man die Verteilung der Gitterquadrate mit Messpunkten. Die Zellen mit adäquaten Daten sind gefärbt, jene mit unzureichenden Daten bleiben weiß. Die Abdeckung auf der Nordhemisphäre von 1960 bis 1990 liegt bei nahe 50%, die Abdeckung auf der Südhemisphäre im gleichen Zeitraum geht nie über 25% hinaus.

Abbildung 4. Quelle: Jones, et al., 2012

Die Daten sind also spärlich, und die meisten Daten stammen von der Nordhemisphäre und hier vom Festland. An beiden Polen gibt es kaum Daten. Also hat HADCRU zwei Probleme: erstens die Mess-Ungenauigkeit und zweitens, wie man mit der spärlichen und ungleichmäßigen Verteilung der Daten umgeht. Der Mess-Ungenauigkeit wird begegnet, indem gefordert wird, dass jede Gitterzelle eine ausreichende Anzahl von Stationen enthält, die über das betrachtete Jahr Meldungen absetzen. Da der Referenzzeitraum die Jahre 1961 bis 1990 sind, sind auch ausreichend Messungen über diesen Zeitraum erforderlich. Allgemein wird verlangt, dass die Stationen mindestens 14 Jahre lang Daten liefern zwischen 1961 und 1990. Stationen außerhalb von fünf Standardabweichungen des Netzes werden aussortiert [Stations that fall outside five standard deviations of the grid mean are excluded].

Die monatlichen Netze sind nicht umrissen, um die fehlenden Netz-Werte zu ergänzen, wie man erwarten könnte. Ist die mittlere Temperatur für jede Gitterzelle erst einmal mit ausreichend Daten berechnet, werden die durch Meldungen repräsentierten Gitterzellen Kosinus-gewichtet und gemittelt. Siehe Gleichung 9 in Morice, et al., 2012. Das Gebiet variiert so wie der Kosinus der Breite, also werden die Gitterzellen hiermit gewichtet. Die gewichteten Gitterwerte werden für jede Hemisphäre aufsummiert, und aus diesen Ergebnissen der beiden Hemisphären wird eine globale mittlere Temperatur gemittelt. Jahreszeitliche und jährliche Mittel sind aus monatlichen Gitterwerten abgeleitet.

Die meisten mit Messpunkten gefüllten Gitterzellen befinden sich auf dem Festland, weil wir hier leben; und doch sind 71% er Erdoberfläche von Ozeanen bedeckt. Gegenwärtig ist das kein Problem, weil wir Satellitenmessungen der Wassertemperatur und der Lufttemperatur über der Wasseroberfläche haben. Zusätzlich gibt es Netz aus ARGO-Bojen, welches hoch qualitative Ozeantemperaturen liefert. Aber historisch war das ein großes Problem, weil alle Messungen ausschließlich von Schiffen kommen mussten (die ich überdies zu ca. 90 % auf die Hauptschifffahrtslinien beschränkten..Anm. der Redaktion). Der entscheidende HADSST3-Datensatz für die Abschätzung der Ozeantemperatur wird beschrieben von Morice, et al., 2012. Eine ausführlichere Beschreibung der Probleme bei der Abschätzung historischer Wassertemperaturen in ozeanischen Gitterzellen gibt es bei Farmer, et al., 1989. Die Daten vor 1979 stammen aus dem in Schiffe einströmenden Kühlwasser, Treibbojen und Eimermessungen von Wasser neben den Schiffe. Diese Quellen sind mobil und anfällig für Fehler. Die Durchmischungs-Schicht der Ozeane ist im Mittel 59 Meter dick (JAMSTEC MILA GPV data). Mehr zu den JAMSTEC- Wassertemperaturdaten gibt es hier. Die Durchmischungsschicht der Ozeane ist diejenige Schicht, die sich zumeist im Gleichgewicht mit der Atmosphäre befindet. Diese Schicht weist 22,7 mal die Wärmekapazität der gesamten Atmosphäre auf und bewirkt einen merklichen Einfluss auf die Temperaturen der Atmosphäre. Sie wird auch beeinflusst durch die kühleren, tieferen Ozeanschichten, welche sie durch Aufwallen und Absinken beeinflussen können (hier).

Meine Berechnungen

Ich begann mit den Referenztemperaturdaten der Periode 1961 bis 1990, „Absolut“ genannt und hier zu finden. Dies ist eine Reihe von 5° X 5° globale Temperaturgitter für den Referenzzeitraum. Anders als die Anomalie-Datensätze sind diese Netze vollständig mit Meldungen besetzt und enthalten keine Null-Werte. Wie der Absolut-Datensatz besetzt war, wird erklärt von Jones, et al., 2012. Abbildung 5 zeigt die Karte des mittleren Absolut-Temperaturnetzes.

Abbildung 5: Karte der „Absolut“-Daten (Datenquelle: HADCRU)

Ich wendete das gleiche Verfahren an wie HADCRU. Zuerst las ich das Absolut-Netz, es enthält eine Anordnung, welche dimensioniert ist mit 72 Längengrad-Segmenten (5°), 36 Breitengrad-Segmenten und 12 Monaten oder ein Jahr. Als nächstes unterteilte ich das globale Anomalie-Netz von HADCRU4 Jahr für Jahr, mittelte die Zellen mit Messungen und addierte dann das mittlere Absolut der Temperatur von 1961 bis 1990 zur mittleren Anomalie. Die Ergebnisse zeigt Abbildung 1. Wie oben beschrieben, habe ich auch einige Zeit aufgewendet, genau das zu tun, was NICHT zu tun auf der HADCRU-Website empfohlen worden ist. Dieses Ergebnis zeigt Abbildung 2.

Die HADCRU-Daten reichen zurück bis zum Jahr 1850, aber es gibt kaum globale Daten vor 1880, und viele davon stammen aus der offenen Atmosphäre. Schutzfolien zur Abschirmung der Thermometer vor direktem Sonnenlicht waren bis 1880 kaum in Gebrauch, was die Qualität der frühen Daten beeinträchtigte. Also zog ich nur die Daten von 1880 bis 2016 heran.

Das Überraschende an der Graphik in Abbildung 2 ist, dass die Temperaturen von 1890 bis 1950 höher lagen als jede andere Temperatur seitdem. Man betrachte Abbildung 3 bzgl. der Anzahl von Null-Werten. Es gibt insgesamt 31.104 Zellen, die maximale mit Messungen angefüllte Zahl beträgt rund 11.209 im Jahre 1969 oder 35%. Abbildung 6 ist invers die Abbildung 3 und zeigt die Anzahl der mit Messungen gefüllten Zellen für jedes Jahr.

Abbildung 6.

Geht die höhere Temperatur von 1890 bis 1950 in Abbildung 2 nur auf die geringe Zahl von Messungen enthaltenden Zellen zurück? Oder liegt es an der ungleichen Verteilung dieser Zellen? Es gibt einen plötzlichen Sprung der Anzahl mit Messungen belegter Zellen um das Jahr 1950, welcher zusammenfällt mit einem anomalen Temperaturabfall – was ist der Grund dafür? Geht es auf einen Rechenfehler in meinen Berechnungen zurück? Falls mir tatsächlich ein Fehler unterlaufen ist (was immer möglich ist), dann bin ich sicher, dass jemand den Fehler finden und mir mitteilen wird. Ich habe meine Berechnungen wieder und immer wieder überprüft und halte sie für korrekt. Ich habe die einschlägigen Studien gelesen und kann keine Erklärung für diese Anomalien finden. Alle Daten und der R-Code können hier heruntergeladen werden. Erfahrene R-Nutzer werden keine Probleme haben, die zip-Datei enthält den Code sowie alle eingehenden Datensätze und eine tabellarische Zusammenfassung des Outputs.

Energie und Temperatur

Ausschlaggebender Grund für diese Studie war es zu erkennen, welchen Unterschied die rechenbetonte Sequenz bei der Berechnung der Energie-Emissionen von der Erde ausmacht. Das heißt, nehmen wir die vierte Potenz einer mittleren Temperatur, wie es Kiehl und Trenberth 1997 gemacht haben? Oder nehmen wir jede Temperatur einer Gitterzelle zur vierten Potenz und mitteln dann die Stefan-Boltzmann (SB)-Energiegleichung aus Gleichung 1? Das Mittel der HADCRU-Temperaturen des Jahres 2016 beträgt 15,1°C. Die mit dieser Temperatur (288 K) berechneten SB-Energieemissionen sind die 391 W/m², welche allgemein in der Literatur genannt werden. Falls wir die SB-Emissionen aller belegten HADCRU-Gitterzellen für das Jahr 2016 berechnen und diese nach Gebiet gewichtet mitteln, erhalten wir 379 W/m². Dies ist eine geringe Differenz, solange wir nicht diese Differenz vergleichen mit der geschätzten Differenz, welche zunehmendes CO2 haben könnte. Im IPCC-Zustandsbericht 5 zeigt Abbildung SPM.5 (hier in der dritten Abbildung), dass die Gesamtauswirkung der menschlichen CO2-Emissionen seit 1750 2,29 W/m² ausmachten, also viel weniger als die Differenz zwischen den beiden Berechnungen der Emissionen der Erde.

Der Vergleich wird noch schlechter, wenn wir ihn im zeitlichen Verlauf betrachten. Abbildung 7 zeigt die Berechnung der Energie-Emissionen bei einer globalen mittleren Temperatur oder (Mean T)4. Abbildung 8 zeigt die Berechnung durchgeführt für jede einzelne Gitterzelle in jeder mit Messungen belegten Zelle mit nachfolgender Mittelung oder (Mean T4).

Abbildung 7

Abbildung 8

Es scheint wahrscheinlich, dass die Differenzen von 1880 bis 1950 bezogen sind auf die Anzahl Messungen enthaltender Zellen sowie deren Verteilung, aber dies ist zum jetzigen Zeitpunkt Spekulation. Man muss sich Fragen stellen hinsichtlich der Genauigkeit dieser Daten. Der Vergleich seit 1950 ist O.K. außer für die algebraische Differenz, die sich ergibt, wenn man erst die Temperatur mittelt und dann den Mittelwert zur vierten Potenz erhebt, oder wenn man erst jede Temperatur zur vierten Potenz nimmt und dann die Energie mittelt. Von 1950 bis 2014 beträgt diese Differenz im Mittel 13 W/m².

Diskussion und Schlussfolgerungen

Ich stelle die von HADCRU getroffene Wahl nicht in Frage, 100 statistische Realisationen jeder Gitterzelle zu erzeugen und dann den mittleren Gesamtwert heranzuziehen, gewichtet nach dem Kosinus der Breite, als die mittlere Temperatur für jede Hemisphäre und dann die Hemisphären zu kombinieren. Das ist ein vernünftiges Verfahren, aber warum unterscheidet sich dieses Ergebnis von einem direkten gewichteten Mittel der mit Messungen belegten Gitterzellen? Meiner Ansicht nach sollte jedwedes statistische Ergebnis zu dem einfachen statistischen Ergebnis passen, oder die Differenz muss erklärt werden. Der Vergleich zwischen den beiden Verfahren für den Zeitraum 1950 bis 2016 ist O.K., obwohl das HADCRU-Verfahren zu einer verdächtig höheren Temperatur führt. Ich vermute, dass die Daten von 1950 bis 2016 viel robuster sind als die Daten davor. Ich würde jedwede Schlussfolgerung bezweifeln, welche von früheren Daten abhängig ist.

Deren geforderte Berechnung ist ein wenig verstörend. Es verlangt die Mittelung in einem kaum belegten Anomalie-Netz, dann die Mittelung eines vollständig belegten absoluten Temperatur-Netzes mit nachfolgender Summierung der beiden Mittelwerte. Dann instruiert man uns explizit, nicht die gleiche Belegung von Gitterzellen (Anomalie und Absolut) zu wählen, diese zu summieren und zu mitteln. Und doch summiert Letzteres Äpfel und Äpfel.

Schließlich ist es sehr klar, dass die Anwendung der SB-Gleichung zur Berechnung der Energie-Emissionen der Erde mit einer geschätzten globalen Mitteltemperatur falsch ist. So wurden die Emissionen in Abbildung 7 berechnet. Wenn wir die SB-Emissionen berechnen aus jeder belegten HADCRU-Gitterzelle und dann das Ergebnis mitteln, was laut Grundlagen-Algebra der richtige Weg ist, erhalten wir das Ergebnis in Abbildung 8. Vergleicht man beide Ergebnisse, zeigt sich, dass es erhebliche Probleme mit den Daten vor 1950 gibt. Ist dies die Anzahl der Null-Gitterzellen? Ist es die räumliche Verteilung belegter Gitterzellen? Ist es ein Problem der geschätzten Wassertemperaturen? Oder vielleicht ein anderer Komplex von Problemen? Schwer zu sagen, aber es ist schwierig, den früheren Daten zu vertrauen.

Wir versuchen, die Auswirkungen von steigendem CO2 zu bestimmen. Dies führt zu einem geschätzten „Forcing“ von etwa 2 W/m². Auch wollen wir wissen, ob die Temperatur während der letzten 140 Jahre um 1°C gestiegen ist Sind diese Daten genau genug, um sogar diese Auswirkungen aufzulösen? Das scheint mir nicht eindeutig.

Der R-Code und die Daten zur Erstellung der Abbildungen in diesem Beitrag können hier heruntergeladen werden.

Link: https://wattsupwiththat.com/2017/09/09/hadcru-power-and-temperature/

Übersetzt von Chris Frey EIKE




Beweist die Temperatur des Mondes den hemisphärischen Stefan-Boltzmann Ansatz?

Uli Weber

Die Fragen in meinem Artikel auf EIKE, „Noch ein paar Fragen zum „natürlichen“ atmosphärischen Treibhauseffekt“, wurden zwar nicht beantwortet, aber dafür wurde der Artikel wieder einmal sehr kontrovers diskutiert. Ich nehme den dankenswerten Vorschlag eines Kommentators daher diesmal gerne auf, um ihn einmal über die tatsächlichen physikalischen Grundlagen aufzuklären. Denn eine solche Darstellung grundlegender physikalischer Zusammenhänge könnte schließlich auch noch weiteren Kommentatoren aufs Pferd helfen.

Also schaunmerdiesmal bitte ganz konzentriert hin:

Das Stefan-Boltzmann-Gesetz ist keine simple Rechenanleitung, sondern ein physikalisches Gesetz. Und das dort enthaltene Gleichheitszeichen ist kein mathematisches Gleichheitszeichen, sondern eine zwingende physikalische Bedingung.
Man kann dieses Gesetz also nicht einfach als mathematische Formel missbrauchen, um beliebige Durchschnittstemperaturen in irgendeine Strahlungsleistung umzurechnen oder umgekehrt. Vielmehr ist nach diesem Gesetz eine ganz konkrete Temperatur ganz ausschließlich einem bestimmten Strahlungswert zugeordnet. Und das Gleichheitszeichen zwischen Strahlung und Temperatur steht als zwingende Bedingung dieses Gesetzes für ein gemeinsames thermisches Gleichgewicht genau zwischen diesen beiden physikalischen Größen.

Das bedeutet, das Gleichheitszeichen im Stefan-Boltzmann-Gesetz bezieht sich auf einen gleichzeitigen Zusammenhang zwischen Strahlung und Temperatur, nämlich Temperatur erzeugt Strahlung oder Strahlung erzeugt Temperatur, und zwar jetzt, hier, in diesem Augenblick – und nicht erst später auf der Nachtseite der Erde. Und genau deshalb heißt dieser physikalische Zusammenhang ja auch Stefan-Boltzmann-Gesetz und nicht etwa Stefan-Boltzmann-Gleichung.

Die geometrischen Verhältnisse für die Sonneneinstrahlung auf unserer Erde sind eigentlich ganz einfach zu verstehen (beide nachfolgenden Abbildungen aus meinem neuen Buch „Klima-Mord“):

Das Sonnenlicht trifft praktisch als ebene Wellenfront auf die Atmosphäre unserer Erde. Daraus ergeben sich dann die nachfolgend dargestellten geometrischen Verhältnisse:

  • Die Strahlung der Sonne trifft mit einer Kreisfläche von (pR²) auf die Erde,
  • Diese Strahlung verteilt sich auf der Tagseite der Erde, also auf einer Halbkugel mit (2pR²)
  • Die Gesamtfläche der Erde ist eine Kugeloberfläche mit (4pR²)

Die beteiligen Flächen haben also das Verhältnis von 1 : 2 : 4.

Wie wir in der Erklärung des Stefan-Boltzmann-Gesetzes gesehen haben, kann man nach diesem Gesetz nur diejenigen Größen ins Verhältnis setzen, die direkt in einem gleichzeitigen thermischen Verhältnis miteinander stehen. Gleichzeitig beteiligt an der Temperaturgenese auf unserer Erde sind aber ausschließlich die einfallende Sonnenstrahlung mit (pR²) und die Tagseite der Erde mit (2pR²). Für die ursprüngliche Sonneneinstrahlung von 1.367 [W/m²] ergibt sich daher der Divisor 2 für den Strahlungsdurchschnitt auf der Tagseite der Erde.

Hier auf der Tagseite der Erde, und nur hier, gilt das Stefan-Boltzmann-Gesetz. Die Nachtseite der Erde hat mit der S-B Gleichgewichtstemperatur auf der Tagseite überhaupt nichts zu tun, weil sie ja keine temperaturgenerierende Sonnenstrahlung erhält.

Und jetzt widmen wir uns einmal dem Mond, der ja argumentativ immer wieder gerne als ein Beispiel für einen idealen atmosphärelosen Schwarzkörper herangezogen wird und, im Vergleich zur Erde, auch als Beweis für den „natürlichen“ atmosphärischen Treibhauseffekt herhalten muss. Ich zitiere einen Kommentar zu meinem Artikel auf EIKE:

Die Apollo 15 Landestelle hat eine ungefähre Durchschnittstemperatur von 252 K, Tmassah, das auf ähnlicher Breite, aber auf der Erde (Sahara) liegt, hat 295 K Durchschnittstemperatur.

Macht einen „Atmosphäreneffekt“ vom 43K. Oder liege ich mit meinem Ansatz falsch?

Meine Antwort: Ja, Sie machen da etwas grundsätzlich falsch, denn Sie stellen hier einen unzulässigen Vergleich an. Die von Ihnen genannten Durchschnittstemperaturen beziehen nämlich die Nachtseiten von Mond und Erde mit ein. Und die Nachtseite des Mondes hat nun einmal ein ganz anderes Temperaturverhalten als die Nachtseite der Erde. Nach den oben beschriebenen Randbedingungen des Stefan-Boltzmann-Gesetzes kann man nämlich nur die entsprechenden Tagestemperaturen miteinander vergleichen.

Aberschaunmereinfachmalgenauernach: In einem älteren Artikel auf EIKE wurden die am Landeplatz von Apollo 15 gemessenen Mondtemperaturen in einer Grafiküber drei Mond-Tage (= 3 x 29,5 Erdtage) dargestellt:

 

Abbildung: Oberflächentemperatur auf dem Mond am Landeplatz von Apollo 15 (lila/blau)
Aus einem Artikel auf EIKE, Primärquelle WUWT

Nach dieser Abbildung schwanken die Temperaturen über den Mond-Tag (=29,5 Erdtage) an der Landestelle von Apollo 15 zwischen etwa +90 °C und – 190 °C.

Wenn man jetzt für die Landeposition von Apollo 15 einmal die Stefan-Boltzmann Gleichgewichtstemperatur berechnet, dann erhält man einen ziemlich ähnlichen Temperaturverlauf wie die oben dargestellten Messwerte (Abbildung vom Autor):

Eckwerte dieser Berechnung:

Landepunkt von Apollo 15:                                            Mond @ 26° 7′ 55.99″ N 3° 38′ 1.9″ E

Solarkonstante:                                                                                      1.367 [W/m²]

Albedo des Mondes:                                                          0,11

Temperaturwirksame Solarstrahlung:                                   1.217 [W/m²]

dito bei 26,125° geogr. Breite:                    1.092 [W/m²]

Effektive Solarstrahlung Seff für α = [0° – 360°]:                   IF SIN α >0 THEN Seff = SIN α* 1.092 [W/m²]

IF SIN α <0 THEN Seff = 0 [W/m²]

Und wenn man diese beiden Abbildungen dann übereinander projiziert, ergibt sich eine ganz erstaunliche Übereinstimmung:

 

Kombination der beiden vorherigen Abbildungen WUWT/Weber:

Die gemessene und die mit S-B berechnete Temperatur am Landepunkt von Apollo 15 stimmen bei Tage hervorragend überein, während die minimalen (Nacht-) Temperaturen um etwa 70 bis 90 Grad differieren. Diese Differenz ist aber eher ein Problem zwischen Theorie und Praxis, denn in der S-B Berechnung wird für die Nachtseite des Mondes streng mit 0 [W/m²] gerechnet, während die Nachtseite in der Realität gestreute Sonneneinstrahlung von der Erde erhält, deren Albedo immerhin 30% betragt.
Abschätzung: Eine Temperatur von -196 °C entspricht nach Stefan-Boltzmann einer Strahlung von 2 {W/m²], dafür dürfte die Rückstrahlung der Erde von etwa 418 [W/m²] allemal ausreichen.

Warum schwankt aber nun die Temperatur auf der Erde so viel weniger als auf dem Mond?

Erde und Mond unterscheiden sich zunächst einmal durch ihre Tageslängen von 24 Stunden und 29,5 Erdtagen. Die Erde unterscheidet sich vom Mond weiterhin durch die thermische Speicherfähigkeit ihrer globalen Zirkulationen (Atmosphäre und Ozeane). Die kurze Tageslänge der Erde und ihre Wärmespeicher sorgen also für eine geringe Nachtabkühlung, während die durchschnittliche Nachttemperatur auf dem Mond schnell in den 3-stelligen Minusbereich absinkt.

Der Mond ist daher ein stark vereinfachtes Modell der Erde ohne Atmosphäre und Ozeane.

Was herkömmlich als „natürlicher“ atmosphärischer Treibhauseffekt bezeichnet wird, ist also lediglich der Wärmeinhalt der globalen Zirkulationen auf der Erde. Allein diese Wärmespeicher verhindern eine nächtliche Auskühlung unserer Erde in derselben Größenordnung, wie wir sie beim Mond beobachten können. Während nun aber der Mond ohne Atmosphäre und Ozeane auf seiner Tagseite die S-B Gleichgewichtstemperatur annähernd erreicht, wird auf unserer Erde ein Teil dieser Energie für die thermische Aufladung der globalen Zirkulationen „abgezweigt“. Und wegen dieser Wärmespeicher sinkt die Minimaltemperatur der Erde über Nacht dann wiederum höchstens um einige Dekagrad ab. Wenn man also auf der Erde überhaupt von einem Atmosphäreneffekt sprechen will, dann besteht dieser in einer Dämpfung der örtlichen Temperatur gegen maximale Schwankungen der solar verursachten Temperaturgenese, wie wir sie auf dem Mond beobachten können. Für eine Ortslage in mittlerer geographischer Breite auf der Erde (Potsdam) werden in der nachstehenden Abbildung die im Zeitraum zwischen 1890 und 2013 gemessenen maximalen Monatstemperaturen und die S-B Gleichgewichtstemperatur im Strahlungszenit der Sonne dargestellt:

Abbildung: Temperaturvergleich in °C für Potsdam über ein Jahr

Blau: Rechnerische S-B Temperatur im solaren Zenit @Potsdam

Rot: Gemessenes Monatsmaximum in Potsdam im Zeitraum
1890-2013

Anmerkung: Die S-B Gleichgewichtstemperatur im solaren Zenit wurde unter Berücksichtigung der durchschnittlichen globalen Albedo mit netto 780 W/m jahreszeitabhängig berechnet

Daten von: https://www.pik-potsdam.de/services/klima-wetter-potsdam/wetterextreme

Wie diese Abbildung zeigt, bleibt die örtlich gemessene Maximaltemperatur auf der Erde im jeweiligen Sommerhalbjahr deutlich unter der berechneten S-B Gleichgewichtstemperatur. In den Wintermonaten ist in mittleren und höheren Breiten dann der Wärmetransport der globalen Zirkulationen gegenüber der S-B Gleichgewichtstemperatur deutlich zu erkennen, hier noch verstärkt durch die vom Golfstrom verursachte Nordverschiebung der geographischen Klimazonen. Auf der Erde erhöht sich also treibhausmäßig gar nichts, sondern unsere Atmosphäre und die Ozeane wirken vielmehr wie ein natürlicher Pufferspeicher gegen sehr hohe und sehr niedrige Gleichgewichtstemperaturen aus der direkten solaren Einstrahlung.

So, damit ist jetzt hoffentlich endgültig geklärt, dass es gar keinen „natürlichen“ atmosphärischen Treibhauseffekt auf unserer Erde geben kann. Vielmehr lassen sich die gemessenen Temperaturen auf der Erde und auf dem Mond ganz allein aus der natürlichen Sonneneinstrahlung herleiten.

Am Ende habe ich es also meinen schärfsten Kritikern zu danken, dass ich hier, ausgehend von den Temperaturen am Landeplatz von Apollo 15, die Richtigkeit meines hemisphärischen Stefan-Boltzmann Ansatzes mit dem Mond als Kronzeugen nochmals überzeugend nachweisen konnte.

Anmerkung der EIKE Redaktion

EIKE versteht sich auch als Diskussionsforum für Sonder-Hypothesen. Dies bedeutet nicht, dass EIKE mit dem Inhalt solcher Beiträge einverstanden ist. Wir überlassen die Diskussion dem Kommentar-Bereich.




Noch ein paar Fragen zum „natürlichen“ atmosphärischen Treibhauseffekt

Kein vernünftiger Mensch würde nämlich ernsthaft behaupten wollen, die Sonne würde zur Hälfte am Tage und zur anderen Hälfte in der Nacht scheinen. Genau das wird aber implizit bei der konventionellen Herleitung des THE aus dem Stefan-Boltzmann-Gesetz unterstellt – und das Ergebnis von -18 Grad Celsius wird dann einfach geglaubt. Ausgerechnet der vorgebliche theoretische Nachweis einer „atmosphärischen Gegenstrahlung“ als Ursache für diesen THE scheitert an genau dieser Herleitung einer „Gleichgewichts-Temperatur“ von 255° Kelvin (= -18° Celsius) für das System Erde-Atmosphäre aus dem konventionellen S-B Ansatz über die globale Energiebilanz und stellt damit einen eindeutigen Zirkelbezug auf den bereits widerlegten konventionellen S-B Ansatz dar (hier Punkt 4.11.1 Gleichung 4.87).

Beschäftigen wir uns nun einmal mit den inneren Widersprüchen dieses „natürlichen“ atmosphärischen Treibhauseffektes. Der atmosphärische Treibhauseffekt von 33 Grad wird nach seiner Ableitung aus dem Stefan-Boltzmann-Gesetz eindeutig als ein globaler Durchschnittswert berechnet. Ein solcher Durchschnittswert ist eindimensional, unsere Erde ist aber dreidimensional. Dieser THE müsste also eigentlich ebenso, wie auch die individuelle örtlich gemessene Temperatur, über Ortslage, Tages- und Jahreszeiten variieren. Aber der tatsächliche Verlauf dieses „natürlichen“ atmosphärischen Treibhauseffektes auf unserer Erde bleibt völlig ungeklärt.

Es bleibt also ernsthaft nachzufragen:

  • Gibt es beim THE eine Abhängigkeit zwischen Tag und Nacht?
  • Gibt es beim THE Unterschiede zwischen Sommer und Winter?
  • Gibt es beim THE eine Abhängigkeit von der geographischen Breite?

In der wissenschaftlichen Literatur ist nirgendwo ein Hinweis über die exakte zeitliche und räumliche Verteilung dieses THE aufzufinden, einfach nur dessen ominöser globaler Durchschnittswert von 33 Grad. Da es sich beim THE aber um einen atmosphärischen Effekt handeln soll, der über die sogenannten „Treibhausgase“ direkt von der Infrarot-Rückstrahlung der Erdoberfläche abhängig ist, müsste er überall auf der Erde nach Tages- und Jahreszeit schwanken. Denn auf der Nachtseite der Erde und im Winter auf den jeweiligen Polkappen gibt es gar keinen primären solaren Energieeintrag, um einen solchen THE über die infrarote Rückstrahlung der Erdoberfläche energetisch überhaupt „versorgen“ zu können.

Die Strahlung der Sonne ist der alleinige Klimaantrieb auf unserer Erde, und die Sonne vermag unsere Erde lediglich auf ihrer Tagseite zu erwärmen und aufzuheizen. Wenn wir einmal die durchschnittliche solare Einstrahlung nach Hartmann (1994) auf unserer Erde betrachten, dann müssen wir feststellen, dass sich die Pole unserer Erde als sommerliche „Hotspots“ erweisen:

Abbildung: Mittlere tägliche Einstrahlung an der Außengrenze der Atmosphäre in Abhängigkeit von der Jahreszeit und der geographischen Breite.

Bezugsgröße: Intergral der örtlichen Sonneneinstrahlung über 24 h geteilt durch 24 h, mit 50 [W/m²] Konturintervall

Originalquelle:        Abbildung 2.6 aus Dennis L. Hartmann “Global Physical Climatology”, Chapter 2

Volume 56 in the INTERNATIONAL GEOPHYSICS SERIES, ACADEMIC PRESS 1994

Die in der obigen Abbildung aufgetragenen gemittelten Strahlungswerte sind in der Tat etwas verzwickt: Es handelt sich hierbei nämlich nicht um absolute Strahlungswerte im üblichen Sinne, aus denen sich also mittels des Stefan-Boltzmann-Gesetzes eine Gleichgewichtstemperatur ermitteln ließe. Vielmehr wurde hier die täglich verfügbare solare Strahlungsintensität an der Außengrenze der Atmosphäre über die jeweilige Einstrahlungszeit integriert und diese tägliche Gesamtenergieenergiemenge dann durch 24 Stunden geteilt. Im Ergebnis ergibt sich also eine 24-stundendurchschnittliche solare Strahlungsintensität an der Oberfläche der Atmosphäre. Die entsprechende stundendurchschnittliche Nettointensität am Boden ergäbe sich dann unter Berücksichtigung des individuellen solaren Zenitwinkels für den jeweiligen Atmosphärendurchgang und der örtlichen Albedo.

Damit wird hier von Hartmann (1994) die These von Köppen und Wegener aus ihrem Buch „Die Klimate der geologischen Vorzeit“ (Bornträger 1924) optisch sehr eindrucksvoll bestätigt, die dort die Temperaturschwankungen über die Eiszeitalter durch die sommerliche Sonneneinstrahlung in mittleren und höheren geographischen Breiten erklärt hatten.
In der Veröffentlichung “An Albedo Approach to Paleoclimate Cycles” (Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr.3/2015) über den Zusammenhang zwischen Erdalbedo und paläoklimatischen Zyklen war das Nordpolarmeer als möglicher „Schwachpunkt“ für die zyklische Enteisung der Nordhalbkugel identifiziert worden (hier ab Seite 18, Hotspot Nordpolarmeer S. 21, untere Hälfte links). Auch hierfür liefert die Abbildung von Hartmann einen sehr wichtigen Hinweis. Aufgrund der Elliptizität der Erdbahn fällt in der Antarktis nämlich der sommerliche Stundendurchschnitt der Sonneneinstrahlung deutlich höher aus als in der Arktis. Und trotzdem bleibt dort, im Gegensatz zur Nordhalbkugel, die Eisbedeckung während der gegenwärtigen Warmzeit erhalten.

Das Aktualitätsprinzip der Geologie schreibt vor, dass für neue geowissenschaftliche Erkenntnisse zunächst eine Übereinstimmung mit den gesicherten Vorgängen der geologischen Erdgeschichte nachzuweisen ist.
Und an diesem Nachweis scheitern bisher alle Hypothesen für einen nicht-solaren Klimaantrieb:

Für einen paläoklimatischen CO2-Klimaantrieb, eine abrupte Freisetzung von Erdwärme durch „gravitationsinduzierte Modulationen“ oder gar irgendeinen hypothetischen Klimaantrieb aus dem „Plasma Universum“ als Erklärung für die paläoklimatischen Temperaturschwankungen der Eiszeitalter fehlt nämlich weiterhin jegliche wissenschaftliche Indikation.

Und die ganz neue Theorie einer gravitativen solaren Kompressionsaufheizung der Planeten will lediglich den vorgeblichen paläoklimatischen CO2-Klimaantrieb durch die Hintertür als ein natürliches planetarisches Phänomen installieren (N&Z Aussage auf S.13 Mitte links). Die Ableitung dieser Theorie krankt aber an einer impliziten Stefan-Boltzmann Herleitung über die planetare Gesamtfläche (bei N&Z in Gleichung 3), einem unbewiesenen Paläoklima-Antrieb durch Treibhausgase (N&Z Aussage auf S.13 Mitte links) und schließlich auch noch an einer vorgeblich nicht klimawirksamen planetarischen Albedo (Aussage N&Z S.15 oben links). Am Ende will man der Allgemeinheit damit also nur wieder einmal den „natürlichen“ CO2-Paläoklimaanrieb in einer neuen Verpackung als „natürlichen planetarischen“ Treibhauseffekt unterjubeln…

Alleiniger Klimamotor unserer Erde ist und bleibt aber weiterhin die Sonne!

Aus der Abbildung von Hartmann wird auch sofort deutlich, warum von der Klimawissenschaft immer wieder behauptet wird, bei einer menschengemachten Klimakatastrophe würden sich die Polarregionen doppelt so schnell erwärmen, wie die übrige Erdoberfläche. Erstaunlicherweise wird diese Aussage dann aber an die Ergebnisse von computergestützten Klimamodellen geknüpft und nicht an ihre tatsächlichen physikalischen Ursachen.
Klar wird aus solchen Aussagen auf jeden Fall, dass die Klimawissenschaft dem „natürlichen“ atmosphärischen Treibhauseffekt einen jahreszeitlich breitenabhängigen Verlauf unterstellt, ohne dass dieser jemals wissenschaftlich exakt formuliert oder spezifiziert worden wäre. Denn richtig müsste eine solche Aussage eigentlich im Präsens formuliert werden:
Die Polarregionen erhalten in den jeweiligen Sommermonaten die höchste tägliche Energiemenge auf der gesamten Erde und müssten somit auch den stärksten Einfluss eines vorgeblich menschengemachten THE-abhängigen Klimaeinflusses zeigen.

Daraus ergibt sich unmittelbar die Aufforderung an alle Protagonisten dieses „natürlichen“ atmosphärischen Treibhauseffektes, beziehungsweise einer „atmosphärischen Gegenstrahlung“:

Bitte weisen Sie uns klar und unmissverständlich den zeitlichen Verlauf nach, mit dem sich ein eindimensionaler „natürlicher“ atmosphärischer Treibhauseffekt von 33 Grad, respektive eine vorgeblich dafür ursächliche „atmosphärische Gegenstrahlung“, auf unserer dreidimensionalen Erde abbildet!

Und erzählen Sie uns bitte nicht, beides ergäbe sich vollautomatisch aus der fälschlicherweise mit dem Stefan-Boltzmann-Gesetz über die gesamte Erdoberfläche berechneten Globaltemperatur…

 

Hier einiges über das Buch des Autors (übernommen von die kalte Sonne)

Uli Webers Buch “Klimahysterie gefährdet die Freiheit” ist jetzt auch im erschwinglichen schwarz-weiß Paperback-Format erhältlich. Preis: Euro 7,99. ISBN-13: 978-3-7448-3560-2

 

Inhalt: 

Katastrophenszenarien haben sich zu den Gelddruckmaschinen der modernen Forschung entwickelt. Der Mainstream der globalen Klimaforschung macht sich gerade zum politischen Gefangenen einer CO2-Apokalypse, und aus Angst vor der prophezeiten Klimakatastrophe setzen wir unsere Marktwirtschaft außer Kraft. Dabei findet diese Klimakatastrophe vorerst nur in unseren Köpfen statt, denn es geht dabei weniger um den aktuellen CO2-Ausstoß der Menschheit, als vielmehr um den befürchteten Anstieg dieser Emissionen in der Zukunft.

Immer und zu jeder Zeit wurden der Menschheit Katastrophen vorhergesagt, insofern ist die Klimakatastrophe eigentlich gar nichts Neues. Neu ist eher, dass sich die Protagonisten dieser Katastrophe nicht mehr alter Weissagungen oder plötzlich auftauchender Kometen bedienen, um ihre Thesen unters Volk zu bringen, sondern grob vereinfachender wissenschaftlicher Modellrechnungen. Solche Berechnungen ergeben aber keine eindeutigen Lösungen, sondern Lösungswolken, deren Größe dramatisch anwächst, je weiter man sie in die Zukunft hochrechnet. Die mediale Darstellung dieser Ergebnisse bleibt dann auf plakative Katastrophenszenarien beschränkt und positive Auswirkungen eines möglichen globalen Temperaturanstiegs, allein schon durch eine Verlängerung der Vegetationszeiten in höheren geographischen Breiten, gehen in der monokausalen Panikmache um unseren anthropogenen CO2-Ausstoß völlig unter.
Die Weltbevölkerung als Ganzes hat riesige Probleme, die sich nicht auf die griffige Formel reduzieren lassen, wenn wir den Ausstoß von CO2 verhindern, wird alles gut! Die CO2-Vermeidung um jeden Preis ist eine Wette unzureichender Computermodelle gegen Mutter Erde. Eine Beschränkung auf unseren CO2-Ausstoß als alleinige Ursache für den Temperaturanstieg seit 1850 lässt die Weltbevölkerung auch in Zukunft völlig ungeschützt gegen alle natürlichen Klimaschwankungen bleiben!

Daher sollten wir das Aufkommen jeglicher Angstgläubigkeit um die vorgebliche Klimakatastrophe vermeiden und unsere begrenzten wirtschaftlichen Mittel in unserer Verantwortung als der besser verdienende Teil der Weltbevölkerung nicht nur ökologisch, sondern auch ökonomisch sinnvoll und vorausschauend zum Nutzen aller Menschen auf dieser Erde einsetzen.

Anmerkung der EIKE-Redaktion

EIKE versteht sich als Diskussionsforum, in welchem auch abweichende physikalische Auffassungen diskutiert werden können. Das bedeutet nicht unbedingt, dass EIKE diese Auffassungen teilt.

 

 

 




Wer im Treibhaus sitzt…

Zunächst einmal bedanke ich mich bei allen Kommentatoren hier auf EIKE für die lebhafte Diskussion über den Artikel mit meiner Kritik am natürlichen Treibhauseffekt unserer Atmosphäre, insbesondere bei denen, die mich tatsächlich verstanden haben, und natürlich bei den sportlich-bissigen Herren „auf dem Balkon“ für die gute Unterhaltung – einem „Selbstgebrauten“ wäre ich nicht abgeneigt…

In der nachstehenden Zusammenfassung gehe ich auf sachliche Fragestellungen und kritische Anmerkungen zu meinem Text ein und komme dann zu einigen weiterführenden Bemerkungen. Der begrenzte Raum erlaubt es allerdings nicht, hier elementare geometrische Grundkenntnisse oder ein tieferes Verständnis physikalischer Gesetze zu vermitteln.
Ausdrücklich hervorzuheben ist zunächst, dass es sich bei meinem Artikel um eine Auseinandersetzung mit dem herkömmlichen Ansatz für die Berechnung der Schwarzkörpertemperatur unserer Erde nach dem Stefan-Boltzmann Gesetz handelt, aus der sich dann meine Kritik am Treibhauseffekt herleitet – nicht mehr, aber auch nicht weniger. Die einzige sachdienliche Kritik an meinen Ausführungen, die ich überhaupt erhalten hatte, bestand bisher in einem Verweis auf die Veröffentlichung „Falsifizierung der atmosphärischen CO2 –Treibhauseffekte im Rahmen der Physik“ von Gerhard Gerlich und Ralf D. Tscheuschner, hier zur deutschen Übersetzung. Dort wird aber lediglich darauf hingewiesen dass die Stefan-Boltzmann Konstante s von der Geometrie des betrachteten Problems abhängig sei und dass das T4-Gesetz bei einer Integration über ein gefiltertes Spektrum nicht mehr gelte. Und daher scheitern schon einmal alle Kritiker, die meine Arbeit in diesen oder einen anderen Kontext zu stellen suchen genau daran, dass sich eine solche Argumentation natürlich ebenso gegen die herkömmliche, und meines Erachtens nach falsche, Herleitung des Treibhauseffektes aus der S-B Schwarzkörperberechnung für unsere Erde richten muss.
Die in meinem zugrundeliegenden wissenschaftlichen Artikel nachgewiesene fehlerhafte Anwendung des S-B Gesetzes auf die gesamte Erdoberfläche führt fälschlicherweise zur Konstruktion eines sogenannten „natürlichen atmosphärischen Treibhauseffektes“. Dieser Treibhauseffekt stellt praktisch ein fiktives Sekundärphänomen im Umfang von 155 W/m² dar, mit dem die ursprüngliche Fehlberechnung der theoretischen globalen Durchschnittstemperatur von -19° Celsius künstlich an die Realität der Temperaturmessungen mit +14° Celsius angepasst wurde. Zwischenzeitlich wurde diese Herleitung durch eine „Gegenstrahlung“ mit denselben Eckwerten verdrängt und scheint selbst in Vergessenheit geraten zu sein.
Auf Tichys Einblick war ein paar Tage nach meinem Artikel die Gegendarstellung eines Herrn Dr. Heller erschienen, in der dieser den Treibhauseffekt auf herkömmliche Weise mit einer atmosphärischen Gegenstrahlung zu erklären suchte und sich dann nicht etwa, seinem Titel gemäß, wissenschaftlich mit der konträren Herleitung für die Schwarzkörperberechnung der Erde auseinandergesetzt hatte, sondern sich stattdessen lediglich spekulativ über die wissenschaftliche Kompetenz des Autors ausließ.

Der aktuelle Stand der wissenschaftlichen Auseinandersetzung über den Treibhauseffekt ist also folgender:

Konventionelle Herleitung der Schwarzkörpertemperatur mit dem S-B Gesetz aus der globalen Energiebilanz der Erde für die Kugeloberfläche :

(Solarkonstante/4) => netto 235 W/m² => -19° Celsius + Treibhauseffekt

Alternative Herleitung Weber mit dem S-B Gesetz und einer Halbkugelbetrachtung für die Erde:

(Solarkonstante/2) => netto 390 W/m² => +14,8°Celsius

Ich möchte hier ausdrücklich darauf hinweisen, dass meine Ausführungen zur Fehlberechnung des atmosphärischen Treibhauseffektes aus dem Stefan-Boltzmann Gesetz selbstverständlich jederzeit wissenschaftlich widerlegt werden können:

Wenn also wissenschaftlich eindeutig nachgewiesen wird, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt.

Mein englischsprachiger Originalartikel aus den Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr. 2016/3 mit dem Titel „A Short Note about the Natural Greenhouse Effect“ und einer ausführlichen rechnerischen Herleitung war bereits im TE-Artikel verlinkt und ist hier ab Seite 19 zu finden. Und eine vereinfachende Kurzfassung in deutscher Sprache wurde inzwischen hier eingestellt.

Zum generellen Verständnis meines Artikels: Der konventionelle Ansatz für den atmosphärischen Treibhauseffekt resultiert aus der durchschnittlichen Energiebilanz für die gesamte Erde. Dieser zusammenfassend berechnete gemeinsame Mittelwert für die Tag- und Nachtseite der Erde wird dann mit dem Stefan-Boltzmann Gesetz in eine Schwarzkörpertemperatur „umgerechnet“. Ein entsprechendes Beispiel für diese Art der konventionellen Berechnung des Treibhauseffekts finden Sie hier.

Das S-B Gesetz ist nun aber keine Gleichung, sondern beschreibt mit der dort lediglich in Form einer Gleichung angegebenen Relation zwischen Strahlung und Temperatur vielmehr ausschließlich die Situation in einem thermischen Gleichgewichtszustand. Und genau dieses zwingend vorgegebene thermische Gleichgewicht wird bei der konventionellen Herleitung des Treibhauseffektes durch die Einbeziehung der Nachtseite unserer Erde verletzt. Die „Denkfalle“ im konventionellen Ansatz für den Treibhauseffekt besteht also darin, dass die Energiebilanz der Erde als ein rechnerischer Durchschnittswert, der über die gesamte Tag- und Nachtseite der Erde gemittelt wird, auf eine physikalische Beziehung angewendet wird, die lediglich in einem thermischen Gleichgewichtszustand auf der Tagseite existiert.

Zum Kohlenstoffdioxid (CO2) als „natürlicher Klimaantrieb“: CO2 ist kein Produzent thermischer Energie aus sich selbst heraus, wie es die Darstellungen des IPCC nahelegen, indem CO2 dort fälschlicher Weise eine direkte thermische Wirkung in [W/m²] zugemessen wird. Vielmehr handelt es sich bei CO2, wie beispielsweise auch bei Wasserdampf und Methan, um ein Infrarot-aktives Gas. Solche IR-aktiven Moleküle nehmen infrarote Strahlung passiv auf, erhöhen damit zeitweilig ihr eigenes Energieniveau und geben diese Energie dann aktiv wieder an die Umgebung ab. In Summe wird also die infrarote Abstrahlung der Erdoberfläche ins Weltall durch diese IR-aktiven Gase letztlich lediglich verzögert. Dadurch mag sich vielleicht der Temperaturgradient in der Atmosphäre verändern, aber zusätzliche Energie im Umfang von 155 [W/m²], wie der konventionelle Ansatz für den Treibhauseffekt mit einer „Gegenstrahlung“ postuliert, kann dort definitiv nicht erzeugt werden. Aber selbst unter den alarmistischen Annahmen des IPCC bleibt die Klimasensitivität von CO2 deutlich unter 1,0° C pro Verdoppelung seines atmosphärischen Anteils.

Weiterführende Informationen zu CO2: Hier eine deutsche Kurzfassung, der zugrunde liegende Originalartikel ist unter dem Titel “About the Natural Climate Driver” in den Mitteilungen Nr. 2016/2 der Deutschen Geophysikalischen Gesellschaft erschienen, hier ab Seite 9.

Der natürliche Klimaantrieb: Zumindest rein rechnerisch lässt sich nachweisen, dass die Schwankungen der Sonneneinstrahlung durch die Zyklen der Erdumlaufbahn um die Sonne (Milanković-Zyklen) als alleiniger Klimamotor für unsere Erde ausreichen. Dabei würde dann die klimawirksame Sonneneinstrahlung durch eine schwankende Eisbedeckung in mittleren geographischen Breiten über die Albedo der Erde „moduliert“.

Weiterführende Informationen zum Albedo-Forcing: Hier eine deutsche Kurzfassung, der zugrunde liegende Originalartikel ist unter dem Titel “ An Albedo Approach to Paleoclimate Cycles” in den Mitteilungen Nr. 2015/3 der Deutschen Geophysikalischen Gesellschaft erschienen, hier ab Seite 18.

Zum aktuellen Stand der Wissenschaft in der Klimaforschung: In den Geowissenschaften der 1970-er Jahre waren die orbitalen Milanković-Zyklen, nämlich

Präzession =Taumelbewegung der „Erdachse“ um die Senkrechte (zur Erdbahnebene), 

Obliquität = Änderung der Schiefstellung der „Erdachse“ und

Exzentrizität = Veränderung der Ellipsenform unserer Erdbahn um die Sonne

 

als Ursache für die paläoklimatischen Veränderungen während der Eiszeitalter geltende Lehrmeinung. Diese Erkenntnis ist in der Klimawissenschaft während der vergangenen Jahrzehnte offenbar „verlorengegangen“, ohne jemals widerlegt worden zu sein.

In der Einleitung zu ihrem bahnbrechenden Werk “Die Klimate der geologischen Vorzeit” (Bornträger 1924) als Grundlage dieser geowissenschaftlichen Lehrmeinung schreiben Köppen und Wegener auf Seite 4 (mit meinen Hervorhebungen):
„…Von den zahlreichen sonstigen Hypothesen, die zur Erklärung von Klimaänderungen aufgestellt worden sind, wird daher in diesem Buche nicht die Rede sein. Insbesondere erblicken wir in dem System der fossilen Klimazeugen keinen empirischen Anhalt für die Annahme, daß die von der Sonne ausgehende Strahlung sich im Laufe der Erdgeschichte geändert habe. Desgleichen fehlt es an Tatsachen, welche durch Änderung der Durchstrahlbarkeit der Atmosphäre (Arrhenius) oder des Weltalls (Nölke) zu erklären wären; …“
Ein Nachdruck dieses Buches von Köppen und Wegener ist bei Schweizerbart erhältlich.

In den vergangenen Jahrzehnten hat sich die Klimawissenschaft in der Ursachenforschung für die Klimagenese unserer Erde offenbar wieder von Köppen und Wegener weg auf den Kenntnisstand von Arrhenius zurückbewegt. Man muss wohl überspitzt feststellen, dass in der modernen Klimaforschung inzwischen der wohlalimentierte populistische Schwanz mit dem wissenschaftlichen Hund wedelt.

Herzliche Grüße – Uli Weber