1

Der sich abzeichnende Thermostat

Abstract

Das aktuelle Paradigma der Klimawissenschaft besagt, dass die langfristige Änderung der globalen Temperatur durch eine Konstante namens „Klimasensitivität“ multipliziert mit der Änderung der abwärts gerichteten Strahlung, genannt „Strahlungsantrieb“, gegeben ist. Trotz über vierzigjähriger Untersuchungen hat sich die Unsicherheit des Wertes der Klimasensitivität jedoch nur vergrößert.1 Dieser Mangel an jeglichem Fortschritt bei der Bestimmung des zentralsten Wertes im aktuellen Paradigma deutet stark darauf hin, dass das Paradigma selbst falsch ist, dass es keine genaue Beschreibung der Realität darstellt. Hier schlage ich ein anderes Klimaparadigma vor, das besagt, dass eine Vielzahl von auftretenden Klimaphänomenen zusammenwirken, um die Oberflächentemperatur in engen Grenzen zu halten. Dies erklärt die ungewöhnliche thermische Stabilität des Klimasystems.

Übersicht

Mehrere Autoren haben das Klimasystem als eine Wärmekraftmaschine analysiert. Hier ist die Beschreibung von Reis und Bejan:

Die Erde mit ihrem solaren Wärmeeintrag, ihrer Wärmeabstrahlung und den Schwingungen der atmosphärischen und ozeanischen Zirkulation ist eine Wärmekraftmaschine ohne Welle: ihre maximierte (aber nicht ideale) mechanische Leistung kann nicht an ein extraterrestrisches System abgegeben werden. Stattdessen ist der Erdmotor dazu bestimmt, die gesamte von ihm erzeugte mechanische Leistung durch Luft- und Wasserreibung und andere Irreversibilitäten (z. B. Wärmelecks über endliches ∆T) zu zerstreuen. Er tut dies, indem er sich so schnell wie möglich „in seiner Bremse dreht“ (daher die Winde und Meeresströmungen, die auf einfachsten Wegen verlaufen).2

Einer der ungewöhnlichsten und im Allgemeinen nicht beachteten Aspekte bei der Betrachtung der Wärmekraftmaschine ist ihre verblüffende Stabilität. Im Laufe des 20. Jahrhunderts schwankte die globale durchschnittliche Oberflächentemperatur um weniger als ein Kelvin. Das ist eine Schwankung von ± 0,2 %. In Anbetracht der Tatsache, dass das System eine variable Menge an einfallender Energie zurückweist, wobei die Schwankungen größtenteils durch nichts Handfesteres als Wolken gesteuert werden, ist dies ein höchst überraschender Grad an Stabilität.

Dies wiederum spricht stark für einen globalen Thermo-Regulations-Mechanismus. Die Stabilität kann nicht auf einfacher thermischer Trägheit beruhen, da die hemisphärischen Landtemperaturen im Laufe des Jahres um ~ 20 K und die hemisphärischen Meerestemperaturen um ~ 5 K variieren.

Emergenz*
[*Es lässt sich keine befriedigende Übersetzung für diesen Terminus finden. Er wird daher im Folgenden beibehalten. Der Vergleich des Titels im Original und in dieser Übersetzung macht klar, was gemeint ist. – A. d. Übers.]

Es gibt keine allgemein akzeptierte Definition von Emergenz. Im Jahr 1874 schlug Lewes die folgende Definition vor: „Emergenz: Theorie, nach der die Kombination von Entitäten einer bestimmten Ebene eine Entität einer höheren Ebene hervorbringt, deren Eigenschaften völlig neu sind“.3
Für die Zwecke dieses Artikels werde ich emergente Klimaphänomene funktional und anhand eines Beispiels definieren.

Emergente Klimaphänomene entstehen spontan, oft beim Überschreiten einer thermischen oder anderen Schwelle. Man Betrachte die tägliche Entwicklung des tropischen Kumuluswolkenfeldes.

Beim Überschreiten einer Temperaturschwelle können aus einem klaren Himmel in kurzer Zeit Hunderte von einzelnen Kumuluswolken entstehen.

Sie haben eine Entstehungszeit und eine begrenzte Lebensdauer. Staubteufel bilden sich spontan zu einem bestimmten Zeitpunkt, bestehen eine Zeit lang und lösen sich dann auf und verschwinden.
Sie bilden ein separates Ganzes, das sich von der Umgebung unterscheidet. Tropische Gewitter sind von klarer Luft umgeben.

Sie sind oft beweglich und bewegen sich auf unvorhersehbare Weise. Infolgedessen haben tropische Wirbelstürme „Vorhersagekegel“ dafür, wohin sie möglicherweise als nächstes ziehen werden, anstatt genau vorhersehbar zu sein.

Sie sind oft mit Phasenänderungen in den entsprechenden Flüssigkeiten verbunden. Konvektive Wolkenentstehung beinhaltet eine Phasenänderung von Wasser.

Einmal vorhanden, können sie unterhalb der für ihre Entstehung notwendigen Schwelle bestehen bleiben. Die Rayleigh-Benard-Zirkulation erfordert eine bestimmte Temperaturdifferenz, um zu entstehen, aber wenn sie einmal existiert, kann die Zirkulation bei einer kleineren Temperaturdifferenz bestehen bleiben.

Es handelt sich um Strömungssysteme, die weit vom Gleichgewicht entfernt sind. Als solche müssen sie sich gemäß dem Konstruktionsgesetz4 weiterentwickeln und mutieren, um zu überleben.

Sie sind nicht einfach vorhersehbar, da sie ganz andere Eigenschaften haben als das Medium, aus dem sie hervorgehen. Wenn Sie irgendwo leben würden, wo es nie Wolken gibt, würden Sie wahrscheinlich nicht vorhersagen, dass plötzlich ein riesiges weißes Objekt Hunderte von Metern über Ihrem Kopf auftauchen könnte.

Beispiele für natürliche emergente Phänomene, mit denen wir vertraut sind, sind das Verhalten von Vogelschwärmen, Wirbel aller Art, Termitenhügel, Bewusstsein und sogar das Leben selbst. Bekannte emergente Klimaphänomene sind Gewitter, Tornados, die Rayleigh-Bénard-Zirkulation der Atmosphäre und des Ozeans, Wolken, Zyklone, El Ninos und Staubteufelchen.

Ein einfaches Beispiel

Um zu erklären, wie emergente Phänomene die Temperatur der Erdoberfläche thermoregulieren, betrachten wir das kleine „Staubteufelchen“. Wenn die Sonne im Sommer ein Feld aufheizt, ist die Temperaturänderung eine ziemlich lineare Funktion des Antriebs, hier der abwärts gerichteten Sonnenstrahlung. Dies steht im Einklang mit dem aktuellen Paradigma. Aber wenn der heißeste Teil des Feldes eine bestimmte Temperatur in Bezug auf die darüber liegende atmosphärische Temperatur erreicht, taucht aus klarem Himmel ein Staubteufelchen auf. Dieser kühlt die Oberfläche auf mehrere Arten ab. Erstens bewegt er warme Oberflächenluft nach oben in die untere Troposphäre. Zweitens erhöht er die fühlbare Wärmeübertragung, die eine ungefähr lineare Funktion der Windgeschwindigkeit über der Oberfläche ist. Drittens erhöht sie die Verdunstung, was wiederum eine ungefähr lineare Funktion der Windgeschwindigkeit über der Oberfläche ist.

An diesem Punkt bricht das derzeitige Paradigma, dass die Temperaturänderung eine lineare Funktion der Änderung des Antriebs ist, vollständig zusammen. Wenn die Sonne die Oberfläche weiter bestrahlt, erhalten wir statt einer höheren Temperatur mehr Staubteufel. Dies setzt eine Obergrenze für die Oberflächentemperatur. Man beachte, dass diese Obergrenze nicht eine Funktion des Antriebs ist. Der Schwellenwert ist Temperatur-basiert, nicht Antriebs-basiert. Folglich wird sie nicht von Dingen wie einer veränderten Sonneneinstrahlung oder Variationen der Treibhausgase beeinflusst.

Ein vollständiges Beispiel

Die Schwerstarbeit des thermo-regulatorischen Systems wird jedoch nicht von Staubteufeln geleistet. Sie wird durch Variationen des Zeitpunkts und der Stärke des täglichen Auftretens tropischer Kumulusfelder und der darauf folgenden tropischen Gewitter, insbesondere über dem Ozean, erreicht. Dabei handelt es sich um das Zusammenspiel mehrerer verschiedener emergenter Phänomene.

Hier kommt der Ablauf von Tag und Nacht im tropischen Ozean ins Spiel. Der tropische Ozean ist der Ort, an dem der Großteil der Sonnenenergie in die riesige Wärmemaschine, die wir Klima nennen, eintritt. Infolgedessen befinden sich dort auch die wichtigsten thermostatischen Mechanismen.

Abbildung 1: Tägliche emergente Phänomene der tropischen Ozeane

Wie im Paneel „Early Morning“ zu sehen, weist die Atmosphäre in der Morgendämmerung mehrere Schichten auf, wobei die kühlste Luft der Oberfläche am nächsten ist. Die nächtliche, emergente Rayleigh-Bénard-Umwälzung des Ozeans geht zu Ende. Die Sonne ist frei, um den Ozean zu erwärmen. Die Luft nahe der Oberfläche wirbelt willkürlich.

Während die Sonne den Ozean weiter aufheizt, entsteht gegen zehn oder elf Uhr morgens ein neues Zirkulationsmuster, welches die zufällige atmosphärische Verwirbelung ersetzt. Sobald eine kritische Temperaturschwelle überschritten wird, bilden sich überall lokale Zirkulationszellen vom Rayleigh-Bénard-Typ. Dies ist der erste emergente Übergang von der zufälligen Zirkulation zur Rayleigh-Bénard-Zirkulation. Diese Zellen transportieren sowohl Wärme als auch Wasserdampf nach oben.

Am späten Vormittag ist die Rayleigh-Bénard-Zirkulation typischerweise stark genug, um den Wasserdampf bis zum lokalen Lifting Condensation Level (LCL) anzuheben. In dieser Höhe kondensiert der Wasserdampf zu Wolken, wie im Paneel „Late Morning“ gezeigt.

Diese flächendeckende Verschiebung zu einem organisierten Zirkulationsmuster ist weder eine Änderung der Rückkopplung, noch steht sie in Zusammenhang mit einem Antrieb. Es handelt sich um ein selbstorganisiertes, emergentes Phänomen. Es ist schwellenbasiert, was bedeutet, dass es spontan auftritt, wenn eine bestimmte Schwelle überschritten wird. In den feuchten Tropen gibt es viel Wasserdampf, so dass die Hauptvariable für den Schwellenwert die Temperatur ist. Außerdem ist zu beachten, dass es in Tafel 2 zwei verschiedene Phänomene gibt – die Rayleigh-Bénard-Zirkulation, die vor der Cumulusbildung entsteht, und die durch die völlig getrennte Entstehung der Wolken verstärkt wird. Wir haben es nun auch mit zwei Zustandsänderungen zu tun, mit der Verdunstung an der Oberfläche und der Kondensation und Wiederverdunstung in der Höhe.

Unter diesem neuen Regime der Cumulus-Zirkulation am späten Vormittag findet viel weniger Oberflächenerwärmung statt. Ein Teil des Sonnenlichts wird zurück in den Weltraum reflektiert, so dass zunächst weniger Energie in das System gelangt. Dann erhöht der zunehmende Oberflächenwind aufgrund des Cumulus-basierten Zirkulationsmusters die Verdunstung, wodurch die Oberflächenerwärmung noch weiter reduziert wird, indem die latente Wärme nach oben in die aufsteigende Kondensationsebene transportiert wird.

Entscheidend sind hier der Zeitpunkt und die Stärke des Auftretens. Wenn der Ozean etwas wärmer ist, setzt das neue Zirkulationsregime früher am Morgen ein und verringert die gesamte Tageserwärmung. Ist der Ozean hingegen kühler als üblich, hält der klare Morgenhimmel bis spät in den Tag hinein an und ermöglicht eine verstärkte Erwärmung. Die Systemtemperatur wird also sowohl vor Überhitzung als auch vor übermäßiger Abkühlung durch den Zeitpunkt des Einsetzens des Regimewechsels reguliert.

Man betrachte das Phänomen „Klimasensitivität“ in diesem System, die die Empfindlichkeit der Oberflächentemperatur auf den Antrieb ist. Der solare Antrieb nimmt ständig zu, wenn die Sonne höher am Himmel steht. Morgens vor dem Einsetzen der Kumuluszirkulation kommt die Sonne durch die klare Atmosphäre und erwärmt die Oberfläche schnell. Daher ist die thermische Reaktion groß und die Klimasensitivität hoch.

Nach dem Einsetzen der Cumulus-Zirkulation wird jedoch ein Großteil des Sonnenlichts zurück in den Weltraum reflektiert. Es bleibt weniger Sonnenlicht übrig, um den Ozean zu erwärmen. Zusätzlich zur reduzierten Sonneneinstrahlung kommt es zu einer verstärkten Verdunstungs-Abkühlung. Im Vergleich zum Morgen ist die Klimasensitivität deutlich geringer.

Wir haben hier also zwei Situationen mit sehr unterschiedlichen Klimasensitivitäten. Am frühen Morgen ist die Klimasensitivität hoch, und die Temperatur steigt mit der zunehmenden Sonneneinstrahlung schnell an. Am späten Vormittag kommt es zu einem Regimewechsel hin zu einer Situation mit viel geringerer Klimaempfindlichkeit. Das Hinzufügen von zusätzlicher Sonnenenergie erhöht die Temperatur nicht mehr annähernd so schnell wie zuvor.

Irgendwann am Nachmittag besteht eine gute Chance, dass das Cumulus-Zirkulationsmuster nicht ausreicht, um den weiteren Anstieg der Oberflächentemperatur zu stoppen. Wenn die Temperatur einen bestimmten höheren Schwellenwert überschreitet, wie im Paneel „Late Afternoon“ gezeigt, findet ein weiterer vollständiger Regimewechsel statt. Dieser beinhaltet die spontane Entstehung von unabhängig voneinander beweglichen Wärmekraftmaschinen, die Gewitter genannt werden.

Gewitter sind Wärmekraftmaschinen mit zwei Brennstoffen. Sie werden mit Luft niedriger Dichte betrieben. Diese Luft steigt auf und kondensiert die Feuchtigkeit aus. Die Kondensation setzt Wärme frei, die die Luft wieder erwärmt, die bis weit nach oben in die Troposphäre aufsteigt.

Es gibt zwei Möglichkeiten, wie die Gewitter die Luft mit niedriger Dichte erhalten. Einer ist die Erwärmung der Luft. So entsteht ein Gewitter als ein von der Sonne angetriebenes Phänomen, das aus mächtigen Kumuluswolken entsteht. Die Sonne und die Treibhausgasstrahlung erwärmen zusammen die Oberfläche, die dann die Luft erwärmt. Die Luft mit geringer Dichte steigt nach oben. Wenn diese Zirkulation stark genug wird, bilden sich Gewitter. Sobald das Gewitter begonnen hat, wird der zweite Treibstoff hinzugefügt – Wasserdampf. Je mehr Wasserdampf sich in der Luft befindet, desto leichter wird sie. Das Gewitter erzeugt starke Winde um seine Basis. Die Verdunstung ist proportional zur Windgeschwindigkeit, so dass die lokale Verdunstung stark zunimmt. Dadurch wird die Luft leichter und steigt schneller auf, wodurch das Gewitter stärker wird, was wiederum die Windgeschwindigkeit um die Gewitterbasis erhöht. Ein Gewitter ist ein regeneratives System, ähnlich wie ein Feuer, bei dem ein Teil der Energie verwendet wird, um einen Blasebalg anzutreiben, damit das Feuer noch heißer brennt. Ist es einmal entfacht, ist es viel schwieriger zu stoppen. Dies verleiht Gewittern eine einzigartige Fähigkeit, die in keinem der Klimamodelle dargestellt ist. Ein Gewitter ist in der Lage, die Oberflächentemperatur weit unter die Auslösetemperatur zu drücken, die nötig war, um das Gewitter in Gang zu setzen. Das Gewitter kann bis in den Abend hinein laufen, oft sogar bis weit in die Nacht hinein, dank der Kombination aus thermischen und Verdunstungs-Energiequellen.

Gewitter fungieren als Wärmeleitbahnen, die warme Luft schnell von der Oberfläche zum Kondensationsniveau transportieren, wo sich die Feuchtigkeit in Wolken und Regen verwandelt, und von dort in die obere Atmosphäre, ohne mit den dazwischenliegenden Treibhausgasen zu interagieren. Die Luft und die in ihr enthaltene Energie werden im Inneren des aufsteigenden Gewitterturms versteckt in die obere Troposphäre transportiert, ohne auf dem Weg dorthin von Treibhausgasen absorbiert oder behindert zu werden. Gewitter kühlen die Oberfläche auch auf eine Vielzahl anderer Arten, indem sie eine Kombination aus einem Standard-Kältekreislauf mit Wasser als Arbeitsmedium plus von oben zurückfließendem kaltem Wasser, klarer Umgebungsluft, die eine größere aufsteigende Oberflächenstrahlung ermöglicht, windgetriebener Verdunstung, Sprühnebel, der die Verdunstungsfläche vergrößert, Albedo-Änderungen und kalter, nach unten gerichteter, mitgerissener Luft nutzen.

Wie beim Einsetzen der Cumulus-Zirkulation tritt das Einsetzen von Gewittern früher an Tagen auf, an denen es wärmer ist, und es tritt später (und manchmal gar nicht) an Tagen auf, die kühler sind als üblich. Auch hier gibt es keine Möglichkeit, eine durchschnittliche Klimasensitivität zuzuordnen. Je wärmer es wird, desto weniger erwärmt jedes zusätzliche Watt pro Meter die Oberfläche.

Sobald die Sonne untergeht, zerfallen zuerst die Kumuluswolken und dann die Gewitter und lösen sich auf. In Paneel 4 zeigt sich ein letztes und wiederum anderes Regime. Das Hauptmerkmal dieses Regimes ist, dass der Ozean während dieser Zeit die allgemeine Menge an Energie abstrahlt, die während aller anderen Teile des Tages absorbiert wurde.

Während der Nacht empfängt die Oberfläche immer noch Energie von den Treibhausgasen [?]. Dies hat den Effekt, dass das Einsetzen der ozeanischen Umwälzung verzögert und die Abkühlungsrate verringert wird. Man beachte, dass die ozeanische Umwälzung wieder die entstehende Rayleigh-Bénard-Zirkulation ist. Da es weniger Wolken gibt, kann der Ozean freier in den Weltraum abstrahlen. Darüber hinaus bringt die Umwälzung des Ozeans ständig neues Wasser an die Oberfläche, das abstrahlt und abkühlt. Dies erhöht den Wärmeübergang über die Grenzfläche. Wie bei den vorherigen Schwellenwerten ist der Zeitpunkt dieses endgültigen Übergangs temperaturabhängig. Sobald ein kritischer Schwellenwert überschritten ist, setzt die ozeanische Umwälzung ein. Die Schichtung wird durch Zirkulation ersetzt, die neues Wasser zum Abstrahlen, Abkühlen und Absinken bringt. Auf diese Weise wird Wärme abgeführt, nicht nur von der Oberfläche wie tagsüber, sondern vom gesamten Körper der oberen Schicht des Ozeans.

Prognosen

Eine Theorie ist nur so gut wie ihre Prognosen. Aus den obigen theoretischen Überlegungen können wir Folgendes vorhersagen:

Prognose 1: In warmen Gebieten des Ozeans wirken Wolken kühlend auf die Oberfläche, in kalten Gebieten wirken sie wärmend auf die Oberfläche. Dies wird oberhalb einer Temperaturschwelle bei den wärmsten Temperaturen am stärksten ausgeprägt sein.

Beweise, die die erste Prognose bestätigen:

Abbildung 2. Streudiagramm, Meeresoberflächentemperatur (SST) versus Strahlungseffekt der Oberflächenwolke. Je negativer die Daten sind, desto stärker ist die Abkühlung.

Wie prognostiziert, erwärmen die Wolken die Oberfläche, wenn sie kalt ist, und kühlen sie, wenn sie warm ist, wobei der Effekt oberhalb von etwa 26°C – 27°C sehr ausgeprägt ist.

Prognose 2: Im tropischen Ozean, wiederum oberhalb einer bestimmten Temperaturschwelle, werden Gewitter mit steigender Temperatur sehr schnell zunehmen.

Beweise, die die zweite Prognose bestätigen:

Da es immer viel Wasser über dem tropischen Ozean gibt und viel Sonnenschein, um sie anzutreiben, werden thermisch angetriebene tropische Gewitter eine Funktion von wenig mehr als der Temperatur sein.

Abbildung 3. Höhe der Wolkenobergrenze als Indikator für hoch reichende konvektive Gewitter im Vergleich zur Temperatur der Meeresoberfläche.

Wie bei Wolken im Allgemeinen gibt es eine klare Temperaturschwelle bei etwa 26°C – 27°C, mit einem fast vertikalen Anstieg der Gewitter oberhalb dieser Schwelle. Dies setzt dem Temperaturanstieg eine sehr starke Grenze.

Prognose 3:. Vorübergehende Abnahmen des solaren Antriebs, wie z.B. durch Eruptionen, werden durch eine erhöhte Sonneneinstrahlung infolge einer verspäteten und selteneren Bildung tropischer Gewitter kompensiert. Das bedeutet, dass nach einer anfänglichen Abnahme die eingehende Sonneneinstrahlung über den Ausgangswert vor der Eruption steigt, bis der Status quo ante wiederhergestellt ist.

Belege zur Validierung der dritten Prognose

Was die dritte Prognose betrifft, so löst meine Theorie das folgende Pinatubo-Rätsel von Soden et al.5:

Ab 1994 werden zusätzliche Anomalien in den Satellitenbeobachtungen der von der Atmosphäre absorbierten Sonnenstrahlung deutlich, die nichts mit dem Ausbruch des Mount Pinatubo zu tun haben und daher in den Modellsimulationen nicht reproduziert werden. Es wird angenommen, dass diese Anomalien von dekadischen Veränderungen in der tropischen Zirkulation Mitte bis Ende der 1990er Jahre herrühren [siehe J. Chenet al., Science 295, 838 (2002); und B.A. Wielicki et al., Science 295, 841 (2002)], aber ihr Wahrheitsgehalt bleibt Gegenstand von Debatten. Wenn sie real sind, impliziert ihr Fehlen in den Modellsimulationen, dass Diskrepanzen zwischen den beobachteten und den modellsimulierten Temperaturanomalien, die durch die thermische Trägheit des Klimasystems um 1 bis 2 Jahre verzögert werden, bis Mitte der 1990er Jahre auftreten könnten.“

Abbildung 4: Abbildung 1 aus Soden mit Original-Inschrift

Dies ist jedoch ein vorhersehbares Ergebnis der emergenten Thermostat-Theorie. Hier ist die Änderung der unteren atmosphärischen Temperatur zusammen mit den ERBS-Daten von Soden:

Abbildung 5. ERBE absorbierte Sonnenenergie (oberes Feld in Abbildung 4) und UAH untere troposphärische Temperatur (TLT). Beide Datensätze enthalten eine Lowess-Glättung.

Wie von der Theorie vorhergesagt, steigt die absorbierte Sonnenenergie über die Basislinie, bis die Temperatur der unteren Troposphäre zu ihrem Wert vor dem Ausbruch zurückkehrt. An diesem Punkt hört die erhöhte Aufnahme von Sonnenenergie auf und das System befindet sich wieder in seinem stationären Zustand.

Prognose 4: Die „Klimasensitivität“ ist bei weitem keine Konstante, sondern wird sich als eine Funktion der Temperatur herausstellen.

Beweise, die die vierte Prognose bestätigen.

Die folgende Abbildung 6 zeigt die Beziehung zwischen der Nettoabwärtsstrahlung an der Oberfläche und der Oberflächentemperatur in einem Raster von 1° Breitengrad und 1° Längengrad für jede Zelle:

Abbildung 6. Streudiagramm, CERES-Nettoabstrahlung der Oberfläche (kurzwellig plus langwellig) im Vergleich zur globalen Oberflächentemperatur von Berkeley Earth. Die Steigung der Lowess-Glättung an jedem Punkt ist die „Klimasensitivität“ bei dieser Temperatur, in °C pro W/m².

Die enge Korrelation zwischen der Oberflächentemperatur und der abwärts gerichteten Strahlung bestätigt, dass es sich um eine gültige Langzeitbeziehung handelt. Dies gilt insbesondere, wenn man bedenkt, dass die beiden betrachteten Variablen aus völlig unterschiedlichen und nicht miteinander verbundenen Datensätzen stammen.

Man beachte, dass die „Klimasensitivität“ tatsächlich eine Funktion der Temperatur ist, und dass die Klimasensitivität bei den höchsten Temperaturen negativ wird. Es ist auch erwähnenswert, dass fast nirgendwo auf dem Planeten die langfristige Durchschnittstemperatur über 30°C liegt. Dies ist ein weiterer Beweis für die Existenz starker thermo-regulatorischer Mechanismen, die die durchschnittliche Erwärmung der Oberfläche effektiv begrenzen.

Prognose 5: In einigen Gebieten wird die Temperatur nicht durch die abwärts gerichtete Oberflächenstrahlung gesteuert, sondern die Oberflächenstrahlung wird durch die Temperatur gesteuert.

Beweise zur Bestätigung der fünften Prognose

Abbildung 7 unten zeigt die Korrelation zwischen der abwärts gerichteten Oberflächenstrahlung (kurzwellige plus langwellige Strahlung) und der Oberflächentemperatur. Wie erwartet, ist die Korrelation über den meisten Landmassen positiv – wenn die Einstrahlung zunimmt, steigt auch die Oberflächentemperatur.

Abbildung 7. Korrelation zwischen den monatlichen Oberflächentemperaturen und der monatlichen abwärts gerichteten Oberflächenstrahlung. Saisonale Schwankungen wurden aus beiden Datensätzen entfernt.

Über weite Bereiche des tropischen Ozeans sind die Temperatur und die Einstrahlung jedoch negativ korreliert. Da eine abnehmende Einstrahlung die Oberflächentemperatur nicht erhöhen kann, ist die einzig mögliche Schlussfolgerung, dass in diesen Gebieten die steigende Temperatur die Anzahl und Art der darüber liegenden Wolken so verändert, dass die Einstrahlung abnimmt.

CONCLUSIONS

1) Das derzeitige Klimaparadigma, das besagt, dass Änderungen der globalen Oberflächentemperatur langfristig eine einfache lineare Funktion von Änderungen des Antriebs (Einstrahlung) sind, ist falsch. Dies zeigt sich an der Unfähigkeit der Forscher, die Unsicherheit des zentralen Wertes des Paradigmas, also der „Klimasensitivität“, einzugrenzen, trotz vierzigjähriger Untersuchungen, Millionen von Dollar, Milliarden von Computerzyklen und Millionen von Arbeitsstunden, die bzgl. dieses Problems aufgewendet worden waren. Es wird auch durch die obigen Grafiken demonstriert, die zeigen, dass die „Klimasensitivität“ keineswegs eine Konstante ist, sondern eine Funktion der Temperatur.

2) Ein höchst merkwürdiger Aspekt des Klimasystems ist seine erstaunliche Stabilität. Trotz der Unterstützung einer Temperatur, die um Dutzende Grad über der des Mondes liegt, durch nichts stabiler als evaneszenten Wolken, trotz Vulkanausbrüchen, trotz Änderungen in CO2 und anderer GHG-Antriebe, trotz großer Schwankungen in Aerosolen und schwarzen Kohlenstoff variierte die Temperatur über das 20. Jahrhundert um nur ±0,2%.

3) Diese erstaunliche Stabilität impliziert und erfordert in der Tat die Existenz eines sehr starken Thermo-Regulationssystems.

4) Meine Theorie ist, dass die Thermoregulation durch eine Vielzahl von interagierenden emergenten Phänomenen bereitgestellt wird. Dazu gehören die Rayleigh-Benard-Zirkulation des Ozeans und der Atmosphäre, Staubteufelchen, tropische, thermisch angetriebene Kumuluswolkenfelder, Gewitter, Sturmböen, Wirbelstürme, Tornados, die La-Nina-Pumpe, die tropisches warmes Wasser zu den Polen bewegt und kühles darunter liegendes Wasser freilegt, und die großen Veränderungen in der Ozeanzirkulation, die mit der pazifischen dekadischen Oszillation, der nordatlantischen Oszillation und anderen ozeanischen Zyklen einhergehen.

5) Dies impliziert, dass es unwahrscheinlich ist, dass die Temperaturen aufgrund von CO2-Variationen, Vulkanen oder anderen sich ändernden Einflüssen stark von ihrem derzeitigen Zustand abweichen. Die Schwellenwerte für die verschiedenen Phänomene sind temperaturbasiert, nicht antriebsbasiert. Daher werden Variationen des Forcings sie nicht stark beeinflussen. Es stellt sich jedoch auch eine neue Frage: Was verursacht eine langsame thermische Drift in thermoregulierten Systemen?

REFERENCES

1 Knutti, R., Rugenstein, M. & Hegerl, G. Beyond equilibrium climate sensitivity. Nature Geosci 10, 727–736 (2017). https://doi.org/10.1038/ngeo3017

2 Lewes, G. H. (1874) in Emergence, Dictionnaire de la langue philosophique, Foulquié.

3 Reis, A. H., Bejan, A, Constructal theory of global circulation and climate, International Journal of Heat and Mass Transfer, Volume 49, Issues 11–12, 2006, Pages 1857-1875, https://doi.org/10.1016

4 Bejan, A, Reis, A. Heitor, Thermodynamic optimization of global circulation and climate, International Journal of Energy Research, Vol. 29, Is. 4, https://doi.org/10.1002/er.1058

5 Brian J. Soden et al., Global Cooling After the Eruption of Mount Pinatubo: A Test of Climate Feedback by Water Vapor,Science 26 Apr 2002, Vol. 296, Issue 5568, pp. 727-730, DOI: 10.1126/science.296.5568.727

Anyhow, that’s what I have to date. There are few references, because AFAIK nobody else is considering the idea that emergent phenomena act as a global thermostat. Anyone who knows of other references that might be relevant, please mention them.

Finally, any suggestions as to which journal might be willing to publish such a heretical view of climate science would be much appreciated.

Link: https://wattsupwiththat.com/2021/04/28/a-request-for-real-peer-review/

Übersetzt von Chris Frey EIKE

 




Wieder einmal: Gescheiterte Klima-Prophezeiungen

Es gibt jetzt eine Menge neuerer aktiver Kommentatoren hier, ein gutes Zeichen für Anthony und Charles. Sie haben vielleicht nicht tief in den umfangreichen WUWT-Archiven gegraben. Eine Möglichkeit, ihren Dialog über das große Bild zu gestalten, ist, sich einige der grundlegendsten gescheiterten Vorhersagen der Klima-Alarmisten anzusehen und warum sie gescheitert sind. Hier sind neun von meinen eigenen GROSSEN, gruppiert nach drei Ursprüngen.

Modelle

● Es gibt einen modellierten tropischen Troposphären-Hotspot. ABER, wie John Christy vor dem Kongress im Jahr 2016 aufzeigte, ist dieser in der Realität nicht existent. Die Klimamodelle überbewerten die Erwärmung der tropischen Troposphäre um etwa das Dreifache. Der plausibelste Grund ist Eschenbachs Hypothese der aufkommenden Phänomene, insbesondere Gewitter. Diese waschen Feuchtigkeit aus, können aber nicht modelliert, sondern nur parametrisiert werden. (Details in einem lange zurückliegenden Beitrag, ‚The trouble with climate models‚ [in deutscher Übersetzung beim EIKE hier]). Aus Beobachtungen heraus modellierte CMIP5 etwa die Hälfte der tropischen Niederschläge, die ARGO beobachtet, durch Änderungen des Salzgehalts der Thermokline. Es stimmt also.

● Modelle passen Anomalien ausreichend an, um mit Beobachtungen übereinzustimmen. Eigentlich ist das nur halb wahr, denn die erforderlichen Modellparameter werden so lange abgestimmt, bis sie stimmen. Die Täuschung liegt in der Verwendung von Modellanomalien. In Wirklichkeit wichen die CMIP5-Modelle in Bezug auf die absolute Temperatur im Jahr 2000 (früh in ihrer Abstimmungsperiode) um ~4C vom beobachteten globalen Durchschnitt von ~15,5C ab.

Fast keine waren nahe an der beobachteten Realität – fast alle waren viel zu warm. Anomalien verbergen diesen grundlegenden Vorhersagefehler des Klimamodells.

● Modelle sagen zuverlässig eine ‚Gleichgewichts-Klimaempfindlichkeit‘ (ECS) von etwa 3C voraus. Wiederum halb wahr. Sie tun es alle, aber nicht „zuverlässig“. Beobachtete ECS unter Verwendung von Energiebudget- (und anderen) Methoden zeigen konsistent etwa 1,6-1,7C, etwa die Hälfte der modellierten. Das ist eine große Sache, da die ganze alarmistische Untergangsstimmung von einem hohen ECS (oder seinem nahen Verwandten TCR) abhängt. Bei 1,6 gibt es überhaupt kein Klimaproblem. Bei 3 gibt es vielleicht eines, vielleicht auch nicht. Die Diskrepanz zwischen Modell und Beobachtung ist so groß, dass der AR5 es abgelehnt hat, eine zentrale Schätzung des ECS zu erstellen, eine peinliche Unterlassung.

Fortsetzung

Der Meeresspiegelanstieg wird sich beschleunigen. Aber das ist nicht der Fall, basierend auf langen Aufzeichnungen differentieller GPS-korrigierter Gezeitenpegel, von denen es jetzt etwa 70 gibt. Der Grund dafür ist, dass wir ähnliche Bedingungen wie im letzten Eem-Interglazial erleben (das Holozän ist jetzt laut Paläoproxy- und Eiskernaufzeichnungen etwa 1 °C kälter), währenddessen die geologischen Beweise auf einen maximalen Eem-Meeresspiegelanstieg (SLR) von etwa 2,2 mm/Jahr hindeuten – genau das, was wir jetzt beobachten, mit Abschluss, von den langen Aufzeichnungen der Gezeitenpegel im letzten Jahrhundert. Es gibt keine SLR-Beschleunigung.

● Die Ernteerträge werden ausfallen und die Menschen werden verhungern. Dies war das Thema meines ersten Beitrags hier vor langer Zeit. Die schreckliche NRDC-Vorhersage an den Kongress basierte auf zwei Unwahrheiten. Erstens stellten sie die „schlechteste“ Vorhersage als die Norm dar. Zweitens war das „schlimmste“ Papier, auf das sie sich für Mais stützten, selbst grundlegend fehlerhaft (ob absichtlich oder aus Inkompetenz, darüber kann man streiten). Es handelte sich um eine umfangreiche statistische Analyse der US-Maiserträge im Laufe der Zeit, und zwar auf der Ebene der einzelnen US-Bezirke für alle wichtigen Mais produzierenden Staaten. Sie behauptete zu zeigen, dass vorübergehende Temperaturen über x die Maiserträge dauerhaft um y reduzierten. AUSSER, ihre multivariate Regressionsanalyse ließ einen wichtigen kovarianten Term aus, Temperatur x Wasser. Die Logik der Auslassung war, dass Temperatur und Wasser meteorologisch nicht korreliert sind. Richtig. Der Fehler in ihrer Argumentation war, dass Mais WIRKLICH wichtig ist, und ihre y-Variable war der Maisertrag. Der ausgelassene Term verfälscht ihre Analyse, wie (nachdem die Autoren unter Alarmisten berühmt wurden und dann dummerweise ihre nun berühmten Maisdaten in grafischer Form veröffentlichten) durch einfache visuelle Inspektion und ein wenig Logik leicht ersichtlich wurde. Keine fortgeschrittene Statistik erforderlich. Schlussfolgerung: BOGUS.

Eisbären werden aussterben, weil das arktische Sommereis irgendwann verschwinden wird (die Vorhersage, wann das sein wird, variiert, aber Wadkins war ein führender Alarmist, der bereits dreimal bewiesen hat, dass er falsch liegt). Wie Dr. Susan Crawford schon mehrfach betont hat, ist die gesamte wissenschaftliche Aussterbeprämisse falsch. Eisbären nehmen etwa 80% ihrer jährlichen Kalorienzufuhr während der Robbenfangsaison im Frühjahr auf. In der Tat ist zu dickes Eis im Frühjahr, nicht zu dünnes, ein Problem für Robben und dann für Bären. Sie sind zur Nahrungsaufnahme überhaupt nicht auf das Sommereis angewiesen. Sie kommen an Land und ernähren sich dann im Sommer wie ihre nahen Verwandten, die Braunbären (Grizzlybären), opportunistisch von Eiern aus Vogelnestern, Beeren, Aas wie angeschwemmten toten Walen und Walrossen, vielleicht sogar von einem gelegentlichen unglücklichen Karibu-Kitz.

Lösungen

● „Erneuerbare“ Energien und der Green New Deal (GND). AOC und Konsorten haben offensichtlich keine Ahnung von Elektrotechnik. Das Netz soll zuverlässig sein. Erstens sind „erneuerbare“ Energien (Wind, Sonne) intermittierend. Daher brauchen sie bei jeder signifikanten Verbreitung ein Backup, ein großer Kostenfaktor, der von den stets subventionierten (weil unwirtschaftlichen) „erneuerbaren“ Energien nicht getragen wird. Zweitens erfordert das Netz Frequenzstabilität, auch bekannt als Netzträgheit. „Erneuerbare“ Energien sind asynchron, liefern also keine. Große rotierende konventionelle Generatoren, die mit Kohle, Erdgas oder Kernkraft betrieben werden, liefern automatisch Trägheit. Es gibt eine Lösung, die als Synchronkondensator bezeichnet wird (im Wesentlichen eine große, sich drehende, aber nicht angetriebene Generatormasse), aber auch für diese leisten die „erneuerbaren“ Energien keinen Beitrag, also werden keine hinzugefügt.

EVs werden das „Kohlenstoff“-Problem der Benzin-/Diesel-Emissionen lösen. Sie benötigen große Mengen an Kobalt und Lithium (Hydroxid oder Karbonat). Von beidem haben wir nicht genug, und die Aussichten, die Situation in den nächsten Jahrzehnten durch neue Minen zu verbessern, sind bei der vom GND gewünschten Verbreitung von Elektrofahrzeugen gleich null. Lithium ist das 33. am häufigsten vorkommende Element der Erde, Kobalt das 31. Die Aussichten sind auf lange Sicht NICHT gut. Im Vergleich zur Häufigkeit in der Erdkruste (allein) liegt Aluminium auf Platz 3, Eisen auf Platz 4 und Kohlenstoff auf Platz 17. Übersetzung: Cola-Dosen und Flugzeuge, Stahl was auch immer, und „Kohlenstoff“-Treibstoffe haben wir. EV-Batterien, nicht so sehr. Ignoriert man die Dominanz Chinas bzgl. der Seltenen Erden kommt die Umweltvergiftung ist Spiel, nicht der Überfluss. Die USA haben ein sehr großes Vorkommen an der Grenze zwischen Kalifornien und Nevada in der Mountain-Pass-Mine, die jetzt im Besitz von China ist. Das Kostenproblem ist nicht das Erz, sondern die Folgen der Umweltaufbereitung. China kümmert das nicht. Uns schon. Vorteil China.

EVs werden eine große Investition in das Stromnetz erfordern. T&D plus Erzeugung. Eine grobe Schätzung ist das Doppelte, um Benzin und Diesel zu verdrängen. Das ist weder im Zeitrahmen von Biden/.GND möglich, noch auch nur annähernd wirtschaftlich. Das Versprechen von Unmöglichem mag sich gut anhören, endet aber in der Realität immer schlecht

Link: https://wattsupwiththat.com/2021/04/26/failed-climate-predictions/

Übersetzt von Chris Frey EIKE

 




NASA und NOAA „PASSEN“ Temperaturdaten an: Die Rohdaten zeigen, dass die USA sich ggü. den 30er Jahren abgekühlt haben

Das (im Original GIF animierte) Diagramm zeigt klar die historischen US Klimatologie Netzwerk -Stationen  mit Rohdaten und danach mit offiziellen Anpassungen durch NASA und NOAA .

Hier sehen Sie die offiziell „adjusted“  maximalen Temperaturdaten über die Jahre 1920  – 2020, die einen Erwärmungstrend zeigen.

Und hier sind es die tatsächlichen „gemessenen“ Daten, die einen unverkennbaren Abkühlungstrend aufzeigen.

Unten sehen Sie eine vergrößerte Ansicht der US-Thermometerdaten, bevor die NASA / NOAA ihre schmuddeligen „adjustments“ vornahm.

Durchschnittliches Temperaturmaximum 1901 – 2019 ,  Rote Linie gleitendes 5 Jahres Mittel

Die Grafik zeigt, dass die Temperaturen von 1920 bis 1960 tatsächlich wärmer waren als heute. Es war angenehm wärmer,  oft mit 2 bis 3 Grad Fahrenheit. (~ 1,5 bis 2 °C)

Der gleiche Trend ist in der vorstehenden Grafik zu erkennen, in der der Prozentsatz der Tage über 32,2 ° C (90 ° F) in den Jahren zwischen 1901 und 2019 erneut an allen Stationen des US-amerikanischen Netzwerks für historische Klimatologie angegeben ist (beachten Sie auch, dass die Grafik bis 2019 läuft und daher die Rekordkälte der letzten anderthalb Jahre ausschließt) Quelle: [Climate Science Special Report]

Die Daten zur Nationalen Klimabewertung stützen den Trend weiter und zeigen, dass die Sommer in den Vereinigten Staaten von 1910 bis 1960 viel heißer waren.

Darüber hinaus zeigen die jüngsten Beobachtungen [Observations] der Meeresoberflächentemperatur – selbst die von den Erwärmungsaktivisten kontrollierten – deutlich, dass sich die Projektionen katastrophaler Klimaentwicklungen als weit von der Realität entfernt erweisen:

Mehr zum Thema finden Sie HIER.

Wenn Sie sich noch nicht darauf eingelassen haben, dass Regierungen ihre Bevölkerung routinemäßig anlügen, sollten Ihnen die obigen Diagramme einen Einblick dazu bieten. Die globale Erwärmung ist kaum „global“, wenn die Vereinigten Staaten – das viertgrößte Land der Erde – sich abkühlen seit dem Ende von „the dust bowl“ [Katastrophenfilm von 2012, über die schlimmen Auswirkungen von Sandstürmen, durch Klimawandel und natürlich Menschen verursacht]. Und ich denke, es ist auch vernünftig anzunehmen, dass nicht nur die USA seit Mitte der 1930er Jahre einen Abkühlungstrend erleben. Der nordamerikanische Kontinent ist geografisch nicht einzigartig – und diese Beobachtungen stimmen gut mit der beobachteten Sonnenaktivität überein,  nachdem die zwischen 1930 und 1960 zunehmende Aktivität allmählich nachgelassen hat:

Sonnenzyklen und Sonnenflecken

Die Daten können leicht manipuliert werden und manipulierte Statistiken werden verwendet, um die Aussagen der Politik zu beweisen und Richtlinien zu erlassen. Und heute scheinen Regierungsbehörden – gespielt von den unsichtbaren Strippenziehern über ihnen – ein glänzendes und mächtiges neues Werkzeug gefunden zu haben, um ihr Angst- und Kontrollarsenal durchzusetzen: „den Klimanotfall “.

Ein letzter Hinweis zu diesem Thema:

Die durch „Feuerbrünste“ betroffene Landfläche war von 1910 bis 1960 viel höher als heute, was nicht verwunderlich ist, da Hitzewellen normalerweise mit Dürre verbunden sind, betont Tony Heller. Es besteht eine enge Korrelation zwischen Hitzewellen und Brandfläche, wie in der obigen Tabelle dargestellt, die die offiziellen Daten von Hitzewellen (rote Linie) mit denen der Verbrennungsfläche (blaue und grüne Linien) überlappt.

Die Klimaaktivisten möchten, dass Sie glauben, dass Waldbrände eine direkte Folge steigender Temperaturen sind, aber wie Tony Heller gezeigt hat: Die Temperaturen steigen nicht und die Brandflächen nehmen auch nicht zu.

Die tatsächlichen Daten zerstören die Einpeitschungen eines „Klimanotfalls“  und so hat die Biden-Regierung kürzlich die Branddaten vor 1983 gelöscht, mit der glanzlose Begründung, dass „es nicht offiziell war“ ( hier verlinkt ).

Total Wildland Fires and Acres (1983-2020)

Vor 1983 verfolgten die föderalen Waldbrandbehörden die offiziellen Waldbranddaten nicht unter Verwendung der aktuellen Meldeverfahren. Infolgedessen werden auf dieser Website keine offiziellen Daten von vor 1983 veröffentlicht.

Wenn man etwas tiefer gräbt,  wird einem der wahre Grund klar, warum sie die Daten vor 1983 gelöscht haben. Das Jahr 1983 registrierte die geringste Brandfläche. Ab 1983 konnten sie es so aussehen lassen, als würde die Brandfläche zunehmen.

In der Realität besteht keine Korrelation zwischen steigendem CO2 und der verbrannten Fläche. Die Brandfläche in den USA ist tatsächlich um 90 Prozent gesunken, als der CO2 Anteil noch auf vorindustriellem Niveau lag – aber die Behörde hat kürzlich auch dieses Dokument gelöscht:

Übersetzung des rot markierten Textteiles:

In den heutigem Gebieten der USA brannten in der vorindustriellen Zeit (1500 – 1800) durchschnittlich 145 Millionen Acres pro Jahr [~ 586.000 km², zum Vergleich Deutschland: 357,386 km²]. Heute werden jährlich nur 14 Millionen Acres  (Bundes- und Nicht-Bundesland) verbrannt

 

Fallen Sie nicht auf die täglichen Lügen herein, die von machtgierigen Politikern, willfährigen Wissenschaftlern und fremdfinanzierten Aktivisten verbreitet werden .

Die Beobachtungen zeigen, dass die KALTEN ZEITEN zurückkehren, dass die mittleren Breiten sich ABKÜHLEN,  im Einklang mit  der großen Konjunktion , der historisch geringen Sonnenaktivität , den  wolkenkeimbildenden kosmischen Strahlen und einem  meridionalen Jetstream-Fluss (neben anderen Einflüssen).

Sowohl NOAA als auch NASA scheinen sich jedoch einig zu sein – wenn Sie zwischen den Zeilen lesen. NOAA sagt, dass wir  Ende der 2020er Jahre ein  „ausgewachsenes“ Grand Solar Minimum erreichen  und die NASA sieht diesen bevorstehenden Sonnenzyklus  (25)  als “ das schwächste der letzten 200 Jahre “.

NASA veröffentlichte früher Artikel mit Überschriften wie:

Niedrige Temperaturen während des Maunder-Minimums

…. Von 1650 bis 1710 sanken die Temperaturen in weiten Teilen der nördlichen Hemisphäre, als die Sonne in eine ruhige Phase eintrat, die jetzt als Maunder-Minimum bezeichnet wird. Während dieser Zeit traten nur sehr wenige Sonnenflecken auf der Sonnenoberfläche auf, und die Gesamthelligkeit der Sonne nahm leicht ab. Bereits mitten in einer überdurchschnittlich kälteren Zeit, der kleinen Eiszeit, gerieten Europa und Nordamerika in einen Tiefkühlzustand: Alpengletscher erstreckten sich über Ackerland bis ins Tal; Meereis kroch südlich von der Arktis; und die berühmten Kanäle in den Niederlanden froren regelmäßig ein – ein Ereignis, das heute selten ist.

… Der Einfluss des Sonnenminimums ist in diesem Bild deutlich zu sehen, das den Temperaturunterschied zwischen 1680, einem Jahr im Zentrum des Maunder-Minimums, und 1780, einem Jahr normaler Sonnenaktivität. Tiefes Blau in Ost- und Mittel-Nordamerika sowie in Nord-Eurasien zeigt, wo der Temperaturabfall am größten war. Fast alle anderen Landflächen waren 1680 ebenfalls kühler, was durch die unterschiedlichen Blautöne angezeigt wird. Die wenigen Regionen, die 1680 wärmer zu sein scheinen, sind Alaska und der östliche Pazifik (links), der Nordatlantik südlich von Grönland (links von der Mitte) und nördlich von Island (oben in der Mitte).

Darüber hinaus können wir die Vielzahl neuer wissenschaftlicher Arbeiten nicht ignorieren, in denen die immensen Auswirkungen  des Beaufort Gyre  auf den Golfstrom und damit auf das Klima insgesamt dargelegt werden.

https://electroverse.net/u-s-has-been-cooling-since-the-1930s/

Übersetzt durch Andreas Demmig

Nachsatz:

Über „Manipulation“ berichteten wir auf Eike schon häufig. Nutzen Sie die Suchfunktion um die Beiträge zu finden.

 

 




Abkühlung oder Erwärmung – aber immer das gleiche Rezept dagegen

Leonard Nimoy (Spock) präsentierte diese Story in Videos wie diesem:

Während ich an der Universität von Wisconsin an meinem BS und MS mit meiner Masterarbeit zum Thema „Explosive Redevelopment In East Coast Cyclones“ arbeitete, gaben die Wissenschaftler der Verbrennung fossiler Brennstoffe und dem vom Menschen eingeführten Feinstaub die Schuld an der Abkühlung, der wie ein „menschlicher Vulkan“ wirkte und genau wie diese die Sonnenstrahlen reflektierten und Abkühlung bringen würde, was die natürlichen Kräfte verstärkte.

Die Lösung sah man in der Beseitigung der Schadstoffe und schon damals in der Suche nach Alternativen zu fossilen Brennstoffen. Der zweite Zielfokus während des arabischen Ölembargos von 1973 führte zu Engpässen und Preissteigerungen, aber erneuerbare Energien waren damals noch nicht reif für die Grundlast und, wie das Texas-Debakel zeigte, sind auch heute noch nicht zuverlässig für die Bereitstellung der Grundlast und werden zu steigenden Energiepreisen und lebensbedrohlichen Stromausfällen führen.

Dann änderte sich die Phase des Pazifiks

Aber nach der großen pazifischen Klimaverschiebung Ende der 1970er Jahre kam es zu einer Erwärmung, da stärkere, länger anhaltende El Ninos, die eine globale Erwärmung hervorrufen, plötzlich gegenüber den La Ninas bevorzugt wurden, deren Dominanz zuvor zu der Abkühlung geführt hatte.

Ab 1988 reifte in so Manchem der Gedanke, dass diese neue Phase die goldene Gelegenheit sein könnte, die Kontrolle über unsere Energiepolitik zu übernehmen und die Medienberichterstattung umzulenken.

Showtime

1988 orchestrierten die Demokraten eine Anhörung, die vom damaligen Senator Al Gore inszeniert wurde und bei der der Senator Tim Wirth (später Leiter der UN-Stiftung – siehe Chris Horners Red Hot Lies) den NASA-Wissenschaftler James Hansen vorstellte, der seinen Eiszeit-Hut gegen einen eintauschte, der für die von Menschen verursachte globale Erwärmung warb.

Die NYT berichtete:

Senator Timothy E. Wirth, der Demokrat aus Colorado, der heute die Anhörung leitete, sagte:

So wie ich es lese, sind die wissenschaftlichen Beweise zwingend: Das globale Klima verändert sich, während die Erdatmosphäre wärmer wird. Jetzt muss der Kongress damit beginnen, darüber nachzudenken, wie wir diesen Erwärmungstrend verlangsamen oder aufhalten können und wie wir mit den Veränderungen, die vielleicht schon unvermeidlich sind, umgehen können.“

New York Times 1988

Wie der inszenierte Link zeigt, hatte Tim noch andere Gründe, diesen Weg zu gehen:

„Wir müssen das Problem der globalen Erwärmung angehen. Selbst wenn die Theorie der globalen Erwärmung falsch ist, werden wir das Richtige tun, in Bezug auf die Wirtschafts- und Umweltpolitik.“

Timothy Wirth zitiert in Science Under Siege von Michael Fumento, 1993

Die Politiker und Medien begannen bei diesem Treffen ihren 30 Jahre andauernden Angriff auf fossile Brennstoffe und unsere Lebensweise. Genährt durch eine plötzliche Flut von Fördergeldern, sprangen viele Leute aus den verschiedensten Disziplinen als selbsternannte Klimatologen, Umweltwissenschaftler und Modellierer an Bord.

An beiden Enden des Warm- und Kaltzyklus war der Feind also derselbe – Menschen und fossile Brennstoffe.

[Hervorhebung vom Übersetzer]


Beachten Sie die Abflachung seit den späten 1990er Jahren. Ich vermute, wenn eine Abkühlung eintritt, weil sich die Ozeane in der zweiten Schwächephase der Sonne nacheinander abkühlen, werden die Führer und Medien einen Weg finden, die Leichtgläubigen davon zu überzeugen, dass es ihre eigene Schuld war.

Siehe hier eine von mehreren Studien zum Thema neues Grand Solar Minimum, das gerade begonnen haben könnte.

Link: http://icecap.us/index.php/go/new-and-cool/man_attribution_to_natural_change_but_always_the_same_remedy/

Übersetzt von Chris Frey EIKE

 




Wie mittels Coronapanik & „Klimaschutz“ das Grundgesetz beerdigt wurde.

Haben Sie eigentlich auch Blumen oder einen Kranz zur Beerdigung geschickt? Sie wissen nicht, von welcher Beerdigung ich spreche? Ich rede von der Beerdigung des Grundgesetzes. Denn das Grundgesetz, das bislang in Deutschland galt und das ich als Jura-Student gründlich gelernt habe, wurde zu Grabe getragen. Es war kein lauter Militär-Putsch mit Toten und Verletzten, sondern ein ganz leiser, stiller und sich „normal“ gerierender Abschied, in etwa so wie der Abschied von Prinz Philip in Großbritannien. Dieser Abschied, eigentlich ein Staatsstreich, wurde betrieben und durchgeführt von den eigenen Institutionen des Staates. Wie komme ich zu dieser Behauptung?

Es sind zwei Dinge, mit denen faktisch die Geltung der Grundrechte, wie sie im Grundgesetz stehen, und die Freiheit, wie sie im Grundgesetz definiert ist, auf die Müllhalde der Geschichte verabschiedet wurden. Bei diesen zwei Dingen, die das Ende einer freiheitlich-demokratischen Grundordnung eingeläutet haben, handelt es sich um die sogenannte Notbremse im Infektionsschutzgesetz und um den Beschluss des Bundesverfassungsgerichts vom 24.03.2021 zu Verfassungsbeschwerden gegen das Bundes-Klimaschutzgesetz.

Zunächst ist hier die von den Regierenden herbeigeführte „Notbremse“, also § 28b Infektionsschutzgesetz, zu erörtern. Diese Vorschrift klingt erst einmal recht harmlos und ist doch angeblich „für einen guten Zweck“. Bereits an dieser Stelle sollte man hellhörig werden. Denn das Ermächtigungsgesetz von 1933 klang in den Ohren der meisten damaligen Zeitgenossen auch recht harmlos – man hatte schon mehrere Notverordnungen und Notstandsgesetze in der Weimarer Republik erlebt – und es sollte doch auch nur einem guten Zweck dienen. Was ist also an § 28b Infektionsschutzgesetz so schlimm?

An diesem Gesetz ist so schlimm, dass damit auf dem Gebiet des Infektionsschutzgesetzes der Föderalismus abgeschafft wurde. Von nun an wird zentralistisch von Berlin aus bis in den letzten Kreis und das letzte Dorf in Deutschland durchregiert. Aber das ist ja nach Meinung der Herrschenden auch gut so. Denn ein zentralistisches Durchregieren ist doch viel effektiver als der blöde Föderalismus. Wir haben außerdem mit dem Zentralismus in Deutschland immer gute Erfahrungen gemacht, das war von 1933 bis 1945 in ganz Deutschland so und von 1945 bis 1989 in Ostdeutschland. Also wofür noch diesen blöden Föderalismus?

An § 28b Infektionsschutzgesetz ist über seinen Inhalt hinaus schlimm, wie dieser Paragraph formal zustande kam und Gesetz wurde. Nach dem Modell des Grundgesetzes steht die gesamte staatliche Macht grundsätzlich den Ländern zu und nur in genau bezeichneten Ausnahmen dem Bund (Art. 30 GG). Bei den Gesprächsrunden mit Kanzlerin Merkel hätten also eigentlich die Ministerpräsidenten den Ton angeben müssen und hätte Merkel lediglich moderieren und vermitteln dürfen. In der Realität sah es genau andersherum aus. Merkel machte die Ansagen und die Ministerpräsidenten kuschten wie eine Schulklasse von Pennälern.

Die Ministerpräsidenten haben sich aber auch von ihrem eigenen Amt verabschiedet

Von den mächtigen Landesfürsten war so gut wie nichts zu hören. Hierzu ein konkretes Beispiel: Selbst in der Situation, als deutsche Urlauber über Ostern nach Mallorca fliegen und dort in Hotels wohnen konnten, aber die Hotels an der deutschen Nord- und Ostseeküste geschlossen blieben (trotz guter Hygiene-Konzepte), kam von den Ministerpräsidenten der Meeres-Anrainer-Bundesländer (Schleswig-Holstein, Niedersachen, Mecklenburg-Vorpommern) keine Reaktion. Wenn die Ministerpräsidenten dieser drei Bundesländer so etwas ähnliches wie ein Rückgrat gehabt hätten, wären sie aufgestanden und hätten die Besprechung mit Merkel verlassen. Aber tatsächlich passierte nichts. Überhaupt nichts. Die Ministerpräsidenten – alle Ministerpräsidenten – haben sich zwar als angeblich selbstbewusste Landesfürsten präsentiert, insbesondere unser Super-Ministerpräsident Söder, tatsächlich aber als stromlinienförmige, rückgratlose Würmer herausgestellt.

Das i-Tüpfelchen war dann die faktische Zustimmung der Bundesländer zum § 28b Infektionsschutzgesetz im Bundesrat. Zumindest an dieser Stelle hätten die Ministerpräsidenten die Zustimmung zum Gesetz verweigern und den Vermittlungs-Ausschuss anrufen können. So sähe es eigentlich das Grundgesetz bei einer streitigen Gesetzesvorlage für ein Bundesgesetz vor. Es wurde doch sonst in jeder Sonntagsrede von den Ministerpräsidenten der Föderalismus und seine Sinnhaftigkeit so hoch gelobt. Aber als es jetzt ernst wurde, unterschrieben sie ihr eigenes Abdankungs-Urteil. Die Bundesländer ließen § 28b Infektionsschutzgesetz im Bundesrat ohne jeglichen Widerstand passieren.

Mit diesem Gesetz haben sich alle Beteiligten – die Kanzlerin, die Ministerpräsidenten und die Abgeordneten des Bundestages, die für das Gesetz gestimmt haben – vom Föderalismus-Modell des Grundgesetzes endgültig verabschiedet. Die Ministerpräsidenten haben sich aber auch von ihrem eigenen Amt verabschiedet.

Denn solches Personal wie die jetzigen Ministerpräsidenten braucht wirklich niemand mehr. Wofür benötigen wir beispielsweise noch 16 verschiedene Landesbauordnungen oder 16 verschiedene Landesschulgesetze? Wenn dann doch allein Berlin festlegt, wann Schulen geschlossen werden müssen. Und wofür brauchen wir dann noch 16 Landesparlamente und 16 Landesregierungen mit Ministerpräsidenten, Ministern und Staatssekretären, wenn letztlich allein das Bundeskanzleramt den Durchblick bei den inneren Angelegenheiten hat und der Bundestag dem mehrheitlich zustimmt?

Absichtlich den Rechtsschutz für die Bürger abgeschnitten

Der schlimmste Aspekt von § 28b Infektionsschutzgesetz ist aber, dass damit in diesem Bereich absichtlich der Rechtsschutz für die Bürger abgeschnitten werden sollte und abgeschnitten wurde.

Als Jura-Student habe ich vor vielen Jahren gelernt, dass nach Art. 19 Abs. 4 S. 1 GG jeder Bürger einen Anspruch auf effektiven Rechtsschutz gegen Maßnahmen der öffentlichen Gewalt hat. Das war über 70 Jahre lang die gemeinsame Überzeugung aller Juristen in Deutschland und die ständige Rechtsprechung des Bundesverfassungsgerichts. Aber davon ist nichts mehr übriggeblieben. Der Bundestag hat mit Zustimmung des Bundesrates genau das Gegenteil gemacht: Er hat einen bestehenden Rechtsschutz abgeschafft.

Bislang waren die Corona-Maßnahmen in Rechtsverordnungen der Länder geregelt, gegen die der einzelne Bürger ein ordentliches Rechtsmittel hatte, nämlich den Normenkontrollantrag nach § 47 VwGO. Der Normenkontrollantrag nach § 47 VwGO ist aber nur gegen Rechtsverordnungen der Länder möglich, nicht gegen Gesetze oder Rechtsverordnungen des Bundes. Bei § 28b Infektionsschutzgesetz handelt es sich aber um ein Bundesgesetz. Also ist kein ordentliches Rechtsmittel mehr dagegen gegeben. Es ist ein Schelm, der Böses dabei denkt. Angela Merkel hat es unlängst selbst ausgesprochen, dass das der Sinn der Übung war, nämlich die lästigen Klagen bei den Oberverwaltungsgerichten zu beenden.

Theoretisch kann zwar der einzelne Bürger noch Verfassungsbeschwerde zum Bundesverfassungsgericht erheben. Bei der Verfassungsbeschwerde handelt es sich aber um kein ordentliches Rechtsmittel, sondern um einen außerordentlichen Rechtsbehelf. Außerdem bedarf die Verfassungsbeschwerde der Annahme durch das Bundesverfassungsgericht. Wenn die Damen und Herren in Karlsruhe also keine Lust haben, lehnen sie einfach die Annahme der Verfassungsbeschwerde ab, ohne sich überhaupt inhaltlich mit dem Vorgebrachten zu beschäftigen. Wenn man ehrlich ist, ähnelt die Verfassungsbeschwerde oftmals mehr einem Gnadenakt als überhaupt noch einem Rechtsmittel.

Infektionsschutzgesetz nur die Generalprobe

Es muss also nochmals deutlich für alle Nichtjuristen herausgestellt werden: Durch § 28b Infektionsschutzgesetz wurde ein bestehender Rechtsschutz abgeschafft. Art. 19 Abs. 4 S. 1 GG wurde mit Füßen getreten. Und fast alle haben mitgemacht: unsere Bundeskanzlerin (der Gesetzentwurf stammte aus dem Kabinett), die Abgeordneten des Bundestages, die für das Gesetz gestimmt haben, und die Ministerpräsidenten der Länder, die im Bundesrat dem Gesetz nicht entgegengetreten sind.

Wenn es sich bei dem Vorgehen der Herrschenden (Abschaffung des Föderalismus nach Art. 30 GG im Infektionsschutz-Bereich, Abschaffung eines effektiven Rechtsschutzes nach Art. 19 Abs. 4 GG in diesem Bereich) nur um einen einmaligen Ausrutscher handeln würde, könnte man darüber großzügig hinweggehen. Aber das Gegenteil ist leider der Fall. Denn es steht zu befürchten, dass § 28b Infektionsschutzgesetz nur die Generalprobe war und dass wir in Zukunft regelmäßig mit Grundrechtseinschränkungen aus politischen Motiven „beglückt“ werden.

  • 28b Infektionsschutzgesetz ist eine perfekte Blaupause für zukünftige Einschränkungen und Beschneidungen von Grundrechten, beispielsweise zum angeblichen Klimaschutz (als ob der Mensch oder ein so kleiner und unbedeutender Teil der Menschheit wie Deutschland ernsthaft in der Lage wäre, das Weltklima zu verändern oder zu „retten“. Welche eine Anmaßung). Man kann dann sogar teilweise den jetzigen Gesetzes-Text gleich weiterverwenden und muss nur noch Kleinigkeiten ändern. Das ist doch sehr praktisch. Statt eines bestimmten Inzidenzwertes (aktuell 100 nach dem Gesetz) kann man dann ja regeln, dass ab einem bestimmten – ebenso willkürlichen – CO2-Wert oder ab einem bestimmten NOx-Wert oder ab einem bestimmen Temperatur-Wert das Autofahren verboten wird, Flugreisen verboten werden, Ausgangssperren verhängt werden, Schulen, Theater und Kinos geschlossen werden und dergleichen.

Das alles ist keine bloße Fantasie. Vielmehr haben schon verschiedene Politiker, insbesondere unser Ober-Experte für Corona, Karl Lauterbach, ganz offen darüber gesprochen, dass man Grundrechtseinschränkungen wie für Corona auch für den Klimaschutz einsetzen müsste.

Keinen Schutz mehr gegen Grundrechtseinschränkungen

An diesem Punkt komme ich dann zum Bundesverfassungsgericht und seiner jüngsten Entscheidung zum Klimaschutzgesetz. Das Traurige ist nämlich, dass nicht nur einige durchgedrehte Politiker solche Grundrechtseinschränkungen herbeireden, sondern dass das Bundesverfassungsgericht genau solche zukünftigen Grundrechtseinschränkungen für den Klimaschutz „abgesegnet“ hat. Es ist mit dieser Entscheidung völlig klar, dass es in Zukunft vom Bundesverfassungsgericht keinen Schutz mehr gegen Grundrechtseinschränkungen, welcher Art auch immer, gegen Maßnahmen zum Klimaschutz geben wird. In seinem Beschluss zum Klimaschutzgesetz heißt es wörtlich:

„Zwar können selbst gravierende Freiheitseinbußen künftig zum Schutz des Klimas verhältnismäßig und gerechtfertigt sein; gerade aus dieser zukünftigen Rechtfertigbarkeit droht ja die Gefahr, erhebliche Freiheitseinbußen hinnehmen zu müssen. Weil die Weichen für künftige Freiheitsbelastungen aber bereits durch die aktuelle Regelung zulässiger Emissionsmengen gestellt werden, muss deren Auswirkung auf künftige Freiheit aus heutiger Sicht und zum jetzigen Zeitpunkt – in dem die Weichen noch umgestellt werden können – verhältnismäßig sein“ (Randnummer 192 der Entscheidung).

Das ist ein „Hammer“. In der Sache hat sich das Bundesverfassungsgericht damit nämlich vom Grundgesetz verabschiedet. Denn es macht völlig klar, dass selbst „gravierende“ Freiheitseinbußen zum Schutz des Klimas möglich sind und es dagegen nicht einschreiten wird.

Bislang waren Einschränkungen von Grundrechten nur nach den besonderen Voraussetzungen der Artikel 1 bis 20 Grundgesetz möglich. Dabei war die Einschränkungsmöglichkeit von Grundrechten im Grundgesetz selbst geregelt, nämlich im Rahmen eines einfachen Gesetzesvorbehaltes, eines qualifizierten Gesetzesvorbehaltes oder – mangels ausdrücklicher Einschränkbarkeit eines Grundrechtes – durch andere Grundrechte im Rahmen einer praktischen Konkordanz.

Von dieser klaren Systematik hat sich das Bundesverfassungsgericht verabschiedet, wenn es nebulös davon spricht, dass Maßnahmen zum Klimaschutz zukünftig auch gravierende Freiheitseinbußen rechtfertigen können. Aus einem bloßen Staatsziel in Art. 20a GG – und mehr war das bislang nicht nach ganz überwiegender verfassungsrechtlicher Ansicht – macht das Bundesverfassungsgericht plötzlich eine eigenständige Rechtfertigung für alle möglichen Eingriffe in alle möglichen Grundrechte. Das war es dann mit den Grundrechten.

Verbote von Autofahrten und Flugreisen

Denn es liegt auf der Hand, dass wirklich alle Grundrechtseinschränkungen, die wir seit dem Beginn der Corona-Krise erlebt haben, auch mit dem Schutz des Klimas formal begründet werden können. Beispielsweise Verbote von Autofahrten und Flugreisen sind danach gut, weil weniger CO2 ausgestoßen wird. Das rechtfertigt also einen Eingriff in die allgemeine Handlungsfreiheit und in die Berufsfreiheit (auf Menschen, die gerne einmal Auto fahren oder die beruflich bedingt mit einem Auto fahren müssen, wird dann mit Sicherheit keine Rücksicht mehr genommen werden).

Auch nächtliche Ausgangssperren ließen sich damit begründen, weil durch weniger Verkehr zur Nachtzeit, durch weniger Treffen von Menschen und durch weniger Partys natürlich auch weniger CO2 ausgestoßen würde.

Auch die Schließung von Theatern und Kinos lässt sich leicht mit dem Klimaschutz rechtfertigen. Denn die meisten Besucher von Theatern und Kinos gelangen mit Autos oder öffentlichen Verkehrsmitteln dort hin und wieder zurück. Auch dabei wird „völlig unnötig“ CO2 ausgestoßen. Es ist daher viel einfacher, eigentlich geradezu erforderlich, wie zu Corona-Zeiten die Menschen ab 22.00 Uhr wieder in ihren Wohnungen und Häusern einzusperren, um unnötigen Verkehr und unnötigen CO2-Ausstoß zu vermeiden.

Ich könnte diese Beispiele noch endlos fortsetzen. Das erspare ich aber Ihnen und mir. Wenn Sie das Szenario noch näher betrachten wollen, lesen Sie sich das Wahlprogramm der Grünen durch, unter anderm das Verbot zum Bau von Einfamilienhäusern, den Veggie-Day und das angestrebte Verbot von Autos mit Verbrennungsmotoren.

Das Erschütternde ist, dass sich das Bundesverfassungsgericht auf einer – noch immer – unsicheren Tatsachengrundlage so weit aus dem Fenster gelehnt hat und ernsthaft meint, zweifelsfrei und ohne jeden Fehler in die Zukunft schauen zu können.

Die Überheblichkeit des Ansatzes

Wie schreibt das Gericht so schön an anderer Stelle wörtlich: „Ein unbegrenztes Fortschreiben von Erderwärmung und Klimawandel stünde aber nicht im Einklang mit dem Grundgesetz“ (Randnummer 120 der Entscheidung). Solche Sätze, von denen die Entscheidung strotzt, sind an Beschränktheit und Arroganz eigentlich kaum mehr zu überbieten.

Hierzu nur wenige Punkte: Bereits das Wort „Klimawandel“ ist völliger Unsinn, weil sich das Klima immer und ständig gewandelt hat in den letzten 100.000 Jahren. Die Vorstellung, wir hätten ein seit langem bestehendes konstantes Klima, welches allein durch den menschgemachten CO2-Ausstoß gewandelt würde, ist schlicht grotesk. Wenn die Damen und Herren aus Karlsruhe im Schulunterricht aufgepasst hätten, müssten sie wissen, dass Skandinavien und die Ostsee in der letzten Eiszeit von einem riesigen Gletscher überzogen war, der komplett abschmolz, ohne dass menschgemachtes CO2 eine Rolle gespielt hätte. Es gibt keinen wirklich gesicherten Beweis (sondern nur Modelle), dass die jetzige Erwärmung auf das menschgemachte CO2 zurückzuführen wäre. Aber solche Feinheiten interessieren die Richter in Karlsruhe anscheinend nicht mehr.

Ein weiterer Punkt ist die Überheblichkeit dieses Ansatzes. Glauben die Verfassungsrichter ernsthaft, dass die völlige Einsparung von CO2 in Deutschland, die jedes Jahr allein schon durch den weiteren und erhöhten CO2-Ausstoß von Russland, China und Indien mehr als kompensiert wird, irgendetwas am Weltklima ändern könnte?

Keine Ahnung von der Normenhierarchie des Grundgesetzes

Ein dritter Punkt schließlich lässt an den grundlegenden juristischen Fähigkeiten Verfassungsrichter zweifeln. Unter Randnummer 120 heißt es u.a., dass nach Art. 20a GG ein Klimaschutzgebot bestünde (das hat bisher eine überwiegende Zahl von Verfassungsrechtlern nicht so gesehen), welches die Gesetzgebung – verfassungsrechtlich maßgeblich – durch das Ziel konkretisiert habe, die Erwärmung der Erde (das wird alles von Deutschland aus geregelt…) auf deutlich unter 2 Grad Celsius und möglichst auf 1,5 Grad Celsius gegenüber dem vorindustriellen Niveau zu begrenzen.

Hier wird also nicht das Regelwerk des Grundgesetzes angewendet, wonach die Verfassung über jedem Gesetz und über jeder Regierung steht. Nein, es wird das Gegenteil praktiziert. Die Gesetzgebung – also die jeweilige Mehrheit im Bundestag, die sich bekanntlich ändern kann – steht plötzlich auf gleicher Höhe mit dem Grundgesetz und ist „verfassungsrechtlich maßgeblich“. Eine solche Aussage würde ich jedem Referendar, der zur Ausbildung bei mir wäre, um die Ohren hauen. Denn er hätte dadurch gezeigt, dass er keine Ahnung von der Normenhierarchie des Grundgesetzes hat.

Außerdem halten es die Bundesverfassungsrichter offensichtlich für ausgeschlossen, dass eines Tages ein anderer Gesetzgeber, also eine andere Mehrheit im Bundestag entstehen könnte. Und dieser Ausschluss ist seinerseits verfassungswidrig. Es ist immerhin denkbar – und daran hätten auch die Karlsruher Richter denken müssen, ehe sie sich so großspurig und arrogant aus dem Fenster lehnen – dass eines Tages eine Mehrheit im Bundestag eine Regierung stützt, die aus dem Pariser Klima-Abkommen aussteigt, die sich vom 1,5 Grad-Ziel verabschiedet und die eine gänzlich andere Politik verfolgt.

Immerhin hat es das in der größten Nation des Westens, in den USA, unter Trump gegeben. Wäre eine solche Regierung oder Bundestagsmehrheit dann allein deshalb verfassungswidrig? Selbstverständlich nicht. Aber eine solche Möglichkeit haben die Richter offenbar überhaupt nicht in Rechnung gestellt, sondern die gerade aktuelle Politik der gerade aktuellen Regierung zum Verfassungsmaßstab erklärt. Das ist juristisch nur noch eins: mangelhaft.

Das Gericht hat sich von seiner Aufgabe verabschiedet

Nach dieser Entscheidung des Bundesverfassungsgerichts unter seinem Präsidenten Stephan Harbarth ist völlig klar, wohin die Reise geht: Das Gericht wird alle zukünftigen Grundrechtseinschränkungen zum angeblichen Klimaschutz akzeptieren und nicht aufheben. Das Gericht hat sich von seiner Aufgabe, die ihm nach dem Grundgesetz obliegt, nämlich den Gesetzgeber zu überwachen und in seine Schranken zu weisen, verabschiedet.

Wer jetzt noch ernsthaft glaubt, dass das Gericht unter einem Präsidenten wie Harbarth in Zukunft auch nur eine einzige Regelung des Klimaschutzes noch für verfassungswidrig erklären könnte, ist grenzenlos naiv. Gerade unter einem solchen Präsidenten, der ein stromlinienförmiger Parteisoldat war, ein treuer Merkel-Untertan (sonst wäre er überhaupt nicht Richter oder Präsident des Bundesverfassungsgerichts geworden) und ein karriere-bewusster Anpasser, ist nicht mehr mit eigenständigen und richterlich unabhängigen Entscheidungen durch den 1. Senat des Gerichts zu rechnen. Ganz im Gegenteil hat er mit dieser Entscheidung deutlich gemacht, dass der 1. Senat des Gerichts ein zuverlässiger Handlanger und Erfüllungsgehilfe der Merkel-Regierung oder einer zukünftigen Grünen-Regierung unter Annalena Baerbock sein wird.

Der Weg zu einer grünen Öko-Diktatur ist damit dank Stephan Harbarth und Komplizen geebnet. Einen echten Grundrechts- und Freiheitsschutz der Bürger, der nach dem Grundgesetz dem Bundesverfassungsgericht obliegt, wird es nicht mehr geben. Also liebe Leser, spenden Sie Blumen oder schicken Sie einen Kranz. Das alte Grundgesetz, was wir einst hatten, war die beste Verfassung, die Deutschland jemals gehabt hat. Faktisch wird sie in Zukunft kaum noch eine Rolle spielen.

 

Der Autor ist Richter an einem deutschen Gericht und schreibt hier unter Pseudonym.

Der Beitrag erschien zuerst bei ACHGUT hier




„Deutschlands Gletscher werden wohl binnen zehn Jahren völlig verschwinden“

Life-Panorama-Kamera der Bergstation Zugspitze, 2.960m

Die Nordhalbkugel erlebte gerade einen heftigen Wintereinbruch: Im Dezember türmten sich in Bayern, der Schweiz und Österreich die Schneeberge; Madrid versank unter solchen, und im Februar waren die deutschen Mittelgebirge mit Jahrhundert-Rekorden dran.

Trotzdem ist sich das Bayerische Staatsministerium für Umwelt und Verbraucherschutz StMuV nicht zu schade, im Rahmen des Bayerischen Gletscherberichtes zu behaupten, daß es in zehn Jahren wahrscheinlich keine deutschen Gletscher mehr geben werde, die alle im Herrschaftsgebiet des grün-weißblauen Ministerpräsidenten Markus Söder liegen. Der Minister, Thorsten Glauber, ist übrigens gar nicht von der CSU, sondern von den Freien Wählern.

Es gibt in Bayern überhaupt nur fünf Gletscher: die beiden Schneeferner, den Höllentalferner, den Blaueis und den Watzmanngletscher. Die sind seit etwa 1850 deutlich abgeschmolzen, beziehungsweise seit 1980, da die natürliche Warmperiode, die vor 120 Jahren begann, immer wieder Zwischentiefs wie in den 1970ern hat. Von 1980 bis etwa 1998 wurde es durchgehend wärmer; seitdem haben wir aber einen Hiatus, der gern verschwiegen wird. Fazit: In Warmperioden schmelzen Gletscher, das ist normal und kein Problem; im Gegenteil, wie unsere Referenten Christian Schlüchter und Gernot Patzelt anhand von Baumresten in heutigen Gletscher-Moränen zeigen konnten.

Da, wie wir wahrscheinlich jetzt schon erleben müssen, das Klima der nächsten 100 Jahre sonnenbedingt deutlich kühler werden wird, ist mit einem Verschwinden unserer Gletscher nicht zu rechnen. Und selbst wenn: na und? Wen interessiert es, ob fünf Eiszungen irgendwo auf Bergen weg sind? Die Touristen auf der Zugspitze vielleicht wegen der Aussicht, aber das ist jetzt nicht wirklich relevant.

Es ist reine Panikmache mit Symbolen; ähnlich den kalbenden Eisbergen der Arktis oder den Eisbären, die Bürger in Europa gar nicht interessieren, wenn Medien sie nicht für Kampagnen nutzen.

Die unwissenschaftliche Meldung des Ministeriums hat aber noch eine andere Dimension: Die Eisstürme des Winters 20/21 haben ja Mojib Latif, die Kollegen vom PIK und viele andere „Forscher“ aufs heftigste blamiert. Zuvor mußten Gletscher-Apokalyptiker in den USA bereits klammheimlich Hinweisschilder verschwinden lassen, weil die Eispanzer eines Nationalparks wieder wachsen, statt abzutauen. Das wird dem Umweltministerium in zehn Jahren spätestens auch drohen. Ist es ihnen egal? Wahrscheinlich; da die Erfahrung lehrt, daß nichts älter ist als die Schlagzeile von gestern, und die meisten Bürger sich nicht an den Weltuntergangs-Quatsch der Politiker von vor Jahren erinnern.

Deswegen traute sich der Bayerische Grünfunk auch einen Tag vor der deutschen Gletschermeldung zu verbreiten, daß in den „letzten 20 Jahren Gigatonnen Eis“ geschmolzen seien, und dies in Europa, Asien und Südamerika weiterhin geschehe. Seltsam: Den genannten Gletscher-Nationalpark im Norden der USA hat man ganz vergessen. Auch den größten Gletscher in Grönland, den wachsenden Jakobshavn, erwähnte man nicht. Und die gezeigten Fotos im verlinkten Beitrag mit schneefreien nackten Felswänden- sind die eigentlich wochenaktuell? Nein, das sind wahrscheinlich Archivaufnahmen vom Sommer 2018, von Chrisoph Mayer, Bayerische Akademie der Wissenschaften. Die sekundenaktuelle Kamera zeigt ein ganz anders Bild vom Schneeferner und der Zugspitze: Da ist der Gletscher unter seiner dichten Schneedecke gar nicht zu sehen.

Man erwähnt zwar alibimäßig noch ein paar nicht schmelzende Gletscher im Karakorum; aber das seien nur „Anomalien“.




Wolken und globale Erwärmung

Willis schrieb den Beitrag als Antwort auf eine Studie von Paulo Ceppi und Kollegen über Wolkenrückkopplung in globalen Klimamodellen (Ceppi, Brient, Zelinka, & Hartmann, 2017). Wir werden diese Studie als Ceppi17 bezeichnen. Ich habe mir in den letzten Tagen die Zeit genommen, Willis‘ Beitrag und Ceppis Studie zu verstehen und Folgendes herausgefunden; lassen Sie mich in den Kommentaren wissen, was Sie denken.

In Ceppi17, N = F + λΔT. N ist das Ungleichgewicht des Energieflusses an der Oberseite der Atmosphäre, F ist ein Forcing in W/m² aufgrund eines plötzlichen Anstiegs der Treibhausgase. Die hypothetische Situation, die in dem Papier verwendet wurde, war eine sofortige Vervierfachung des CO2, bezogen auf vorindustrielle Bedingungen. Dann berechneten sie ein hypothetisches F. „λ“ ist die Wolkenrückkopplung und ΔT ist die gesamte globale Temperaturänderung, die erforderlich ist, um das Gleichgewicht wiederherzustellen, oder ein N von Null. Ihre Rückkopplungszahlen können aufgrund des unplausiblen Szenarios nicht mit Daten dupliziert werden. Hier sind zwei weitere Versionen der Gleichung als Referenz.

ΔT = (N-F)/ λ or λ = (N-F)/ ΔT

Was ist N? N ist ein Kräfteungleichgewicht zwischen eingehender (oder abwärts gerichteter) Strahlung und ausgehender Strahlung an der Obergrenze der Atmosphäre, die wir mit den CERES-Satelliten definieren werden. N ist positiv, wenn die abwärts gerichtete Kraft größer ist (Erwärmung) und negativ, wenn die abgehende Strahlung größer ist (Abkühlung). Die Erde befindet sich im Gleichgewicht, wenn die Rückkopplung, N und F gleich Null sind. Eine positive Rückkopplung (λ) führt zur Erwärmung und zu einem größeren Ungleichgewicht (N). Je höher die Rückkopplung ist, desto größer ist die Erwärmung. Ist die Rückkopplung negativ, kommt es zu einer Abkühlung oder langsameren Erwärmung.

„CRE“ ist der Wolken-Strahlungseffekt oder die Differenz zwischen dem Strahlungsfluss bei klarem Himmel und dem gesamten Himmel am Satelliten (TOA). Wolken reflektieren die eintreffende kurzwellige Sonnenstrahlung (SW), so dass bei Vorhandensein von Wolken mehr SW zum Satelliten aufsteigt, im Durchschnitt beträgt der Anstieg etwa -45 W/m². Dies ist eine negative Zahl, weil es bedeutet, dass mehr Strahlung die Erde verlässt, ein kühlender Effekt. Wolken blockieren auch einen Teil der von der Erdoberfläche ausgehenden langwelligen Infrarotstrahlung (LW), im Durchschnitt etwa 27 W/m², eine positive Zahl, da es sich um Energie handelt, die von der Erde zurückgehalten wird oder weniger Energie, die den Satelliten erreicht, ein wärmender Einfluss. Die Differenz beträgt -18 W/m², was bedeutet, dass die Wolken insgesamt die Erde kühlen.

Man würde denken, dass sich die Erde umso schneller abkühlt, je mehr Wolken vorhanden sind, aber so einfach ist es nicht. Einige Wolken, insbesondere niedrige Wolken und Kumuluswolken, neigen dazu, tagsüber mehr Energie zu reflektieren als sie nachts einfangen. Hoch liegende Wolken, wie Zirruswolken, neigen dazu, solare SW-Energie durchzulassen und fangen viel aufsteigende LW-Energie ein, daher haben sie einen wärmenden Effekt. Der Wolkentyp spielt also eine Rolle.

Abbildung 1. CRE in W/m². Negative Werte (schwarz, grau und blau) bedeuten Abkühlung. Daten von https://ceres.larc.nasa.gov/data/

Abbildung 1 ist eine Karte des durchschnittlichen TOA (Obergrenze der Atmosphäre) Wolken-Strahlungs-Ungleichgewichts (CRE) bei den CERES-Satelliten. Die blauen Farben bedeuten ein negatives Energie-Ungleichgewicht oder eine Abkühlung der CRE. Die Karte ist ein Durchschnitt der monatlichen CERES-Daten von 2001 bis 2019. Die abgebildete CERES-Variable ist „toa_cre_net_mon“ oder der „Top of The Atmosphere Cloud Radiative Effects Net Flux“. Der Effekt ist überall negativ (oder kühlend), außer über Wüsten und den polaren Landregionen. Dies sind Gebiete, in denen die Wolken dazu neigen, die Infrarotstrahlung der Oberfläche und der unteren Atmosphäre einzufangen und gleichzeitig die kurzwellige Sonnenstrahlung zur Oberfläche durchzulassen.

Der Punkt, an dem sich die wärmenden und kühlenden Effekte der Wolken in der Farbskala von Abbildung 1 treffen, ist dort, wo das hellste Blau auf das hellste Gelb trifft. Genau bei Null ist der Punkt, an dem die eingehende Energie gleich der ausgehenden Energie ist, in Bezug auf die Wolken. Mit Ausnahme der Sahara, des Nahen Ostens, Westchinas, Teilen Südostasiens, Indonesiens, Nordaustraliens, des Südwestens der USA und Mexikos kühlen die Wolken also die Erde ab. Die dunkleren Gebiete in Abbildung 1 haben mehr anhaltende Wolken.

Abbildung 2 hat hellere Farben für Wolken und dunklere Farben für klaren Himmel. So ist der hellere Streifen in der Nähe des Äquators, sowohl im Pazifik als auch im Atlantik, in Abbildung 2 weiß, im Gegensatz zu Abbildung 1. Dies ist die intertropische Konvergenzzone (ITCZ), in der die Passatwinde der nördlichen und südlichen Hemisphäre zusammenlaufen. Hier ist die Verdunstung von Meerwasser am größten. Da Wasserdampf eine geringere Dichte als trockene Luft hat, handelt es sich um eine Zone mit schnell aufsteigender feuchter Luft und häufigem Regen und Gewitter. Sie ist fast immer bewölkt. Die ITCZ folgt dem Zenitpunkt der Sonne und die kühlende Wirkung der Wolken in dieser Zone ist sehr hoch.

Die maximale Wolkenabkühlung bzw. die negativsten CRE-Werte befinden sich in den kleinen weißen Flecken in der Mitte der schwarzen Flecken vor dem südlichen Peru und im südöstlichen China, nördlich von Vietnam. Diese CRE-Werte sind sehr negativ (extrem kühlend) und liegen außerhalb der Skala. Abbildung 1 korreliert einigermaßen gut mit dem Wolkenanteil in Abbildung 2 bzw. den helleren Farben in Abbildung 3, mit Ausnahme der Polkappen.

Abbildung 2. CERES-Wolkenanteil in Prozent. Dunklere Farben bedeuten weniger Bewölkung, hellere Farben bedeuten mehr Wolken.

Abbildung 3 ist die blaue NASA-Murmel mit Eis und Wolken in einer Mercator-Projektion dargestellt. Beachten Sie die Ähnlichkeit mit Abbildung 2, außer an den Polen.

Abbildung 3. Darstellung der NASA mit Eis und Wolken.

Abbildung 4 zeigt die gleichen Daten, die CERES EBAF 4.1-Variable „toa_cre_net_mon“, als jährliche globale Mittelwerte. EBAF bedeutet „energy balanced and filled“. Wie Norman Loeb und Kollegen (NASA Langley Research Center) erklären, ist das Energie-Ungleichgewicht der Erde so winzig, zwischen 0,5 und 1 W/m², dass es nur 0,15% der gesamten ein- und ausgehenden Strahlung ausmacht. Die Zahl, nach der wir suchen, ist also die Differenz zwischen zwei großen Zahlen und liegt kaum über der Unsicherheit der Satellitenmessungen.

Die Kalibrierungsunsicherheit bei der CERES SW-Messung beträgt 1 % und 0,75 % für die LW. Somit ist die ausgehende LW nur auf ±2 W/m² bekannt. Es gibt viele andere Fehlerquellen, und wie Loeb, et al. erklären, beträgt das Netto-Ungleichgewicht aus den Standard-CERES-Datenprodukten nur ~4,3 W/m², nicht viel größer als der erwartete Fehler. Aufgrund der groben Auflösung des CERES-Instruments gibt es viele fehlende Gitterzellen in dem Eins-zu-Eins-Gitter für Breiten- und Längengrade, das zur Erstellung der Karten in den Abbildungen 1 und 2 verwendet wird. Um diese Probleme zu umgehen, verwenden Loeb und Kollegen einen komplexen Algorithmus, um fehlende Werte aufzufüllen und die SW- und LW-TOA-Flüsse innerhalb ihrer Unsicherheitsbereiche anzupassen, um Inkonsistenzen zwischen dem globalen Netto-TOA-Energiefluss und der Wärmespeicherung im System Erde-Atmosphäre zu beseitigen (Loeb, et al., 2018).

Abbildung 4. Der flächengewichtete durchschnittliche monatliche TOA CRE (Cloud-Radiative Effect) des CERES von 2001 bis 2019. Daten von der NASA.

Der CRE- oder der Wolkenstrahlungs-Ungleichgewichtswert variiert stark von Jahr zu Jahr, der Durchschnittswert über die 19 Jahre beträgt -19,1 W/m², das liegt sehr nahe am Wert von Ceppi et al. von -18 W/m² (Ceppi, Brient, Zelinka, & Hartmann, 2017). Dies deutet darauf hin, dass die Gesamtwolkenbedeckung der Hauptfaktor ist, sie ist unten in Abbildung 5 dargestellt. Wie zu erwarten, nimmt der Kühleffekt ab, wenn der Wolkenanteil sinkt, und die CRE wird weniger negativ. Wenn der Wolkenanteil steigt, nimmt der Kühleffekt zu.

Abbildung 5. CERES Durchschnittlicher monatlicher Wolkenanteil, Variable cldarea_total_daynight_mon.

In Ceppi17 impliziert ein positiverer Rückkopplungsparameter (λ) eine Erwärmung. Da sie mit Modellen arbeiten, können sie λ berechnen, indem sie den berechneten Antrieb, der erforderlich ist, um das ursprüngliche erzwungene Energieungleichgewicht aufgrund von Wolken auszugleichen, durch die resultierende Temperaturänderung (ΔT) teilen. Abbildung 6 zeigt die globale Rückkopplung von Ceppi17 aufgrund von Wolken.

Abbildung 6. Der globale Wolken-Rückkopplungs-Parameter von Ceppi17, die Einheiten sind W/m²/K.

Die Einheiten sind W/m²/K, wobei K (Kelvin) Grad C der Erwärmung oder Abkühlung aufgrund von Wolken über die Zeit, die zum Erreichen des Gleichgewichts benötigt wird, ist. Abbildung 6 ist die Wolkenrückkopplung und nicht das Gleiche wie CRE, aber laut Ceppi17 ist die Wolkenrückkopplung tendenziell positiv und es deutet darauf hin, dass die Wolken langfristig die Erde erwärmen und nicht abkühlen. Dies brachte Willis dazu, das ganze Papier in Frage zu stellen. Er weist darauf hin, dass Abbildung 6 eine Darstellung der Modellausgabe ist und Abbildung 1 Daten sind. Die Daten in Abbildung 1 sind massiert und sie sind nahe am Rande der Unsicherheit, aber es sind Daten.

Ceppi17 hat Glück, dass wir ihre Rückkopplungsparameter nicht aus realen Daten ableiten können, denn wenn wir das könnten, würde die Karte vermutlich ganz anders aussehen als in Abbildung 6. Einer der Orte, an dem die Wolken die Oberfläche am meisten abkühlen, liegt zum Beispiel vor der Küste Perus, wie wird daraus ein Gebiet mit einer positiven Rückkopplung? Der andere ist der Südosten Chinas, OK, dort wird es ein wenig blau, aber nichts von dem, was uns die tatsächlichen Daten zeigen. Die sehr bewölkte ITCZ ist ein sehr heißes Gebiet in Abbildung 6, wie machen sie das?

Ich stimme mit Willis überein, diese ganze Idee, dass Wolken eine positive (wärmende) Rückkopplung sind, macht keinen Sinn. Das Schlimmste daran ist, dass fast jedes Modell eine positive Wolkenrückkopplung verwendet. Die Wolkenrückkopplung ist die größte Komponente der modellberechneten ECS (die Temperatursensitivität aufgrund einer Verdopplung der CO2-Konzentration), welche das IPCC bevorzugt. Wie wir wissen, können Wolken nicht modelliert werden, sondern müssen parametrisiert werden (der schicke Modellierungsbegriff für „angenommen“). Wie Steve Koonin in seinem demnächst erscheinenden Buch „Unsettled“ berichtet, haben Wissenschaftler des Max-Planck-Instituts ihr Klimamodell durch Anpassung der Wolkenrückkopplungen auf einen ECS von etwa 3°C eingestellt. Er fügt hinzu: „Talk about cooking the books.“ (Koonin, 2021, S. 93). [Etwa: Sprecht über das Frisieren der Bücher!]

Ceppi17 berichtet, dass die Wolkenrückkopplung „bei weitem die größte Quelle für die Streuung zwischen den Modellen bei der Gleichgewichts-Klimasensitivität (ECS) ist.“ Sie weisen auch darauf hin, dass die Wolkenrückkopplung stark mit der aus den Modellen abgeleiteten ECS korreliert ist und liefern uns die Daten, die in Abbildung 7 dargestellt sind.

Abbildung 7. Modellierte Wolkenrückkopplung (λ) aufgetragen gegen modellgeleitetes ECS. Daten aus (Ceppi, Brient, Zelinka, & Hartmann, 2017).

Oops! Wolken können nicht modelliert werden, Modelle gehen davon aus, dass ihre Wolken einen Erwärmungseffekt haben, CERES sagt, dass Wolken einen Nettokühleffekt haben, einen großen Nettokühleffekt von -18 W/m². Die Modelle sagen, dass der gesamte menschliche Einfluss auf das Klima seit Beginn des Industriezeitalters 2,3 (1,1 bis 3,3) W/m² beträgt (IPCC, 2013, S. 661), was den Wolkeneinfluss von -18 W/m² relativiert. Beachten Sie, dass die Variabilität in Abbildung 4 größer ist als 2,3 W/m². Wie viel der ECS von Modellen ist auf ihre Annahme zurückzuführen, dass Wolken eine Nettoerwärmung sind? Wie viel ist auf ihre Annahme zurückzuführen, dass ECS 3 W/m² beträgt? So viele Fragen.

Willis Eschenbach kindly reviewed this post for me and provided valuable input.

References

Ceppi, P., Brient, F., Zelinka, M., & Hartmann, D. (2017, July). Cloud feedback mechanisms and their representation in global climate models. WIRES Climate Change, 8(4). Retrieved from https://onlinelibrary.wiley.com/doi/full/10.1002/wcc.465

IPCC. (2013). In T. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. Allen, J. Boschung, . . . P. Midgley, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. Retrieved from https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SPM_FINAL.pdf

Koonin, S. E. (2021). Unsettled: What Climate Science Tells us, What it doesn’t, and why it matters. Dallas, Texas, USA: BenBella. Retrieved from https://www.amazon.com/dp/B08JQKQGD5/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1

Loeb, N. G., Doelling, D., Wang, H., Su, W., Nguyen, C., Corbett, J., & Liang, L. (2018). Clouds and the Earth’s Radiant Energy System (CERES) Energy Balanced and Filled (EBAF) Top-of-Atmosphere (TOA) Edition-4.0 Data Product. Journal of Climate, 31(2). Retrieved from https://journals.ametsoc.org/view/journals/clim/31/2/jcli-d-17-0208.1.xml

Link: https://andymaypetrophysicist.com/2021/04/28/clouds-and-global-warming/

Übersetzt von Chris Frey EIKE

 




Kältereport Nr. 6

Historische Frost- und Schnee-Ereignisse im Mittleren Westen und dem Osten der USA

27. April: Auf den tödlichen Februar-Frost in Nordamerika folgte Ende April ein brutaler arktischer Sturm. Das Ergebnis waren Schäden in Millionenhöhe in den wichtigsten Anbauregionen der USA, nicht zuletzt in den Weinbergen des Landes.

Link: https://electroverse.net/midwest-and-eastern-vineyards-hit-by-historic-snow-and-freeze-events/

——————————

Eisiger polarer Griff in Neuseeland – Eisausdehnung um die Antarktis nach wie vor über dem Mittel der Jahre 1979 bis 1990

28. April: Der Winter hält früh Einzug in Neuseeland, vor allem auf der Südinsel, wo die Temperaturen weit unter dem Durchschnitt liegen und sogar ein wenig Schnee außerhalb der Saison gefallen ist.

Ein mitternächtlicher Schneesturm bescherte dem Porters Alpine Resort in der Nähe von Castle Hill am Dienstagmorgen eine ordentliche Portion Schnee, während Teile des Landesinneren von Canterbury und Otago bei Temperaturen um den Gefrierpunkt erwachten, die bis auf -3,2 Grad sanken.

Am Mittwochmorgen sank die Temperatur noch weiter, da eine antarktische Luftmasse das Regiment übernahm.

Link: https://electroverse.net/polar-chill-grips-new-zealand-antarctic-sea-ice-extent-average/

——————————

Historischer Frühjahrs-Frost schädigt die Getreide-Ernte in der EU und den USA

29. April: Das sich verschärfende Große Sonnenminimum bereitet Sorgen um die Versorgung mit Getreide und treibt die aktuelle Preisspirale an. An den globalen Getreidemärkten wurden beträchtliche Preissteigerungen verzeichnet: Die Maispreise in Chicago stiegen in der vergangenen Woche um 18 Prozent und diejenigen für britischen Futterweizen legten in den letzten 12 Tagen um 17 Prozent zu.

Link: https://electroverse.net/historic-spring-freeze-impacts-eu-and-us-grain-crops/

——————————

Rekord-Frühjahrsschneefälle im zentralen Russland – außerordentlich kalter April auf der Krim

30.April: Nach einem historisch kalten und rekordverdächtig schneereichen Winter haben Teile Russlands – namentlich Sibirien – endlich ein wenig Frühlingswärme erlebt; oder besser gesagt, sie hatten es, bevor in dieser Woche die Arktis zurückkehrte.

„Nach den letzten warmen Tagen gab es einen Hauch von Kälte“, wie hmn.ru es ausdrückt – das erscheint aber untertrieben, da die Übersetzung durcheinandergeraten zu sein scheint. Die letzte Aprilwoche in und um die Region Moskau war nicht nur kühl, sondern es herrschten Bedingungen wie im tiefsten Winter, mit den dazu passenden beträchtlichen Schneemengen.

Schnee in den Regionen Moskau und Tula, Russland: gestern fiel bis zu 20 cm Schnee (Plavsk 20 cm, Kasira 17 cm) und bis zu 5 cm Schnee südlich von Moskau (Flughafen Domodevo)

Extrem kalter April auf der Halbinsel Krim

Auch auf der nahe gelegenen Halbinsel Krim herrschte sehr kaltes Wetter

30.April: Während des gesamten Monats April hat die Temperatur in Simferopol nie die 20°C-Marke überschritten – ein historischer Vorgang. Und das vergangene Jahr war „sehr ähnlich“, heißt es in einem anderen hmn.ru-Artikel. Auch 2020 lagen die Thermometerwerte häufiger unter als über der Klimanorm – ein weiteres Beispiel für die „Verlängerung des Winters“, wie es in Zeiten geringer Sonnenaktivität zu erwarten ist.

Link: https://electroverse.net/central-russia-sees-record-spring-snow-as-crimea-suffers-exceptionally-cold-april/

——————————

Teile des südlichen Afrikas von frühem Schneefall betroffen, mit starkem Schneegestöber auf dem Weg nach SA

1. Mai: Wie vorhergesagt, war die abgeschottete südafrikanische Nation Lesotho am Freitag, den 30. April, von „riesigen Flächen“ mit Schnee bedeckt, nachdem das Bergkönigreich „so etwas wie einen Schneesturm“ erlebt hatte, heißt es auf thesouthafrican.com.

AfriSki mountain resort in Lesotho begrüßte seinen ersten größeren Schneefall für den Winter“, berichtet The South African in einem aktuellen YouTube-Video (hier verlinkt); allerdings ist dies eine etwas ungenaue Aussage, da der „Winter“ in S. Hanf offiziell erst am 21. Juni beginnt. Darüber hinaus sind diese „Zentimeter“ auch einige der frühesten in den Aufzeichnungen, die im April gefallen sind – eine Tatsache, die in dem Bericht nicht erwähnt wird.

Link: https://electroverse.net/southern-africa-hit-by-early-season-snow/ [mit vielen Bildern und Videos!]

——————————

Unzeitgemäßer Schneefall“ in den Bergen Süd-Koreas – sogar die NOAA-Daten enthüllen signifikante Abkühlung

2.Mai: Ungewöhnliche Schneefälle bedeckten die Bergregionen der Gangwon-Provinz östlich von Seoul am letzten Tag des Aprils, einer Zeit, die bei den Südkoreanern normalerweise für ihre sommerliche Wärme bekannt ist, berichtet yna.co.kr.

Am späten Donnerstag, den 29. April, verwandelte sich starker Regen in schweren Schnee in den Gangwon-Bergen, die bis zu 1.300 m über den Meeresspiegel ansteigen, und am frühen Freitagmorgen hatten sich mehr als 15 cm der globalen Erwärmung auf und um den Gipfel des Mount Seorak angesammelt, so die Beamten des dortigen Nationalparks.

Link: https://electroverse.net/snowy-south-korea-as-noaa-reveal-cooling/

——————————

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE




Das Klimaschutzurteil des Bundesverfassungs­gerichts: wie vom persischen Großkönig Xerxes 480 v. Chr.

Herodot berichtet vom Brückenbau über den Hellespont, mit dem Xerxes seine Truppen führen wollte, um Griechenland zu unterwerfen: „… es sind aber sieben Stadien von Abydus auf die Gegenseite, und schon war die Furth verbunden, als ein großer Sturm einfiel, der schlug alles zusammen und riß es auseinander (so wie der jüngste Klimawandel, der zu unserem Entsetzen Deutschland zur Zeit in eine glühende Wüste zusamenschlägt und alles auseinander reisst). Wie es nun Xerxes erfuhr, ließ er sich arg auf und befahl, der Hellespont solle dreihundert Geisselhiebe bekommen  …“ (hier).

Die juristischen Experten des BVerfG kopierten mit ihrem Klimaschutzbeschluss geschichtskundig die kluge Heldentat von Xerxes, das Meer auszupeitschen. Und dies sogar noch klüger als Xerxes, denn diesmal sei die deutsche Bevölkerung für den Klimawandel auszupeitschen – wir haben leider hierzulande zu wenig Meer.

Wehe dem, wer zuviel des Lebensgases CO2 selber ausstößt oder es in seiner beruflichen Tätigkeit verantwortet! Die Erwähnung der Photosynthese, mit dem Lebensgas CO2 als Hauptbestandteil, wird verboten. Auch dass die Weltbevölkerung mehr CO2 ausatmet, als der gesamte Autoverkehr der Welt zusammen erzeugt [1]. Gut unterrichtete Quellen lassen verlauten, dass selbst Pupsen und Rülpsen nicht mehr allein von Knigge gerügt, sondern jetzt unter Strafe gestellt wird. Sport muss wegen der zu hohen CO2-Erzeugung jedesmal polizeilich beantragt werden. Und neue Einfamilienhäuser gehen schon gar nicht mehr, unser Dank hier an die besonders vorauseilenden und kundigen Grünen, einer wunderlich innovativen Partei, die durch ihre neue Kanzlerkandidatin Annalena Baerbock inzwischen sogar Kobolde in Batterien nachweisen konnte und das neue physikalische Gesetz von der Speicherfähigkeit  von elektrischer Energie in Stromnetzen auffand.

Schließlich heißt es im Karlsruher Beschluss,

„…dass selbst gravierende Freiheitseinbußen zum Schutz des Klimas verhältnismäßig und verfassungsrechtlich gerechtfertigt sind“.

Wir freuen uns über diese Konsequenz, und auch Xerxes freut sich posthum. Seine Peitschenhiebe ins Wasser waren nicht umsonst. Richterliche Mitgenossen ähnlicher intellektueller Qualität im heutigen Deutschland machen es ihm jetzt nach.

Es ist uns jetzt zwar peinlich, aber um den Ignoranten des klugen und dringend notwendigen Karlsruher Urteils ihre Irrungen vor Augen zu halten, erscheint es uns doch notwendig, ihren Aussagen die helle Einsicht der Karlsruher Richter gegenüber zu stellen. Erst dann können die Irrtümer der Ignoranten – auch als „Klimaleugner“ bezeichnet – richtig erkannt und beurteilt werden. Nebenbei: wir suchen momentan noch nach Leuten, die das Klima oder den Klimawandel leugnen – vielleicht können Leser helfen?

Die Karlsruher Richter haben die „Klimaleugner“ jedenfalls ignoriert, und det war juut so (Zitat: ehemaliger Berliner Bürgermeister) oder in Hochdeutsch, juristisch sachgerecht. Denn so behaupten „Klimaleugner“ doch tatsächlich:

Alle Klimata dieser Erde, von tropisch bis polar, sind von der Wissenschaft definiert als statistische Mittel des Wetters über mindestens 30 Jahre. Ein Globalklima gibt es nicht, Klimaschutz ebensowenig, denn statistische Mittel kann man nicht schützen. Klimawandel ist naturgesetzlich, Klimakonstanz gab es noch nie. EU und Deutschland zielen durch CO2-Vermeidung auf eine globale Klimastabilität. Dieses Vorhaben sei illusorisch“.

Diese Aussagen der „Klimaleugner“ sind in ihrer Dummheit geradezu erschreckend. Solch ein „Klimaleugner“ war bedauerlicherweise auch der Klimaforscher Prof. Dr. Heinz Miller, ehemaliger Direktor des Alfred-Wegener Instituts Bremerhafen, der doch tatsächlich in einem ZEIT-Interview sagte

Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie Klimakollaps“ oder Klimakatastrophe“ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen“ [2].

Wir hoffen sehr, dass derartige Aussagen in der Öffentlichkeit jetzt zumindest mit Bußgeldern geahndet werden. Es kommt aber noch schlimmer, denn „Klimaleugner“ behaupten weiter

CO2-Vermeidung, bedeutet extreme Kosten bei völlig unsicherer Wirkung. Unsicher, weil niemand, weder die Klimawissenschaft, noch das politische IPCC verlässlich angeben können, ob die jüngste Erwärmung weitgehend natürlichen Ursprungs oder maßgebend menschgemacht war. Man erkennt dies an den Angaben zur sogenannten Klimasensitivität des CO2, worunter der Anstieg der globalen Mitteltemperatur bei hypothetischer Verdoppelung des CO2-Gehalts in der Atmosphäre gemeint ist. Das IPCC, eine politische, keine wissenschaftliche Organisation, gibt die riesige Spanne von 1,5 °C bis 4,5 °C an, dagegen pendeln sich die aktuell überwiegenden begutachteten Fachveröffentlichungen aktuell beim unbedeutenden IPCC-Minimalwert von etwa 1,5 °C ein. Außerdem ist CO2 Luftdünger für Pflanzen [3 ]“.

Und dann behaupten diese „Klimaleugner“ noch etwas, das wohl der Gipfel an Ignoranz ist:

Selbst wenn die Menschheit schlagartig mit allen CO2-Emissionen aufhören würde, wird sich auf viele Jahrzehnte der riesigen Trägheit des Systems wegen nur wenig ändern. Der CO2-Gehalt der Luft nimmt dann über viele Jahrzehnte kaum ab [4 ], [5 ]. Die einmal erreichte Spannung zwischen dem hohen CO2-Partialdruck der Luft und dem konstanten CO2-Partialdruck des Ozeans geht nur extrem langsam zurück (der Ozean enthält etwa 40 mal mehr gelöstes CO2 als die Luft, daher und wegen langfristiger Kalzinierungsvorgänge bleibt sein CO2-Partialdruck praktisch konstant). Die entsprechende Halbwertszeit der Abnahme liegt im Bereich von grob hundert Jahren [4], [5 ]“.

Als anschauliches Bild kann vielleicht ein Ozeandampfer dienen. Die Geschwindigkeit des Dampfers entspreche dem Anteil des menschgemachten CO2 in der Luft. Würde der Motor des Dampfers plötzlich abgestellt, fährt er noch kilometerweit von alleine weiter, bis er zum Stillstand kommt. Und wenn in einem weiteren Szenario der Dampfer  seine Geschwindigkeit konstant beibehält, wird seine gesamte Motorenergie nur noch für die Überwindung der Wasserreibung und weiterer  Reibungsverluste verbraucht. Analog wandert bei konstant bleibenden menschgemachten CO2-Emissionen langfristig alles anthropogene CO2 ins Meer sowie das Pflanzenwachstum. Die einmal erreichte Partialdruckdifferenz wird dann langfristig weder erhöht noch verringert, und die CO2-Konzentration der Luft steigt im Gegensatz zu oft hörenden Befürchtungen nicht mehr an, sondern bleibt konstant.“

Jetzt reicht es aber mit diesem Klimaleugner-Unsinn! Diese Ignoranten wollen doch nur unsere Rettung der Welt vor der globalen Überhitzung madig machen. Und wir verurteilen selbstverständlich auch ihren Versuch, die CO2-Erzeugung der Welt durch weiter zunehmende Kohleverbrennung von China, Indien, USA, Russland und inzwischen auch Afrika zu instrumentalisieren, indem sie Deutschlands kleinen Anteil von nur 2% CO2-Erzeugung vergleichend dagegen stellen. Das bedeutet doch nur, völlig verantwortungslos von einer  „Unverhältnismäßigkeit“ deutscher Klimamaßnahmen zu faseln.

Wir erinnern dagegen an die weise Einsicht der Karlsruher Richter,  weil sie nicht einfach nur einen Bschluss, sondern sogar einen für Jahrhunderte zimmerten. Das ist wahre Größe. Dann leben wir zwar alle nicht mehr, selbst unsere Kinder und Enkel nicht, aber solch kleinliche Bedenken müssen der intellektuellen Tiefe des BVerfG-Beschlusses weichen, vor der wir uns hier in Demut verneigen.

Aber Bedenken? Nein und nochmals nein, Deutschland muss sich wieder „über alles in der Welt“ erheben, und darf seinen ersten Platz unter den Weltrettern nur über seinen Untergang aufgeben. Dieses kleine Opfer ist schon zu bringen! Weg mit unserer Industrie, macht eh nur Dreck, und schließlich bezahlt uns bald alle der Staat. Auf das bisschen Steuereinnahmen aus dem Mittelstand, der sich eh nur bereichert, können wir gerne pfeifen. Lasst uns lieber noch ein paar neue Genderprofessuren einrichten, das ist Fortschritt.

Die EU ist zum Glück klug, sie wird uns zur Seite springen, weiß sie schließlich nicht nur , wie man elegant Geld von Nord nach Süd umverteilt, sondern auch, wie man es rucki-zucki neu druckt. Der läppische Betrag von etwa 8000 bis 10.000 Euro, den jede deutsche Familie für den Klimaschutz jährlich in Zukunft berappen muss, ist leicht zu erbringen, da soll uns niemand mit kleinlichen Bedenken von Familien geringen Einkommens oder ähnlichem Unsinn kommen.

Wir beglückwünschen insbesondere auch noch einmal unsere Karlsruher Richter, weil sie es klugerweise unterlassen haben, neben Greta und der zweiten, nun deutschen Heiligen, Annalena Baerbock, auch noch unverschämte neutrale Klimawissenschaftler anzuhören. Auditur et altera pars ist juristisch doch völlig veraltet. Macht nur Arbeit, erfordert auch noch eigenes Denken und ist Durchregieren schädlich. Ja mehr noch, es ist „nicht hilfreich“, und wir sind dankbar, mit diesem Begriff unserer große und glorreiche Staatsvorsitzende Angela Merkel zitieren zu dürfen. Sie, die Nimmermüde der großen Transformation hin zu unserem planwirtschaftlich-sozialistischen Glück hatte sicher ihr kluges  scharfes Auge auch auf Karlsruhe gerichtet, damit sie nicht wieder wie damals in Thürigen etwas rückgängig machen musste. Glücklicherweise war der Vorsitzende des BVerfG ein Merkel-Vertrauter, wir gratulieren, unabhängige Justiz wäre ja schrecklich und würde nur zum Chaos führen.

Alles ist gut, es ist schön in Deutschland geworden.

 

[1] Horst-Joachim Lüdecke, Energie und Klima, Abschnitt 2.5.1, CO2, Basis allen Lebens, expert Verlag 2020.

[2] http://www.zeit.de/2007/24/P-Heinz-Miller

[3] Goklany, I. M., 2015. Carbon dioxide: The good news. The Global Warming Policy Foundation, GWPF Report 18.

[4] F. Joos et al., Carbon dioxide and climate impulse response functions for the computation of greenhouse gas metrics: a multi-model analysis, Atmos. Chem. Phys., 13, 2793-2825.

[5] W. Weber, H.-J. Lüdecke and C.O. Weiss: A simple model of the anthropogenically forced CO2 cycle, Earth System Dynamics Discussion, 6, 1-20 (2015)

 




Oh wie ist Statistik schwer, wenn nicht der einfache Inzidenzwert wär …

Mit einfachem Dreisatz kommt man doch zu einem Ergebnis

Wie wurden die 0,36 % „mit SARS-CoV-2“ berechnet?

Bild 1 Coronazahlen [Link]
Man nimmt die „positiv getestet“, zieht die „davon genesen“ und die „Todesfälle“ ab und erhält übrig gebliebene 303.163 „positive Fälle“ als 0,36 % von 83.166.711 Einwohnern mit SARS-CoV-2
Leider hat diese Rechnung einen Haken: Sie ist grottenfalsch und somit auch das Ergebnis.

Warum das so ist, sei anbei gezeigt.

Versuch einer statistischen Abschätzung

Bild 2 Anzahl durchgeführter Tests für das Coronavirus (COVID-19) in Deutschland nach Kalenderwoche [Link]
In KW15 wurden 1.295.635 PCR-Tests durchgeführt. Davon waren 160.735 (12,41 %) positiv.
Daraus errechnet sich ein Deutschland-Inzidenzwert von:
7-Tage-Inzidenz = (Neuinfektionen / Einwohnerzahl) x 100.000
Inzidenzwert 193,66 = (160.735 / 83.000.000) x 100.000
Dieser Inzidenzwert „behauptet“, dass 0,194 % der Einwohner von Deutschland innerhalb der KW 15 zusätzlich Corona-Positiv geworden wären.

Betrachtet man die tabellierten PCR-Tests nun als „Stichprobe“, ergibt die Berechnung:
Mittelwert neu Infizierter = Anzahl neu Positiver / Anzahl Tests
MW: 12,41 % = 160.735 / 1.295.635
Diese „Stichprobe“ weist aus, dass der Mittelwert neu Positiver (in der Stichprobe) 12,4 % beträgt.
Weil der Stichprobenumfang extrem hoch ist, gilt das mit einem geringen Fehler von unter +-1 % auch für die Grundgesamtheit Deutschland.

Über diese „Stichprobe“ gerechnet, beträgt der wahre Inzidenzwert von Deutschland allerdings:
Inzidenzwert 12.410 = (10.300.300 / 83.000.000) x 100.000
und weicht damit schon etwas arg vom amtlich berechneten Wert 193,66 ab.

Nun lässt sich mit gutem Recht behaupten, dass die gemeldete Anzahl an PCR-Testungen keine Stichprobe wäre und vor allem nicht den wahren Testumfang spiegelt.
Deshalb nehmen wir einfach den doppelten Testumfang an (bei gleichbleibendem Positivergebnis). Dann beträgt die Anzahl neu Infizierter in der Stichprobe und damit wieder auch in der Grundgesamtheit immer noch 6,2 % und parallel der wahre Inzidenzwert 6.205. Beim dreifachen Testumfang sind es immer noch 4,13 % und parallel der wahre Inzidenzwert 4.137.

Unabhängig davon, wie hoch man den „wahren“ Stichprobenumfang annimmt, das Ergebnis bleibt immer meilenweit von den zwei anderen Werten (0,37 %; 193,66) entfernt und der wahre Inzidenzwert hat zudem durchgängig Größenordnungen, bei deren Nennung alle „Coronafachpersonen“ und politischen Entscheider sofort einen Herzkasper bekommen würden.

Welcher Wert stimmt nun

Für die Anzahl „Coronabefallenen“ haben wir nun drei Werte:
Insgesamt Positive in der Grundgesamtheit (Bild 1): 0,36 %
Neu Positive der KW15 (7-Tage Inzidenz): Inzidenzwert 193,66; beziehungsweise 0,194 % neu Positive
Neu Positive der KW15 statistisch abgeschätzt: Irgendwo zwischen 4,13 … 12,4 %

Welches Ergebnis stimmt nun? Kein Ergebnis von den dreien.
Bleibt die Frage: Welches ist am Wahrscheinlichsten?
Und da ist der Autor überzeugt: Es werden die statistisch abgeschätzten, irgendwo zwischen 4 … 12 % neu Positiven in der Grundgesamtheit Deutschland sein und die anderen beiden Angaben sind grottenfalsch, aber regelmäßig publiziert und vor allem maßnahmenrelevant.

Vielleicht erklärt dieses einfach ermittelte Ergebnis jedoch, warum die Lockdown-Maßnahmen kaum Wirkungen haben, die Inzidenzwerte trotzdem teils rasant steigen (aber auch wieder abnehmen) und selbst in mittelgroßen Städten niemand weiß, wo die Infektionen wirklich stattfinden, da das Geschehen so „diffus“ sei (nicht nur eine Aussage in der Lokalzeitung des Autors):

Bild 3 „Diffuses“ Corona-Infektionsgeschehen in Heilbronn. Gesundheitsamt Heilbronn, 07.03.2021: Allgemeinverfügung zur Eindämmung der weiteren Verbreitung des neuartigen Corona-Virus (SARS-CoV-2) im öffentlichen Raum, „Nächtliche Ausgangsbeschränkung

Der Inzidenzwert gibt innerhalb der gleichen Kommune linear die Anzahl Testungen an

Ein Inzidenzwert von 100 besagt, dass in einer Gemeinde mit 100.000 Einwohnern innerhalb von 7 Tagen 100 neue Positivtestungen, also +0,1 %, vorlagen.
Seine vollständige Berechnungsformel lautet:
7-Tage-Inzidenz = (Neuinfektionen / Einwohnerzahl) x 100.000

Wird nun innerhalb der gleichen Kommune/Landkreis getestet und dafür der Inzidenzwert berechnet, ändert sich die Variable „Einwohnerzahl“ mit dem Multiplikator 100.00 zu einer gemeinsamen Konstanten und die Inzidenzformel reduziert sich auf eine Variable:
Inzidenzformel: Inzidenzwert = Anzahl Neuinfektionen
Bleibt die Anzahl neu Positiver in der Kommune gleich, wird aber vermehrt getestet, erhöht sich der Inzidenzwert alleine aufgrund und mit der Anzahl Testungen. Wird weniger getestet, verringert er sich entsprechend.
Man benötigt demnach weit mehr als Mut, zu behaupten, dass der Inzidenzwert bei der heutigen Teststrategie eine Aussage über die „Coronabelastung“ einer Gemeinde erlauben würde.

Er gibt wirklich nur an, dass aktuell x Positive neu „herausgetestet“ wurden und die Behörde diese Anzahl nachverfolgen sollen. Zwischen verschiedenen Kommunen werden damit auch nicht die „Coronabelastungen“ verglichen, sondern die „Arbeitsbelastungen“ der kontaktverfolgenden Behörden.
Mehr Aussage erlaubt die Formel nicht.
Anmerkung: In [Link] EIKE 13.04.2021: Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet,
wurde das Gleiche Ergebnis – der Inzidenzwert hängt vorwiegend von der Anzahl Testungen ab – über einen anderen Weg hergeleitet.

Der Inzidenzwert, ein My(nis)sterium

Und nun lese man, wer die wichtigen und einschneidenden Grenzwerte dafür festgesetzt hat. Bestimmt eine Gruppe unabhängiger Fachpersonen, oder doch nicht?
[Link] Spiegel 11.11.2020: Die fragwürdige Macht des Inzidenzwertes
… Das RKI sei an der Entscheidung für diesen konkreten Grenzwert nicht beteiligt gewesen, heißt es auf Anfrage des SPIEGEL. Eine Anfrage beim Bundesgesundheitsministerium ergibt, dass die Bundesregierung selbst die Inzidenzwerte festgelegt hat …

Macht nichts. Wichtig ist, dass die unsere über Lockdownmaßnahmen entscheidenden Politiker beratenden Fachpersonen wissen, was richtig ist.
Herr Lauterbach zum Beispiel weiß darüber:
Spiegel 11.11.2020: … (Herr Lauterbach:) „Wir können nur den Wert der Neuinfektionen in der Allgemeinbevölkerung beeinflussen und dadurch wiederum die Risikogruppen schützen.“ In den vergangenen Monaten habe man gelernt, dass der Inzidenzwert als epidemiologische Orientierung hilfreich und sinnvoll sei.
Denn wie viele Menschen auf der Intensivstation landen und wie viele dort sterben, hängt allein von der Inzidenzzahl und der Altersverteilung ab.
… Man habe mit dem Wert eine Größe, um das Infektionsgeschehen in Landkreisen oder Städten miteinander zu vergleichen

Dass das Vergleichen zwischen verschiedenen Kommunen mit dem Inzidenzwert nicht wirklich möglich ist, obwohl es Herr Lauterbach behauptet, wurde vorher gezeigt.
Aber auch sein: „wie viele Menschen auf der Intensivstation landen und wie viele dort sterben, hängt allein von der Inzidenzzahl und der Altersverteilung ab“, lässt sich bezüglich der Inzidenzzahl alleine schon mit dem folgenden Bild als anzweifelbar zeigen:

Bild 4 Stadt Nürnberg, Corona-Daten vom 01.01.2021 – 26.04.2021. Grafiken vom Autor erstellt. Quelle: RKI-Datensatz

In diesem Artikel wurde lediglich ergänzend zum vorhergehenden, EIKE 13.04.2021: Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet
eine weitere statistische Betrachtung vorgenommen.
Bei einer Gesamtbetrachtung kommen noch weitere, nicht weniger gravierende Ungereimtheiten dazu:
[Link] Achgut, 21.04.2021: Inzidenz-Zahlen: Regierungs-Magie und Wirklichkeit

Es bleibt weiterhin ein Rätsel, wie ein ganzes Land ihre vernichtenden Lockdownmaßnahmen immer noch einzig über einen solch mindestens extrem strittigen Wert entscheidet. Der Herdentrieb in Deutschland muss wirklich grenzenlos sein …

Ist nicht erst ein Inzidenzwert über 350 der wirkliche Startwert für Maßnahmen?

Immer wieder muss daran erinnert werden, dass der Inzidenzwert ausschließlich als Arbeitsschutzmaßnahme für Behörden gedacht war.

[Link] Correctiv schreibt dazu: … Überschreiten die neuen Fälle pro 100.000 Einwohner bestimmte Grenzwerte, ist das mit strengeren Corona-Schutzmaßnahmen verknüpft, wie genau das geregelt ist, kann in jedem Bundesland unterschiedlich sein. Den Grund hatte Bundeskanzlerin Angela Merkel am 6. Mai 2020 in einer Pressekonferenz erklärt: Man arbeite mit dem Schwellenwert von 50 neuen Fällen pro 100.000 Einwohnern, weil man glaube, bei dieser Menge die Infektionsketten noch nachverfolgen zu können.
Darauf folgt ein Auszug von Frau Merkels typischem Geschwurbel mit einer Grammatik, an der man verzweifeln kann:
(Bild 5:) „Wir glauben, dass man das bei bis zu 50 akut Infizierten pro Tag – wenn man es über sieben Tage mittelt – und 100.000 Einwohner erreichen und leisten kann, und auf dieser Grundlage gab es da heute keine große Diskussion …
Sofern sich dieser Satz an der ursprünglichen, deutschen Sprache orientiert, sprach Frau Merkel davon, dass fünf mal fünf (da für 100.000 Einwohner), also 20 in den Behörden Kontakte verfolgende Personen, pro Tag 40 neu Positive „nachverfolgen“ können sollten. Und das zu einer Zeit, als man noch nicht eingearbeitetes Personal und außer einem Telefon dafür keine weitere Digitalisierung zur Verfügung hatte.

Bild 5 Auszug aus dem Transkript der Pressekonferenz mit Angela Merkel am 6. Mai 2020 zum Thema Inzidenzwert (Screenshot: CORRECTIV.Faktencheck)

Entweder hat Frau Merkel ihren Satz (und vielleicht auch das Problem) selbst nicht ganz verstanden, oder die „Coronawächter“ kamen mit ihrer Grammatik nicht zurecht. Zumindest wurde ihre Aussage nie so umgesetzt, weswegen ihre deutschen Untertanen sich seitdem vielleicht alleine wegen nicht verstandener „Schwurbelgrammatik“ versehentlich mit 7-fach falschen Grenzwerten „traktiert“ sehen.

Corona offenbart das Niveau nach 16 Jahren Merkel

Doch bei „Corona“ sind viele unserer Politiker nur noch irrlichternd. Auf keine ihrer Aussagen kann man sich verlassen, denn sie stochern selbst nach so langer Zeit immer noch im Coronanebel:
Wolfgang Kubicki kritisiert Angela Merkels Corona-Politik | The European
Entweder ist die Kanzlerin verwirrt oder sie will die Bevölkerung auf den Arm nehmen
Wolfgang Kubicki 29.03.2021
In ihrer Regierungserklärung im Deutschen Bundestag am 25.März 2021 hat Angela Merkel ausgeführt:
„Ich will an dieser Stelle einmal sagen: Wir sind ein föderaler Staat. Es ist keinem Oberbürgermeister und keinem Landrat verwehrt, das zu tun, was in Tübingen und Rostock getan wird. Alle können das machen, und der Bund wird immer unterstützend tätig sein.“
Bei Anne Will am Sonntag, sagte sie das genaue Gegenteil. Die Infektionszahlen gäben eine Lockerung derzeit nicht her. „Das ist nicht der Zeitpunkt, so etwas ins Auge zu fassen.“ Und weiter: „Ich weiß wirklich nicht, ob Testen und Bummeln, wie es in Berlin heißt, die richtige Antwort auf das ist, was sich gerade abspielt.“

Unser Gesundheitsminister entpuppt sich ebenfalls zunehmend als „Frühstücksonkel“ mit leeren Phrasen. Seit Twittern groß in Mode gekommen ist, bekommt man es erst richtig mit.

Bild 6 Eine Sonntagsrede unseres Gesundheitsministers und die raue Wirklichkeit

Unsere Staatsministerin für Digitalisierung hätte sich mit „Corona“ bewähren können. Schließlich sind die Inzidenzgrenzwerte direkte Maßzahlen für „Arbeitsgeschwindigkeiten“, vom Thema Schulen und Digitalisierung ganz abgesehen.

Bild 7 Vorstellung von Frau Politologin D. Bär auf der Regierungshomepage [Link]
Schaut man in einen Artikel zu ihrer Ernennung, muss man sagen dass der damalige Verfasser eine Art Vorsehung hatte:
[Link] Handelsblatt, 12.03.2018: Digitalministerin Dorothee Bär ist eine Luftnummer
Die designierte Digitalministerin ist mit wenig Kompetenzen ausgestattet. Sie ist vor allem eine Meisterin der Selbstdarstellung.
… Die gute Nachricht: Viel Schaden wird die designierte Staatsministerin für Digitalisierung in der neuen Großen Koalition unter Kanzlerin Angela Merkel nicht anrichten können. Sie ist als Quotenfrau der CSU in der neuen Bundesregierung eine politische Luftnummer. Bär ist nicht mit den entsprechenden Zuständigkeiten ausgestattet, um viel zum digitalen Aufbruch beitragen zu können. Manche in der deutschen Medienbranche meinen angesichts ihrer Kompetenzen: das ist auch gut so.
Dennoch sollte die CSU-Politikerin nicht unterschätzt werden. Mit ihrem konservativ-katholisch-digitalen Profil und ihrer rustikalen Sprücheklopferei kann sie es in der an starken Frauen so armen CSU noch weit bringen. Die riesige Kluft zwischen Wort und Tat stellt im populistischen Zeitalter ohnehin kein Problem mehr dar.

Bild 8

Bild 9

Während sich die Staatsministerin für Digitalisierung um das Wohlergehen ihres Mentors „kümmert“, interessieren sich andere für das Funktionieren im öffentlichen System. Und da sieht es recht düster aus.

[Link] nordbayern, 23.04.2021: Meldeverzug: Wie sehr verzerrt er den Inzidenzwert?
Stadt Nürnberg meldet seit Ende Oktober keinen Erkrankungsbeginn
Anbei das Bild auf dem RKI-Corona-Dashboard für Fürth. Deutlich sind die gelben und blauen Balken zu sehen.

Bild 10 Fürth RKI-Dashboard 27.04.2021

In der gleichen Darstellung von Nürnberg fehlen seit Oktober die blauen Balken.

Bild 11 Nürnberg RKI-Dashboard 27.04.2021

Was ist da passiert?
Nordbayern: … Auf Nachfrage verweist das LGL auf die Nürnberger Behörde: „Im vorliegenden Fall ist es den uns vorliegenden Informationen nach so, dass die entsprechenden Daten seitens des Gesundheitsamtes nicht übermittelt wurden“, heißt es in einer E-Mail-Antwort des Landesamts. Nürnbergs Gesundheitsreferentin … begründet die fehlenden Krankheitsdaten mit einem zu hohen Aufwand: „Wir übermitteln an das LGL nur nach Meldedatum, weil der Aufwand bei jedem Datensatz in der Datenbank nachzusehen und den Krankheitsbeginn zu ermitteln sehr hoch ist. Für die Berechnung der Sieben-Tage-Inzidenz ist das Meldedatum maßgeblich.“
Wir haben laut Frau Merkel derzeit eine „Jahrhundertpandemie“, in welcher bedenkenlos Wirtschaft und öffentliches Leben kaputt gemacht werden. Für solche Entscheidungen sind Daten über das Geschehen wichtig. Trotzdem entscheidet ein Gesundheitsamt eigenmächtig, ob welche „erforderlich“ sind, oder nicht.
Sind sie nicht erforderlich, sollten doch alle Gesundheitsämter darauf verzichten und den „sehr hoch“ angegebenen Aufwand für sinnvollere Tätigkeiten verwenden. Alternativ stellt sich die Frage, warum es für so etwas Aufwendiges wie „jeden Datensatz in der Datenbank nachzusehen“ nach über einem Jahr Pandemie noch keine digitale Lösung gibt.

Dazu die Darstellung, warum es allgemein so „hapert“:
Nordbayern: … Personalmangel, alte Software, Faxprobleme
Doch wie kann es sein, dass die Behörden bei einem Wert, an den derart wichtige politische Entscheidungen geknüpft sind, und der nun sogar ins neue Infektionsschutzgesetz aufgenommen wurde, oft nachhinken? … der beruflich häufig mit amtlichen Daten aus verschiedenen Bereichen zu tun hat, sagt … : “Meiner Erfahrung nach liegt so etwas fast immer an Personalmangel, veralterter und nicht standardisierter Software oder Faxproblemen.“
Da wundert es auch niemanden, dass man beim Betreten von Geschäften immer noch händisch seine Daten und Uhrzeit auf einen Zettel schreiben muss. Schnell und vorbildlich gelöst wurde zwischenzeitlich nur die Bestrafung bei Falschangaben.

Merkel hat es in den 16 Jahren geschafft, das Niveau der sie „Umgebenden“ so durchgängig auf das der GRÜNEN niederzuringen, dass der mit der nächsten Wahl wohl kommende Übergang ziemlich nahtlos erfolgen kann. Inzwischen gilt das auch für die CSU.

Aktualisierung aus aktuellem Anlass (28. April 2021):

Die gleitende Inzidenzformel der Kanzlerin

Welchen Wahnsinn man mit der Inzidenz treiben kann – dem unsere ebenfalls wahnsinnig gewordenen Ministerpräsident*innen auch noch zustimmen -, hat unsere Kanzlerin gerade wieder bewiesen.

Regierungshomepage Die Bundeskanzlerin (Datum fehlt): Mitschrift Pressekonferenz Gemeinsame Pressekonferenz von Bundeskanzlerin Merkel, dem Regierenden Bürgermeister Müller und Ministerpräsident Söder im Anschluss an die Besprechung der Bundeskanzlerin mit den Regierungschefinnen und Regierungschefs der Länder zum Thema „Impfen“
… Das heißt, wenn wir 50 Prozent doppelt Geimpfte haben, von denen kein Infektionsrisiko mehr ausgeht, die restlichen 50 Prozent der Bevölkerung aber noch nicht geimpft sind, dann bedeutet im Grunde eine Inzidenz von 100 in der Gesamtbevölkerung, dass für die nicht Geimpften – nur diese sind dann ja von der Erkrankungswahrscheinlichkeit betroffen – im Grunde eine Inzidenz von 200 besteht. Das heißt, wir haben dann immer noch ein erhebliches Risiko für unser Gesundheitssystem und müssen auf der einen Seite eben schauen, welche Rechte Geimpfte bekommen, müssen auf der anderen Seite aber auch im Blick haben, dass noch nicht jedem ein Impfangebot gemacht werden konnte. Wir müssen dann also schauen: Was bedeutet das mit Blick auf die Infektionsgefahr für den noch nicht geimpften Teil der Bevölkerung? Das wird sich über den Sommer, wenn jeder sein Impfangebot hatte, natürlich in eine Mehrheitssituation umwandeln, und irgendwann kommen wir an den Punkt, dass nur noch diejenigen betroffen sind, die sich nicht impfen lassen wollen.

Was hat Frau Merkel mit ihrem Geschwurbel nun gesagt?
Die Grundgesamtheit besteht nicht wie bisher aus allen Personen. Man muss davon die Geimpften abziehen und bekommt so die neue „Corona-Grundgesamtheit“. Neu wird die Inzidenz nun nur noch auf die „Corona-Grundgesamtheit“ hochgerechnet.

Die Folge hat Frau Merkel selbst mit einem Beispiel erklärt:
Bisher
Kommune 1.000.000 Einwohner, davon 1.000 Meldefälle
Ergibt eine Inzidenz von (1.000 / 1.000.000) x 100.000 = 100
Neu
Nun errechnet sich die Inzidenz nach einer neuen Formel:
Inzidenz gleitend = (Anzahl Meldefälle / (Einwohner – Geimpfte)) x 100.000
In der Kommune sind jetzt 50 % geimpft.
Von diesen soll also kein Infektionsrisiko mehr ausgehen. Wobei man sich dann fragt, warum sie weiter alle bestehenden Regeln zum Infektionsschutz einhalten müssen. Doch wohl viele Bürger haben es sowieso längst aufgegeben, hinter den Maßnahmen einen Sinn zu erkennen.

Bild 12 Bundesministerium für Gesundheit: Zahlen, Fragen und Antworten zur COVID-19-Impfung

Der Meldewert betrage weiterhin 1000 Positive.
Jetzt gibt es zwei Inzidenzwerte:
– den bisherigen: (.1000 / 1.000.000) x 100.000 = 100
– den merkelschen, gleitenden Inzidenzwert: (1.000 / (1.000.000 – 500.000)) x 100.000 = 200
Das kann man nun weiter treiben:

Bild 13 Vergleich der beiden Inzidenzformeln

Bei der „Merkelformel“ fällt auf:
– Der ursprüngliche (einzige) Sinn des Inzidenzwertes – die Belastung der Gesundheitsbehörde bei der Nachverfolgung darzustellen – ist vollkommen verloren gegangen
– der Inzidenzwert verliert auch seinen (angeblichen) zweiten Sinn: Die Belastung des Gesundheitswesens darzustellen.
Anmerkung: Dies hat er noch nie dargestellt, aber Herr Lauterbach als „Fachperson“ behauptet es
– die Gruppe der nicht geimpften kann sich vor Coronamaßnahmen nicht mehr „retten“
– die Coronamaßnahmen werden endlos weitergeführt, da selbst die kleinste Gruppe als Gefahr hochgerechnet wird und es unwahrscheinlich ist, Corona vollständig ausrotten zu können.
– die nicht-Geimpften werden nun offiziell so lange diskriminiert, bis sie „verschwunden“ sind.

Was sagen eigentlich die Ethikkommissionen dazu? Wahrscheinlich werden es wieder Richter der unteren Ebenen Bewerten müssen und ja nach Mut entscheiden, mit der Gefahr, dann Hausdurchsuchungen zu bekommen.

 




Die Klimaschau von Sebastian Lüning: Hat die letzte Stunde des Pine Island Gletschers in der West-Antarktis geschlagen?




Aprilkälte 2021 in Deutschland – objektive Rückschau auf einen misslun­genen Frühlings­start. Vergleich mit früher.

April-Erwärmung nach Temperatursprung 1993

Temperatursprünge eröffnen oder beenden charakteristische, mindestens 25ig-jährige Klimaphasen, sind jedoch nicht exakt wissenschaftlich definiert. Sie eignen sich jedoch gut zur Beschreibung des ständigen Auf und Ab im Klimageschehen über Generationen hinweg. Klimasprünge treten nicht überall auf der Erde gleichzeitig auf. Ein Klimasprung in Mitteleuropa aufgrund geänderter Großwetterlagen kann durchaus eine Abkühlung in einer anderen Region nach sich ziehen. (Grafik 4)

Der DWD errechnet für diesen April ein vorläufiges Temperaturmittel um die 6°C, das wären fast 3 Grad unter der neuen Vergleichsperiode 1991-2020, und immer noch etwa 1,3 Grad unter der alten Vergleichsperiode 1961-1990, die verhältnismäßig kalt war, was unsere erste Grafik zeigt..

Abbildung 1: Seit 1943 zeigen die DWD-Messstationen für den April eine ausgesprochene Depression um 1961 bis 1990. Erst ab 1993 wurde der April wieder wärmer bis zu seinem Rekordwert im Jahre 2018. Seit 1943 war der April 2021 unter den zehn kältesten und seit 1881 laut DWD der 19.-kälteste. Er war nach 1929 zum Leidwesen der Autofahrer (morgendliches Scheibenkratzen) und der Gartenbesitzer der zweitfrostreichste April

Betrachtet man den April ab Aufzeichnungsbeginn (1881), so zeigt sich Folgendes:

Abbildung 2: Nach einer im Vergleich zu den meisten anderen Monaten ungewöhnlich langen Erwärmungsphase, die bis 1961 dauerte, fehlten für gut 30 Jahre sehr milde Aprilmonate (solche deutlich über 9°C); erst ab 1993 traten sie plötzlich ungewöhnlich oft auf und gipfelten im Rekord-April von 2018. Aber auch während der Abkühlungsphase um 1970 stieg die CO2-Konzentration schon deutlich an – CO2 kann das Temperaturverhalten des Aprils also nicht erklären.

Es gibt aber eine viel weiter zurückreichende Messreihe – die von Zentralengland. Sie geht über 360 Jahre in die Vergangenheit zurück und offenbart uns eine April-Überraschung, nimmt man doch an, dass es seit dem damaligen Höhepunkt der „Kleinen Eiszeit“ dort erheblich wärmer wurde. Aber tatsächlich reichte es nur zu einem knappen Grad (korrekt: Kelvin) Erwärmung:

Abbildung 3: Im Neuzeit-Optimum (um 2010) gibt es mit 2007 und 2011 nur zwei herausragend warme Aprilmonate in England, ansonsten unterscheidet sich diese nicht von früheren Warmphasen. Auch hier erkennt man die Kaltphase der 1960er bis 1980er Jahre; der letzte Temperatursprung nach oben begann aber schon 1987. Man achte auf die Kaltphase um 1880 – genau in dieser beginnt die DWD-Messreihe. Die Langfrist-Erwärmung beträgt seit 1659, also über mehr als 360 Jahre, nur knapp 1 Kelvin – das ist alles andere als beunruhigend und, außer der natürlichen Erholung des Klimas seit der „Kleinen Eiszeit“, zumindest teilweise auch WI-bedingt. Das mögliche Ende der aktuellen Warmphase deutet sich an.

Aber gibt es vielleicht auch sehr WI-arme Stationen außerhalb Deutschlands? Da bietet sich DALE Enterprise an den Appalachen westlich von Washington D.C. an:

Abbildung 4: Bei dieser ländlichen Station in den USA hatte der April vor 27 Jahren einen Temperatursprung nach unten; das kältere Niveau hält bis heute an. Seit stattlichen einhundert Jahren fehlt dort jegliche April-Erwärmung.

Als eine wahrscheinliche Ursache der langfristigen April-Erwärmung kommt also sowohl in Deutschland, als auch in England, neben der natürlichen Klima-Erholung aus der Kleinen Eiszeit heraus, der Wärmeinsel-Effekt (WI) in Betracht; da KOWATSCH/KÄMPFE dazu bereits zahlreiche Artikel verfasst haben, erübrigt sich hier eine Erklärung für dessen Entstehung. Dieser WI-Effekt erklärt aber die Temperatursprünge nicht, ebenso wie CO2 keine Temperatursprünge erklärt.

Die Gründe der natürlichen Temperatursprünge für Mittel- und Westeuropa sind schwieriger zu erklären: AMO, Änderung der Großwetterlagen, Sonnenscheindauer. So beobachteten KÄMPFE/KOWATSCH für den Monat April ab 1993 in Mitteleuropa vermehrt südliche Wetterlagen, weniger Nordlagen, außerdem weniger Niederschlag und vor allem eine starke Zunahme der Sonnenstunden, welche wiederum den Wärmeinseleffekt der letzten 30 Jahre stark geprägt haben (Ausnahme: 2021). Der WI-Effekt ist im Monat April besonders ausgeprägt. Das soll anhand einiger ausgewählter Wetterstationen gezeigt werden.

Die April-Entwicklung einiger Wetterstationen

Bis 1943 reichen wenige zurück, denn nahezu überall hat sich die Umgebung der Stationen durch Bebauung in Deutschland wärmend verändert, meistens wurden die Stationen oftmals unter gleichem Namen verlegt. Eine Ausnahme scheint Gießen zu sein.

DWD Wetterstation Nr.1639: Gießen-Wettenberg.

Abbildung 5: Bis zum 10.11.2005 scheint die Station ohne Verlegung an einem Standort auf 186 m Höhe seit 1939 gearbeitet zu haben, der östlich und etwas südlich des heutigen Standorts auch im freien Feld gelegen hat. Seit 2005 befindet sie sich zwischen der Gießener Weststadt und Wettenberg in der Nähe des Umspannwerkes. Foto: DWD

Die Daten für die Station sind die Originaldaten des Deutschen Wetterdienstes. Die fehlenden Jahre April 1944 bis 1946 wurden nach den DWD-Deutschlanddaten ergänzt.

Abbildung 6: Auch bei einer wärmeinselarmen Station ist der Temperatursprung im Jahre 1992 auf 1993 erkennbar. Seit 1993 fand jedoch keine weitere Aprilerwärmung mehr statt, allerdings könnte hier die Verlagerung an einen WI-ärmeren Standort ursächlich sein.

Das häufige Verlagern von Stationen, oft nur gut versteckt in den DWD-Metadaten zu finden, beeinflusst natürlich das Temperaturverhalten. Aber zunehmend wird es für den DWD immer schwieriger, WI-arme Standorte zu finden. Wir mussten deshalb auch die Privatstation Amtsberg, am Fuße des Erzgebirges, in unsere Untersuchungen einbeziehen:

Abbildung 7: Die WI-arme Wetterstation in Amtsberg zeigt nach dem Temperatursprung 1993 bis heute sogar eine leichte Abkühlung. Erklärbar ist die fallende Trendlinie mit dem extrem kalten April 2021 im Erzgebirge. Der letzte Wert zieht die Trendlinie nach unten. Die Station steht seit 1981 unverändert an diesem Standort und es war mit Abstand der kälteste April, nicht nur seit 1993, sondern seit Messbeginn vor über 40 Jahren

Die DWD-Station Hof zeigt beide Effekte der April-Erwärmung – natürlich und menschengemacht.

Die DWD-Wetterstation liegt zwar außerhalb des Stadtgebietes, sie ist nach der Wende jedoch in ein Gewerbegebiet eingewachsen und seit 2011 führt die neue vierspurige Bundesstraße als Autobahnzubringer unmittelbar an der einst ländlichen Wetterstation vorbei.

Abbildung 8: Die Durchschnittstemperaturen der DWD-Wetterstation Hof betragen im Zeitraum 1961 bis 1990: 5,5 °C und 1991 bis 2020: 7,6 °C. Die neue CLINO-Vergleichsperiode ist bei der DWD-Station Hof um 2,1 Grad wärmer als die alte. Beim DWD-Flächenmittel beträgt die Differenz nur 1,25 Grad

Im Thüringer Becken fanden wir mit Dachwig eine in den letzten Jahrzehnten nicht verlagerte ländliche DWD-Station; leider sind die Werte erst seit 1991 lückenlos verfügbar:

Abbildung 9: Seit 1991 nur unwesentliche April-Erwärmung an der sehr ländlichen Station Dachwig nordwestlich von Erfurt. Das DWD-Mittel (rosa) hat das ursprünglich wärmere Dachwig in diesen 31 Jahren praktisch eingeholt. Bitte beachten: Ab 1993 wäre die Trendlinie von Dachwig ebenfalls eine hozizontale wie andere WI-arme Stationen, während die DWD-Trendlinie steigend bleibt.

Man beachte die mittels WI-Effekten und/oder Stationsverlagerungen eingetretenen Änderungen besonders in den letzten 30 Jahren. Das DWD-Flächenmittel ist ein Rastermittel und steigt stärker an, als WI-arme Stationen. Auch diese Tatsache beweist, dass beim DWD die Wärmeinselstationen im Gesamtbild überwiegen und keinesfalls eine Ausgewogenheit erreicht ist.

Man könnte schlussfolgern: Wo der DWD seine Wetterstationen auch immer hin versetzt, der Wärmeinseleffekt ist meist schon da. Denn zunehmend wirkt in der freien Landschaft die ausufernde Nutzung der „Erneuerbaren Energien“ stark erwärmend und austrocknend; unterstützt durch großflächige Trockenlegungen in der Land- und Forstwirtschaft. Näheres dazu in diesem sehr lesenswerten Beitrag hier.

Eine mäßige Sonnenscheindauer machte den rauen April 2021 etwas erträglicher

Anders, als etwa 1973, 1977, 1979, 1980 oder 1986, „rettete“ uns die sogar leicht übernormale Besonnung den April noch etwas; gerade im letzten Monatsdrittel gab es nach frostigen Nächten viel Sonnenschein. Ohne den wäre der 2021er April noch merklich kälter ausgefallen, denn anders, als im ersten Jahresviertel, wärmt die Aprilsonne schon merklich:

Abbildung 10: Im DWD-Flächenmittel, das seit 1951 verfügbar ist, lassen sich etwa 32% der Temperaturvariabilität mittels Sonnenscheindauer erklären; diese nahm seitdem deutlich zu. Eine weitere Ursache der April-Erwärmung war die Häufigkeitszunahme südlicher Wetterlagen. Zur besseren Visualisierung in einer Grafik mussten die Sonnenschein-Stunden in Indexwerte umgerechnet werden; der Trend ändert sich hierdurch nicht. Der 2021er April fiel mit knapp 200 Sonnenstunden sogar etwas überdurchschnittlich aus; andernfalls wäre er noch viel kälter verlaufen. Allerdings sollte auch erwähnt werden, dass sich die Messerfassung für Sonnenstunden geändert hat, wie uns ein bekannter Fernseh-Wetterkundler mitteilte.

April 2021 – ein Festival der Nordlagen

Vom Monatsersten und wenigen, weiteren Tagen einmal abgesehen, bestimmten nördliche Großwetterlagen mit Hochdruckgebieten über Großbritannien und Skandinavien das Geschehen. Oft war die Kaltluft-Zufuhr dabei nicht einmal sehr intensiv, aber leider begünstigten gerade die oft schwachwindigen Nächte das erneute Auskühlen der subpolaren und arktischen Luftmassen, was die enorme Frosthäufigkeit erklärt – fast 420 ppm CO2 bewirkten keinerlei „Erwärmung“. Und die Aprilsonne konnte die Kälte ja nur tagsüber erträglicher machen. Besonders oft trat die Großwetterlage Hoch Britische Inseln (HB) auf:

Abbildung 11: Hoher Luftdruck ganz in unserer Nähe über Großbritannien – aber das bedeutet keinesfalls ein lupenreines Schönwetter, sondern bei der nördlichen Anströmung kalte Luft und besonders tagsüber auch Wolkenfelder. Wetterkarte vom 14. April 2021, Bildquelle: wetterzentrale.de

Diese oft antizyklonalen Nordlagen sind für die relativ hohe Sonnenscheindauer, das lt. DWD 25%ige Niederschlagsdefizit des 2021er Aprils – und die sehr vielen Frostnächte verantwortlich.

Abbildung 12: Bis zum 27. April wurden an der temperaturmäßig durchschnittlichen DWD-Station Erfurt/Weimar 15 Frostnächte registriert; dabei blieb es dann bis zum Monatsende. So ähnlich sah das an den meisten Stationen abseits der Küsten und des Rheintales aus. Bildquelle: wetteronline.de

Kalter April 2021 – viele Wetterwechsel im Mai?

Um diese Frage zu klären, lohnt auch noch ein Rückblick auf die letzten, fast sommerlichen Märztage. Die Bauern-Regel „Mait der März, dann märzt der Mai“ sollte man zwar nicht zu ernst nehmen, doch könnte sie ein ganz grober erster Hinweis sein. Und die Hoffnung, als „Ausgleich“ für den kalten April müsse es doch einen sommerlichen Mai geben, erweist sich aus statistischer Sicht als trügerisch. In Einzelfällen (1986, 1990, 2001, 2008, 2017) folgte einem rauen April ein zu warmer Mai. Etwas häufiger fiel der so genannte „Wonnemonat“ nach rauem April aber durchschnittlich bis kalt aus (1973, 1975, 1977, 1979, 1980, 1991, 1997), so dass kein gesicherter, statistischer Zusammenhang besteht. Die Langfrist-Modelle machen auch nicht gerade Hoffnungen auf einen durchgehend warmen Mai. Und bei den Eisheiligen fragen wir uns, ob sich der Jahrzehnte lange Abwärtstrend fortsetzen wird.

Abbildung 13: Während der Mai in weiten Teilen Nord- und Osteuropas zu kalt ausfallen soll, werden für Mittel- und Westeuropa durchschnittliche Verhältnisse erwartet. Die Verlässlichkeit derartiger Prognosen ist jedoch nicht besonders hoch. Bildquelle: NOAA

Die auffallend geringe Höhenlage der 500-hPa-Fläche über Deutschland im Januar 2021 könnte das Temperaturniveau im Mai ebenfalls drücken, wenngleich der Zusammenhang für sichere Prognosen zu schwach ausfällt.

Ohnehin war nach der Winter-Witterung diesmal ein auch eher verhaltener Temperaturverlauf für den Jahresrest zu erwarten; einzelne „Ausreißer“ nach oben bleiben aber möglich und sind aufgrund der anhaltenden, massiven Zirkulationsstörungen sogar wahrscheinlich; und so kann man auch von mehr oder weniger häufigen sommerlichen Phasen im Mai ausgehen, welche aber immer wieder von empfindlich kühlen unterbrochen werden.

Zusammenfassung: Der kalte April 2021 ist zunächst eine Ausnahme

Die langfristige April-Erwärmung in West- und Mitteleuropa wurde von der natürlichen Erholung aus der Kleinen Eiszeit heraus, verursacht; Wärmeinsel-Effekte verstärkten diese Erwärmung. Die steigende CO2-Konzentration der Atmosphäre vermag die immer wieder auftretenden Temperatursprünge nicht zu erklären; besser gelingt das mit AMO, Besonnung und Wetterlagenhäufigkeiten. Gerade in den letzten dreißig Jahren konnten wir Dank einer AMO-Warmphase und einer Häufung südlicher Wetterlagen viele warme Aprilmonate genießen. Eine stark wachsende Besonnung, gefördert auch durch die Luftreinhaltemaßnahmen, unterstützte diese Erwärmung; sie verhinderte auch 2021 einen noch kälteren April. Aber sollten künftig, so wie 2021, die Nordlagen wieder die Oberhand gewinnen, so dürfte sich der zweite Frühlingsmonat wieder deutlich abkühlen; zumal mit einem früheren oder späteren Ende der AMO-Warmphase zu rechnen ist. In diesem Sinne war der raue April 2021 ein Warnschuss – wir sollten und keinesfalls zu sicher sein; dass uns die bisherige seit 1993 wohltuende April-Erwärmung erhalten bleibt.

 




Klimaspaß mit EIKE: So will ein Burger-Brater Kuh-Methan reduzieren

Zellulosefressende Wiederkäuer haben in ihrem Multimagen Archaebakterien, die Methan bilden, das vom Tier ausgeschieden wird. Übrigens passiert das auch beim Menschen – im Darm ohne Archaeen und nicht in so großer Menge.

Wegen der fünf Atome soll CH4 ein potenteres Treibhausgas als CO2 mit drei Atomen sein. Zwar spielt Methan im polititsch-medialen Komplex fast gar keine Rolle, da das industrielle CO2 überbetont und via Steuern und Zertifikaten extrem viel Geld damit verdient wird. Hinzu kommt, daß Bodenbakterien nach Studien ganz oder teilweise aufnehmen und somit aus der Atmosphäre gleich wieder entfernen. Vielleicht kommt aber irgend jemand von den Grünen oder FFF einmal auf die Idee, auch Fleischverkäufer wie die großen Burger-Brater für das Methan ihrer Rinder zu besteuern. Vermutlich um dieses Szenario abzuwenden, quasi im vorauseilenden Gehorsam, hat die Kette Burger King letztes Jahr vermeldet, die Schlachttiere auf eine „kohlenhydratarme“ Diät umzustellen. Was kann das bedeuten? Rinder fressen Gras – und das besteht hauptsächlich aus dem häufigsten Kohlenhydrat des Planeten, Zellulose (Baumwollkleidung; Watte und Papier bestehen auch daraus.).

Soll mehr eiweißhaltiges Tiermehl gefüttert werden? Besser nicht; das stand im Jahr 2.000 in Verdacht, die angebliche Rinderwahn- und Creutzfeldt-Jakob-Welle ausgelöst zu haben.

Deswegen verfüttert man zusätzlich Zitronengras, das zu rund einem Drittel weniger Methan

führen soll. Die Spezialdiät hat das Unternehmen u.a. in Zusammenarbeit mit Forschern der Universität von Kalifornien (Campus Davis) entwickelt. Seit letztem Sommer werden nun solche Zitronengras-Fleisch-Burger in „woken“ Städten wie Portland, Nex York, Miami, L.A. und Austin/Texas verkauft. Über die Absatzzahlen liegen uns bislang keine Daten vor.




Unsere Erde wiederherstellen? Zu was wiederherstellen?

Oft bekommen die lautesten Stimmen mit den sensationellsten Erklärungen über den Untergang der Menschheit die meiste Medienaufmerksamkeit, was die alte Redakteurserfahrung belegt: „wenn es blutet, dann führt es“ [kaum übersetzbares Wortspiel: if it bleeds, it leads].

Seit einem halben Jahrhundert bestimmen düstere Prognosen den Earth Day. Die Veranstaltung vertritt eine Botschaft im missionarischen Stil und predigt eine drohende ökologische Katastrophe mit einer Reihe von Bedrohungen und Warnungen (zunehmende Häufigkeit extremer Wetterereignisse, Rückgang der Artenvielfalt und Massenaussterben, Klimastörungen, Vergiftung des Planeten usw.). Dann wird die frohe Botschaft der Erlösung präsentiert, die durch eine Reihe von Aktionen erreicht werden soll, mit den üblichen Ermahnungen gegen die Nutzung fossiler Brennstoffe, die Änderung des Alltagsverhaltens, das die Nutzung energieintensiver Güter und Dienstleistungen reduziert, die Förderung der „organischen“ Landwirtschaft, um ölbasierte Düngemittel zu reduzieren, und so weiter.

Klimavorhersagen spielen eine zentrale Rolle in der Liturgie der Earth Days. Der Biologe Paul Ehrlich von der Stanford University hat eine beispielhafte Rolle als serieller Prophet globaler Katastrophen gespielt. Er hat Prophezeiungen zum „ökologischen Kollaps gemacht, die bis ins Jahr 1970 zurückreichen und die er als ’nahezu sicher‘ bezeichnet hat.“ Ein weiterer Lieblingsprophet ist Prinz Charles, der im Juli 2009 sagte, die Menschheit habe nur 96 Monate Zeit, um die Welt vor dem „unwiederbringlichen Klima- und Ökosystemkollaps und allem, was damit einhergeht“ zu retten, verursacht durch ungebremsten Konsum. Es gibt natürlich viele andere, von der Teenager-Ikone Greta Thunberg bis zur US-Kongressabgeordneten Alexandria Ocasio-Cortez.

Wenn solche Prophezeiungen unweigerlich scheitern, werden neue Prophezeiungen mit neuen Endterminen gemacht, und der Prozess wiederholt sich. Dies war das Thema einer faszinierenden Studie über Vorhersagen der globalen Umweltapokalypse im International Journal of Global Warming, die 79 bis zum Earth Day im Jahre 1970 zurück reichende Vorhersagen des Klima-Armageddon bewertete. Etwas mehr als 60 % der Vorhersagen waren im Jahr 2020 bereits verfallen. Ein signifikanter Anteil dieser Vorhersagen (43 %) berücksichtigte nie die Unsicherheit über den Zeitpunkt des Weltuntergangs, wie sie etwa Paul Ehrlich und Prinz Charles propagierten. Der durchschnittliche Zeithorizont für die Klimaapokalypse betrug etwa 20 Jahre, und daran hat sich im letzten halben Jahrhundert wenig geändert.

Benjamin Zycher vom American Enterprise Institute vermutet, dass die ungebrochene Prophezeiung des Umweltuntergangs, die sich über 50 Jahre erstreckt, noch auf unbestimmte Zeit weitergehen wird. Diejenigen, die „wirklich glauben“, und diejenigen, deren Lebensunterhalt von der Beharrlichkeit solcher Überzeugungen abhängt, machen es zwingend erforderlich, dass solche Vorhersagen weiterhin gemacht werden und dass man ihnen glaubt.

Eine aktuelle, gut recherchierte empirische Untersuchung der Trends bei einer Vielzahl von klima- und wetterbedingten Phänomenen und allgemein anerkannten Indikatoren für das Wohlergehen von Mensch und Umwelt bietet eine nützliche Referenz. Entgegen der landläufigen Meinung werden Wirbelstürme, Tornados, Überschwemmungen und Dürren nicht schlimmer; Waldbrände sind weniger ausgedehnt als früher; die Getreideerträge und die Nahrungsmittelversorgung sind gestiegen; und die Küstenstreifen und Strände sind nicht geschrumpft. In Bezug auf das menschliche Wohlergehen zeigt praktisch jede Kennzahl oder jeder Indikator eine signifikante, wenn nicht sogar dramatische Verbesserung: Die Lebenserwartung und das Einkommensniveau haben sich verbessert, die Armutsraten sind gesunken, die Menschen leben länger und gesünder und der Index für menschliche Entwicklung der Weltbank hat sich praktisch überall verbessert.

Seit den 1920er Jahren ist zum Beispiel die globale Todesrate durch extreme Wetterereignisse um 98,9 % gesunken, obwohl sich die Weltbevölkerung verdreifacht hat. Die durchschnittliche globale Lebenserwartung bei der Geburt lag 1850 bei etwas mehr als 29 Jahren; ein Jahrhundert später waren es über 45 Jahre, und im Jahr 2019 waren es fast 73 Jahre. Im Jahr 1820 lebten 84 % der Weltbevölkerung in absoluter Armut. Bis 2015 ist dieser Anteil auf 10 % gesunken, obwohl sich die Weltbevölkerung versiebenfacht hat.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/tilak-doshi-restore-our-earth-restore-to-what/

Übersetzt von Chris Frey EIKE

 




Wie globale Erwärmung nicht ist

Ich zog den Reynolds Optimally Interpolated-Datensatz der Wassertemperatur (SST) heran. Er beruht auf Satelliten- und In-Situ-Daten mit Beginn im Jahre 1982. Die Trends darin sehen so aus:

Wie gesagt … nicht das, was ich erwartet hatte. Abkühlung um fast die gesamte Antarktis. Abkühlung im Pazifik, deutlich abgegrenzt durch den Äquator. Abkühlung in der Mitte des Nordatlantiks.

Das Einzige, was ich erwartet hatte, war, dass die La-Nina-Pumpe härter arbeitet, um die Temperatur stabil zu halten. Dies spiegelt sich in der Abkühlung im östlichen Pazifik wider, zusammen mit der Erwärmung dort, wo die La-Nina-Pumpe das wärmere Wasser zuerst nach Westen und von dort in Richtung Nord- und Südpol bewegt.

Aber warum die Abkühlung in der Mitte des Südatlantiks? Warum die Abkühlung nördlich von Grönland, aber nicht südlich von Grönland?

Man muss die „etablierte Wissenschaft“ lieben … Geheimnisse sind wunderbar.

Link: https://wattsupwiththat.com/2021/04/23/how-global-warming-isnt/

Übersetzt von Chris Frey EIKE