1

Globale Temperatur um mindestens 40% übertrieben: Klimamodelle des IPCC sind statistischer Schrott [neue Studie]

“The result has obvious consequences also for the models’ warming expectations for the 21st century because, to make these models consistent with our proposed adjusted temperature record, their projected warming should be reduced by about 40% for all emission scenarios.”

Professor Scafetta ist niemand der sagt, es gäbe keinen anthropogenen Klimawandel. Er gehört zu den Wissenschaftlern, die tatsächlich am Thema interessiert sind und nicht bemüht sind, Forschungsarbeiten zu produzieren, die beim IPCC Wohlgefallen finden. Ein Wohlgefallen, das gemeinhin mit Forschungsgeldern belohnt wird. Als ernsthafter Wissenschaftler steht Scafetta vor einem Problem. Diesem:

Die Erwärmung beträgt derzeit genau 0,21 Grad Celsius. Nicht genug, um zu verbrennen, aber genug, um die Klimawandel-Nutznießer Torschlusspanik entwickeln zu lassen.
Roy Spencer

Die Abbildung, die Roy Spencer monatlich fortschreibt, zeigt die Temperatur, die in der Troposphäre gemessen wird. Die Daten werden bei der Universty of Huntsville, Alabama gesammelt und als Datensatz bereitgestellt. Scafetta hat sich diesen Datensatz besorgt und zudem hat er sich den Datensatz der Climate Research Unit der University of East Anglia (CRU-TS4.04) besorgt, der Temperatur-Messdaten für Messstationen weltweit kompiliert, die wiederum als Grundlage dienen, auf der die CMIP-Modelle des IPCC berechnet werden. Auch diese Daten, das komplette Datenset für CMIP-5 (Coupled Model Intercomparison Project Phase 5), mit dem die düsteren Prognosen des IPCC erstellt werden, hat sich Scafetta besorgt und dann angefangen, zu vergleichen.

Von den Klimamodellen, so schreibt Scafetta, werde erwartet, dass sie in der Lage seien, globale und lokale Klimavariationen, wie sie durch unterschiedliche Bewölkung, Flächennutzung, und -versiegelung, Aeorosole in der Luft und vieles mehr verursacht werden, adäquat abbilden. Das Problem: Sie tun es nicht. Sie tun es nicht einmal ansatzweise. ALLE, ausnahmslos alle Klimamodelle, die das IPCC vertreibt, überschätzen die Erwärmung, die sich seit 1940 ergeben hat (siehe Abbildung oben), und zwar um ein Vielfaches, was insofern rätselhaft ist, als die Klimamodelle angeblich so kalibriert sind, dass sie die vergangenen Temperaturen akkurat abbilden. Das tun sie offensichtlich nicht, und es kommt noch dicker: Scafetta findet, dass unterschiedliche Modelle des IPCC lokale Unterschiede quasi nach Lust und Laune produzieren, ohne Systematik, widersprüchlich, zufällig.

Normalerweise werden Modelle, die beliebige Ergebnisse auf lokaler Ebene produzieren, in den Mülleimer geworfen. Normalerweise. Aber die Modelle, die das IPCC verbreitet, um es dadurch Milliardären zu ermöglichen, dass sie ihren Reichtum steigern, sie dienen nicht dazu, die Realität akkurat abzubilden, sie dienen dazu, politische Munition zu liefern, mit der man dann nicht nur die Klimawandel-Hysterie anheizen kann, sondern mit der es auch möglich ist, diejenigen, die darauf hinweisen, dass der menschliche Einfluss auf das Klima, sofern er überhaupt in relevantem Ausmaß vorhanden ist, z.B. im Vergleich zum Einfluss der Sonne eher irrelevant ist, zu diskreditieren.

Wie schlecht die Modelle des IPCC sind, das zeigt die folgende Abbildung:

In beiden Abbildungen sind Klimamuster dargestellt. Beide Abbildungen unterscheiden sich darin, dass unterschiedliche Klimamodelle des IPCC zum Einsatz gekommen sind. Wären diese Modelle auch nur ansatzweise reliabel, dann müssten die Farbmuster in beiden Abbildungen identisch sein. Sie sind es offenkundig nicht. Sie sind willkürlich und widersprüchlich. Die Modelle sind absoluter Junk – oder, in der zurückhaltenderen Formulierung von Scafetta:

“…is shown in Fig. 6, which indicates that the various models show very different local patterns that contradict each other while they are supposed to reproduce climatic patterns on a 60-year period also locally.”

Nun stellt man solche Berechnungen nicht an, um zu zeigen, dass die Klimamodelle des IPCC Junk sind. Das ist allgemein bekannt, wird nur von Aktivisten und Politdarstellern aus den unterschiedlichsten Motiven heraus ignoriert. Nein, solche Berechnungen werden auf Basis einer Hypothese darüber angestellt, warum die Modelle des IPCC so daneben sind, wobei die Hypothese sich nicht auf die politische Motivation bezieht, die ist nicht fraglich, denn wenn jemand Hysterie verbreitet und gleichzeitig das Heilmittel gegen die Hysterie feilbietet, dann können nur Motive der eigenen Bereicherung oder Boshaftigkeit, der Wunsch, andere zu schädigen, dahinter stehen, nein, die Hypothese hat die Fehler, die systematischen Fehler zum Gegenstand, die – absichtlich oder unabsichtlich – in Klimamodelle integriert sind und dazu führen, dass die Erwärmung so hoffnunglso überschätzt wird.

Die Hypothese, die Scafetta gebildet hat, sieht Urban Heat Islands im Mittelpunkt. Es ist schön eine solche Hypothese zu lesen, denn rund 60 Jahre nachdem Garrett Hardin mit seinem Artikel, “The Tragedy of the Commons” darauf hingewiesen hat, dass die meisten Probleme, vor denen die Menschheit steht, eine Folge von ÜBERBEVÖLKERUNG sind, 60 Jahre später setzt sich wieder das Bewusstsein durch, dass die Menge, in der Menschen den Planeten bevölkern, vielleicht das eigentliche Problem sein könnte. Urban Heat Islands (UHIs) entstehen durch Urbanisierung und mit UHIs wird im Wesentlichen umschrieben, dass nächtliche Winde die Luft der Städte, die sich tagsüber aufheizen, ins Umland bringt und dafür sorgt, dass auch das Umland aufgeheizt wird. Die globale Temperaturzunahme, so die Hypothese, ist zumindest in Teilen auf solche UHIs zurückzuführen.

Messbar wird dieses Phänomen über die Minimaltemperaturen, denn im Gegensatz zu dem, was MS-Medien so gerne verbreiten, sind es nicht die Maximaltemperaturen, die in den letzten Jahren gestiegen sind, sondern die Minimaltemperaturen. Aus beiden, den Maximal- und den Minimaltemperaturen für die 2,5 Kilometer mal 2,5 Kilometer großen Flächen, die die Grundeinheit vieler Klimamodelle bilden, berechnet Scafetta den Diurnal Temperature Range (DTR), also die tägliche Temperaturspannweite für die jeweiligen Messeinheiten, die gleichmäßig über die Erde verteilt sind und stellt auf dieser Grundlage zunächst fest, dass die Klimamodelle des IPCC nicht in der Lage sind die Veränderung in den DTR, die sich in den 60 Jahren bis 2014 ergeben haben, abzubilden.

DTR sind ein direktes Ergebnis der Urbanisierung, der sich daraus ergebenden Urban Heat Islands, und die Erwärmung der letzten Jahrzehnte schlägt sich darin nieder, dass die tägilche Temperaturspannweite um Städte herum geringer geworden ist. Das ist zunächst einmal eine Hypothese, aber eine, die Scafetta schnell bestätigen kann. Die daraus folgende Beobachtung, dass Klimamodelle des IPCC diese Veränderung nicht erfassen, dass sie willkürliche und in jedem Fall in Richtung einer erheblichen Überschätzung der Erwärmung gehende Ergebnisse produzieren, führt zum Masterstroke: Wenn es in Klimamodellen einen “Erwärmungs-Bias” gibt, dann sollten diese Modelle die globale Erwärmung in Gegenden, in denen es keine Urban Heat Islands gibt, die die Überschätzung reduzieren, erheblich überschätzen, dann sollten die Modelle deutlich von den Messdaten abweichen. Scafetta prüft diese Hypothese für Grönland und siehe da, das Ergebnis ist dramatisch:

Die rote Linie bildet die Beobachtungsdaten ab, die blaue Linie gibt die Modell-Simulation wieder, die auf Basis dieser Beobachtungsdaten errechnet wurde. Die Abweichung ist erheblich.

“Thus, the models (which are calibrated to reproduce, on average, the observed global warming trend since 1900) hindcast almost twice the warming than what has been recorded in Greenland since 1930-1950.

In den Modellen des IPCC wird die tatsächliche Erwärmung eben einmal verdoppelt. Wer daran wohl ein Interesse haben könnte?
Aber damit ist Scafetta noch nicht am Ende. Nachdem er gezeigt hat, dass die Erwärmung, die in den Klimamodellen des IPCC berechnet wird, die tatsächliche Erwärmung um ein Vielfaches übertreibt, selbst dann, wenn tatsächliche Beobachtungsdaten den Ausgangspunkt der Modellierung bilden, nachdem er gezeigt hat, dass in der Erwärmung, die die Klimamodelle abbilden, nicht klimatische Erwärmung enthalten ist, die sich als Ergebnis von Urbanisierung einstellt, geht Scafetta daran, den entsprechenden Fehler, der in den Klimamodellen des IPCC enthalten ist, zu quantifizieren.

Das Ergebnis sieht so aus:

Die grünen Linien, es sind 106 an der Zahl, geben die Entwicklung der globalen Temperatur an, wenn die unterschiedlichen Modelle des IPCC genutzt werden, um die entsprechende Modellierung vorzunehmen. Die orange Linie stellt den Mittelwert der 106 Modelle dar. Die rote Linie zeigt die tatsächlich in der Troposphäre gemessene Temperatur, und die schwarze Linie zeigt die Rekonstruktion der Temperatur, die Scafatta auf Grundlage der Daten aus East Anglia vorgenommen hat. Wie von Geisterhand geführt, kommen alle Modelle des IPCC im Verlauf der Zeit zu Temperaturen, die weit über den tatsächlichen Temperaturen liegen, während die Berechnung von Scafetta die tatsächliche Temperatur, die über den Datensatz der University of Huntsville zugänglich ist, sehr gut abbildet.

Daraus ergibt sich nur ein Schluss: Die von Scafetta formulierte Hypothese, dass in den Modellen des IPCC nicht nur die globale Temperatur als viel zu hoch berechnet wird, sondern die Ergebnisse auch deshalb falsch sind, weil der Einfluss, den Urbanisierung und daraus entstehende Urban Heat Islands auf die globale Temperatur haben, nicht berücksichtigt wird, ist bestätigt. Fehlt noch die Angabe, um wie viel sich die Panik-Zahl der Erwärmung die das IPCC so gerne verbreitet, reduziert, wenn diese Fehler aus dem Modell beseitigt werden:

“In the light of the above findings, and under the assumption that the SST [Sea Surface Temperature] warming since 1940–1960 is accurate, the models can be scaled on the SST record and used to estimate an expected land warming. Corrected in such a way, we determined that 25–45% of the recorded 0.97±0.05 °C land warming from 1940 to 1960 to 2000–2020 is likely due to urbanization and other unidentifed non-climatic factors biasing the available climatic records.”

Mit anderen Worten: Unter der Annahme, dass die Temperaturangaben, die in den Modellen des IPCC für die Meeresoberfläche enthalten sind, korrekt sind, eine Annahme, die dem IPCC sehr entgegen kommt, beläuft sich der Fehler in den Modellen des IPCC auf mindestens 25%-45% im Verlauf der letzten 60 Jahre. Im Durchschnitt, so schreibt Scafetta einige Zeilen weiter, überschätzen die Modelle des IPCC die tatsächliche Erwärmung des Planeten um 40%. Und diese Schätzung von Scafetta basiert auf der Annahme, dass die Modellierung der Temperatur der Meeresoberfläche richtig ist, eine Annahme, die man nicht machen muss. Scafettas Schätzung von 40% ist somit eine sehr konservative Schätzung. Die tatsächliche Übertreibung liegt vermutlich deutlich darüber.

In jedem Fall wird uns nicht nur im Hinblick auf SARS-CoV-2 absoluter Unfug erzählt, wird nicht nur im Hinblick auf SARS-CoV-2 mit falschen Zahlen hantiert, auch im Hinblick auf die angebliche Klimakrise basiert die gesamte Geschichte auf mehr oder weniger frei erfundenen Zahlen. Dass man die Erfindung dann als Resultat einer Modellierung verkauft, ist nur sympbolische Kosmetik.


Scafetta, Nicola (2021). Detection of non-Climatic Biases in Land Surface Temperature Records by Comparing Climatic Data and their Model Simulations. Climate Dynamics.

Der Beitrag erschien zuerst bei ScienceFiles hier





Manipulation der Daten zum Meeresspiegel

Erstens: Warum zeigen die satellitengestützten Meeresspiegeldaten, dass der Meeresspiegel so viel schneller steigt als der Anstieg, der an Gezeitenstationen an den Küsten der Welt gemessen wird? Die Aufzeichnungen der Gezeitenstationen zeigen einen Anstieg in der Größenordnung von ein paar Millimetern pro Jahr, eine Rate, die sich über die etwa hundert Jahre, für die wir ausreichende Aufzeichnungen haben, kaum verändert hat. Die Satellitenaufzeichnungen (Abbildung 1) zeigen jedoch einen Anstieg von 3,3 mm/Jahr. Warum der große Unterschied?

Zweitens: Warum zeigt der satellitengestützte Meeresspiegel eine so deutliche Beschleunigung? Wie oben erwähnt, zeigen die Aufzeichnungen des Meeresspiegels von Gezeitenstationen, die viel länger sind, wenig oder keine Beschleunigung. Aber die Satellitenaufzeichnungen behaupten, dass die Rate des Meeresspiegelanstiegs um etwa einen Zehntel Millimeter pro Jahr zunimmt. Eine solche Beschleunigung würde den Anstieg des Meeresspiegels in etwa dreißig Jahren verdoppeln. Noch einmal: Warum der große Unterschied?

Zunächst einmal: Hier ist, was die Satellitendaten laut der University of Colorado Sea Level Research Group zeigen:

Abbildung 1. Meeresspiegeldaten der University of Colorado, die den Trend und die Beschleunigung zeigen. Beachten Sie, dass die Grafik keine Überschneidungen zwischen den einzelnen Satellitenaufzeichnungen zeigt. QUELLE: UCSLR-Gruppe

Ich habe diese Woche wieder über diese Fragen nachgedacht, also ging ich zu NOAA und holte mir deren Excel-Tabelle, die den kompletten Datensatz für jeden der vier Satelliten zeigt.

Ich habe die NOAA-Daten aufgezeichnet. Aber im Gegensatz zu den Colorado-Daten oben, habe ich die volle Überlappung zwischen den einzelnen Satelliten mit einbezogen. Dann habe ich die Rate des Meeresspiegelanstiegs, die von jedem der vier Satelliten angezeigt wird, separat betrachtet. Abbildung 2 zeigt das Ergebnis.

Abbildung 2. NOAA-Meeresspiegeldaten, die den Trend der einzelnen, vollständigen Satellitenaufzeichnungen und den Gesamttrend zeigen. QUELLE: NOAA-Excel-Tabelle

Es scheint, als hätte ich nach all den vielen Jahren der Verwunderung endlich eine Antwort auf meine beiden Fragen. Der Trend ist so groß und die Beschleunigung ist aus einem einfachen Grund so groß. Die beiden jüngsten Satelliten zeigen Trends, die deutlich größer sind als die der beiden früheren Satelliten. Die ersten beiden Satelliten stimmen recht gut überein, aber sie zeigen beide einen viel kleineren Trend als die beiden letzten Satelliten. Und keine der beiden Hälften der Satellitenaufzeichnungen zeigt eine Beschleunigung.

Was man oben sieht sind die Fakten, wie sie von der NOAA angegeben werden, und ich habe oben die Quelle dieser Fakten verlinkt. Und es scheint mir, dass diese Fakten mehr als ausreichend sind, um die Satellitenaufzeichnung des Meeresspiegels vollständig zu diskreditieren.

Und um zum eigentlichen Thema zurückzukehren, warum zeigen die NOAA-Daten einen Gesamttrend, der um 0,3 mm pro Jahr geringer ist als die Colorado-Daten? Das liegt daran, dass die Colorado-Daten das enthalten, was „GIA“ genannt wird, und die NOAA-Daten nicht.

„GIA“ steht für die „glaziale isostatische Anpassung“. Es gibt eine Beschreibung davon auf der Colorado-Seite hier. Sie bezieht sich auf die Veränderungen der Gesamtform der Erde aufgrund des Abschmelzens der riesigen und immens schweren Eisschilde der letzten Eiszeit.

Laut dieser Seite wird die GIA „unabhängig aus Modellen auf -0,3 mm/Jahr geschätzt (Peltier, 2001, 2002, 2009; Peltier & Luthcke, 2009)“.

Nun ist ein Computermodell nichts anderes ist als eine physikalische Umsetzung der Überzeugungen, Erkenntnisse und insbesondere der Missverständnisse der Person, die den Computer programmiert. Da Mr- Peltier an der Programmierung aller vier auf der Colorado-Seite aufgeführten Modellrealisierungen beteiligt war, ist ihre Behauptung, die vier Modelle seien „unabhängig“, lächerlich. Was wir haben, ist die Behauptung eines Mannes, dass er den GIA berechnen kann.

Welchen Effekt hat die GIA? Die Colorado-Seite sagt (Hervorhebung von mir):

Vor der Veröffentlichung 2011_rel1 haben wir die GIA bei den Schätzungen des globalen mittleren Meeresspiegels nicht berücksichtigt, aber diese Korrektur ist jetzt wissenschaftlich gut verstanden und wird von fast allen Forschungsgruppen auf der ganzen Welt auf die GMSL-Schätzungen angewendet. Die Einbeziehung der GIA-Korrektur hat den Effekt, dass frühere Schätzungen der globalen mittleren Meeresspiegelrate um 0,3 mm/Jahr erhöht werden.

Da sind also die fehlenden 0,3 mm/Jahr, angewandt von „fast allen Forschungsgruppen“ … Ich schätze, die NOAA hat das nicht mitbekommen.

Für mich ist die Behauptung, dass ein Computermodell die Veränderung des Gesamtvolumens aller verschiedenen Ozeanbecken der Welt auf die nächsten 0,3 mm pro Jahr des Meeresspiegels berechnen kann, unglaubwürdig, und zwar aus folgendem Grund.

Für den Landteil der Berechnung müssen diese „unabhängigen“ Computermodelle GPS-Höhen verwenden. Durch die Verwendung von Split-Phase-GPS und wiederholten Messungen können diese bis zu ± 10 mm oder besser genau sein, eine erstaunliche wissenschaftliche Leistung … aber das ist weit entfernt von einem Zehntel Millimeter, und das nur an Land. Nicht nur das, wir haben auch keine GPS-Messungen im ganzen Land. Sie konzentrieren sich auf die USA und Europa, während sie anderswo nur sporadisch genutzt werden.

Auf dem Meer müssen die „unabhängigen“ Modelle Satellitenmessungen verwenden, so dass sich die Frage nach der Genauigkeit und Präzision der Satellitenmessungen des Meeresspiegels selbst stellt. Diese Messungen werden durchgeführt, indem Radarwellen von der Meeresoberfläche zurückgeworfen werden und gemessen wird, wie lange es dauert, bis sie zum Satelliten zurückkehren. Hier sind wiederholte Messungen nicht möglich, da sich der Meeresspiegel an jedem Punkt ständig ändert und der Satellit selten zweimal an der gleichen Position ist. In einer aktuellen NASA-Pressemitteilung zum Sentinel-6-Satelliten, dem Nachfolger des Jason-3-Satelliten, wird der Ozeanograph Josh Willis zitiert:

Sentinel-6 wird in einer Umlaufbahn in etwa 1300 km Höhe kreisen und mit Hilfe von Radar die Oberfläche des Ozeans messen. Ein Instrument auf dem Satelliten sendet eine Radarwelle hinunter zur Erde. Die Radarwelle wird von der Meeresoberfläche reflektiert und kehrt zum Satelliten zurück. Durch die Messung der Zeit, die das Radar für den Hin- und Rückweg benötigt – und unter Berücksichtigung der Feuchtigkeit in der Atmosphäre, die das Radar verlangsamt – können die Wissenschaftler messen, wie weit die Meeresoberfläche vom Satelliten entfernt ist.

Mit anderen Worten: Der Satellit kann den Wissenschaftlern auf der Erde mitteilen, wie hoch die Ozeane sind und wie sich diese Höhe im Laufe der Zeit verändert.

Es ist wirklich eine unglaubliche technische Leistung“, sagt Josh Willis. „Wir können den Wasserstand mit einer Genauigkeit von 25 mm aus 1300 km Höhe messen.“

Eine Genauigkeit von 25 mm … und sie behaupten, sie kennen die jährliche Veränderung des Volumens der Ozeane aus dem GIA auf das nächste Zehntel eines mm der Meeresspiegelhöhe? Ich weiß, dass Genauigkeit etwas anderes ist als Präzision, und dass die Messung von Längenänderungen im Laufe der Zeit (Präzision) um eine Größenordnung besser sein kann als die Messung der Länge selbst (Genauigkeit), aber trotzdem … sorry, aber ich kaufe dem GIA die Behauptung nicht ab.

Schauen wir mal, ob ich Ihnen ein Gefühl für die Schwierigkeit der Satellitenmessungen des Meeresspiegels geben kann. Die Satelliten kreisen in einer Höhe von etwa 830 Meilen, das sind etwa 1,34 Milliarden Millimeter. Um also die Veränderung des Meeresspiegels auf ein Zehntel Millimeter genau zu messen, müssten wir in der Lage sein, den Abstand zwischen dem Satelliten und der Meeresoberfläche mit einer Genauigkeit von mehr als einem Teil in dreizehn Milliarden zu messen … und das ist selbst in einer kontrollierten Laborumgebung eine große Herausforderung.

Hier sind einige der Schwierigkeiten bei dieser Messung. Die erste ist die Messung der Höhe des Satelliten selbst. Wenn wir das nicht auf den Millimeter genau für jede Sekunde eines jeden Tages wissen, werden wir ungenaue Antworten erhalten. Der nächste Punkt ist die unterschiedliche Zusammensetzung, Temperatur, Bewölkung und Feuchtigkeit der Atmosphäre. All diese Faktoren verändern die Zeit, die das Radarsignal braucht, um zum Satelliten zurückzukehren. Dann gibt es die Meereswellen, die offensichtlich die Höhe des Ozeans um Tausende von mm verändern. Schließlich gibt es noch die „Instrumentendrift“, die unvermeidlichen Veränderungen, die bei elektronischen Messinstrumenten mit der Zeit auftreten.

Nettoergebnis? Nun, das Nettoergebnis ist in Abbildung 2 oben zu sehen, wo laut der Universität von Colorado ein Satellit sagt, dass der Meeresspiegel mit 2,5 mm/Jahr ansteigt, und nur 8 Tage nach dem Ende der Daten dieses Satelliten (das Intervall zwischen einem Satelliten und dem nächsten in der Colorado-Meeresspiegelaufzeichnung) sagt der Nachfolgesatellit, dass er mit 4,1 mm/Jahr ansteigt … no bueno. Sie behaupten, dass in 8 Tagen die Anstiegsrate um 1,6 mm pro Jahr gestiegen ist. Beachten Sie auch, dass es in beiden Hälften der Satellitenaufzeichnung absolut keine Beschleunigung gibt, sondern nur eine schrittweise Veränderung zwischen den Satelliten. Offensichtlich sind sie nicht in der Lage, jährliche Änderungen des Meeresspiegels auf den nächsten Millimeter genau zu messen, geschweige denn auf den nächsten Zehntelmillimeter.

Die Leute, die an dem Projekt arbeiten, sind jedoch alle wahre Gläubige. Im selben Artikel wird Josh Willis mit den Worten zitiert: „Wir wissen, dass die Ozeane wegen der vom Menschen verursachten Eingriffe in das Klima steigen.“

Verdammte Menschen, die sich immer in das Klima einmischen … zum Beispiel hat unser neuer „Klima-Zar“ John Kerry 5 Häuser, eine Reihe von Autos, eine Yacht und einen Privatjet, und er sagt uns, dass wir den Bus nehmen sollen, um die gefürchtete, „vom Menschen verursachte Störung des Klimas“ zu vermeiden … aber ich schweife ab.

Das Problem ist, dass der Start mit einer festen „wissenschaftlichen“ Überzeugung wie dieser dazu führt, dass die Leute, die an den Satelliten-Meeresspiegel-Datensätzen arbeiten, „befangen“ sind. Sie kleben die offensichtlich inkompatiblen Satellitenergebnisse zusammen, streichen Erdnussbutter über die Risse, damit sie nicht gesehen werden können, und verkünden der Welt, dass die Satelliten eine gefährliche Beschleunigung des Meeresspiegelanstiegs zeigen, so dass wir alle sehr besorgt sein sollten …

Ich habe schon seit einiger Zeit gesagt, dass wir den Satellitenergebnissen kein Gewicht beimessen sollten. Ich habe dies jedoch ausschließlich auf die sehr großen Unterschiede sowohl im Trend als auch in der Beschleunigung zwischen den Satelliten- und den Gezeitenstationsaufzeichnungen gestützt, sowie auf die bekannten Schwierigkeiten bei Satellitenmessungen, die oben diskutiert wurden. Ich habe diese Frage in mehreren Beiträgen untersucht, darunter „Inside The Acceleration Factory“ und „Accelerating The Acceleration“.

Aber jetzt, endlich, habe ich die Fakten, die meine Behauptung untermauern. Es gibt keine Beweise für eine Beschleunigung des Meeresspiegelanstiegs, weder in den Tidenmessungen noch in den schäbig zusammengeschusterten Satellitenaufzeichnungen. Er steigt seit geraumer Zeit in der Größenordnung von 200 mm pro Jahrhundert, und es gibt keine Anzeichen für eine Veränderung dieser Anstiegsrate.

Es steht einem also frei, das zu tun, was Obama und Bill Gates getan haben – Grundstücke am Meer kaufen. Sie verkünden lautstark, dass der Meeresspiegel gefährlich ansteigt, aber wie die Mehrheit der Klimaalarmisten überführen ihre Taten deren Worte als Scheinheiligkeit.

Link: https://wattsupwiththat.com/2021/02/21/munging-the-sea-level-data/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Einige ausschweifende Passagen Eschenbachs wurden bei der Übersetzung nicht berücksichtigt.

 




Verfehlte Corona-Politik in Deutschland: Die Daten schlagen zurück.

  1. Aktuelle Vorbemerkung

Nachdem dieser Artikel so gut wie fertig gestellt war, wurde die Corona-Welt in Deutschland  überrascht vom Wiederanstieg des berühmt-berüchtigten Inzidenzwerts. Dieser Wert war in den Wochen zuvor beim steten  Abstieg auf  die erstrebten Zielwerte 50 / 35 schon bei 57 angekommen, als die Bewegung für ein paar Tage ins Stocken kam und dann sich wieder umkehrte. Gegenwärtig ( 24. 2. ) steht der Inzidenzwert bei über 61.

Überwiegend wird der Wiederanstieg auf die englische Mutation des Virus zurückgeführt. Aber nichts Genaues weiß man nicht. Sollte der Wiederanstieg sich fortsetzen, wird er die ahnungslose Politik in ein großes Dilemma  stürzen.. Die Strategie des „weiter so“  funktioniert nicht mehr und kann gegenüber der zunehmend ungeduldigen Bevölkerung wohl auch nicht mehr durchgesetzt werden.

Die selbstgewissen radikalen Virologen wie Drosten und Wieler werden wahrscheinlich eine erneute Verschärfung des Lockdowns fordern. Obwohl diese Richtung mit der Kanzlerin und dem bayrischen MP überzeugte Anhänger hat, dürfte sie nach fast vier Monaten Lockdown nicht mehr exekutierbar sein. In Frankreich hat Präsident Macron sich  entgegen dem Rat seiner Berater geweigert,. einen weiteren Lockdown zu verfügen. In Deutschland blieben etwa  nächtliche Ausgangsbeschränkungen eine Option, deren Wirksamkeit aber sehr begrenzt sein dürfte.

Es könnte sein, dass der Frühling die Politik aus dem Entscheidungsdilemma befreit.. Im vergangenen Jahr war der R-Wert im Lauf des März rasant von über 3 auf unter 1 gesunken ( Nahamowiitz 2020 ). Ich halte eine Wiederholung des Vorgangs auch angesichts der infektiöseren Virusmutationen für wahrscheinlich.

Damit wäre die desorientierte Politik noch einmal um eine Grundsatzentscheidung herumgekommen. Da entgegen den Träumen der radikalen Virologen SARS-CoV-2 nicht vollständig eliminierbar ist, auch nicht durch Impfung, dürfte sich für die neu gewählte Regierung im kommenden Herbst bei wieder steigenden Fallzahlen die Notwendigkeit einer Grundsatzentscheidung zwischen alternativen Konzepten in aller Brutalität stellen. Mit dem von den Virologen  Hendrik Streeck und Jonas Schmidt-Chanasit sowie  dem Chef der Kassenärztlichen Bundesvereinigung  ( KBV ) Andreas Gassen vertretenen Konzept eines „fokussierten Schutzes“ zugunsten der vulnerablen Gruppen steht ein m. E. akzeptables Schutzkonzept bereit ( vgl. näher Nahamowitz 2021 ). Besser wäre es freilich, dem erfolgreichen schwedischen Modell ( s. u. ) möglichst zeitnah zu folgen und auf alle repressiven Anordnungen zur Krisenbekämpfung zu verzichten

Die gestiegene Inzidenzzahl ist in meinen Augen durchaus ein ( eher situatives ) Datum, welches im Sinn der Artikelüberschrift gegen eine fehlgeleitete Politik „zurückschlägt“, Im folgenden werden drei weitere Daten erörtert, welche auf einer grundsätzlichen Ebene gegen die Corona-Politik zurückschlagen.

 

  1. Die Sterbedaten 2020 und das Fehlen einer „epidemischen Lage von nationaler Tragweite“

 

Am 25. März 2020 stellte der Bundestag gem. § 5 Abs. 1 InfektionsschutzG eine „epidemische Lage von nationaler Tragweite“ fest, wodurch nach 5 Abs. 2  der Vorschrift der Bundesgesundheitsminister unbeschadet der Länderbefugnisse zum Erlass von weit reichenden Rechtsverordnungen ermächtigt wurde.

 

Die „epidemische Lage von nationaler Tragweite“ ist damit der zentrale Begriff des deutschen Infektionsschutzrechts. Sie liegt gem. Satz 4  von § 5 Abs. 1 vor, „wenn eine ernsthafte Gefahr für die öffentliche Gesundheit in der gesamten Bundesrepublik Deutschland besteht, weil

  1. die Weltgesundheitsorganisation eine gesundheitliche Notlage von internationaler Tragweite ausgerufen hat und die Einschleppung einer bedrohlichen übertragbaren Krankheit in die Bundesrepublik Deutschland droht oder
  2. eine dynamische Ausbreitung einer bedrohlichen übertragbaren Krankheit über mehrere Länder in der Bundesrepublik Deutschland droht oder stattfindet“.

Zentrale Voraussetzung für das Vorliegen „einer epidemischen Lage von nationaler Tragweite“ ist demgemäß die Einschleppung oder dynamische Ausbreitung einer „bedrohlichen übertragbaren Krankheit“. Ob eine Krankheit bedrohlich ist, bemisst sich in erster Linie nach ihrer Letalität, d. h. nach der Zahl der durch sie verursachten Sterbefälle.

Die Zahl aller Sterbefälle Deutschlands im vorigen Jahr hat das Statistische Bundesamt kürzlich mit 982 489 angegeben.. Damit liegt gegenüber 2019 eine Übersterblichkeit von 5 % und gegenüber dem Durchschnitt der Jahre 2016 – 2019 von 4, 9 % vor . Berücksichtigt man, dass aufgrund der veränderten Alterspyramide und – struktur gegenwärtig in Deutschland jedes Jahr statistisch grob 6 000 Menschen mehr sterben als im Jahr zuvor, reduzieren sich die Zahlen auf nur noch 3, 4 % mehr als 2016 – 2019 und 3, 5 % mehr gegenüber 2019 ( vgl. Casula 2021 ).

Damit liegt im Jahr 2020 eine nur leichte Übersterblichkeit vor und somit kann COVIT – 19 keine „bedrohliche übertragbare  Krankheit“ sein, womit wiederum das Vorliegen einer „epidemischen Lage von nationale Tragweite“  für das Jahr 2020 entfällt. Die Feststellung einer epidemischen Lage von nationaler Tragweite setzt m.E. eine Übersterblichkeit von zumindest 25 % voraus. Da sich an der Situation einer nur leichten Übersterblichkeit bis zum März nichts ändern wird, ist die Erneuerung des Feststellungsbeschlusses durch den Bundestag im kommenden Monat mangels Vorliegens der Tatbestandsvoraussetzungen des § 5 Abs. S. 4 InfektionsschutzG nicht möglich.

Ebenfalls die Euromomo-Daten vom Jahresende weisen auf eine nur leichte Übersterblichkeit des Jahres 2020 gegenüber den Vorjahren  hin ( Nahamowitz 2021 ).

Nach einer auf der Basis einer linearen Regressionsanalyse für die Jahre von 2006 bis 2019 vorgenommenen Berechnung kommt  außerdem Thomas Rießinger  zu dem Ergebnis, dass eine Gesamtsterbezahl von 982 000, wie sie das Statistische Bundesamt später amtlich festgestellt hat, sich durchaus im Rahmen des üblich Erwartbaren hält. Und damit nicht  des Rückgriffs  auf die „Jahrhundertkatastrophe“ Corona zur Erklärung ihres Zustandekommens  bedarf C Rießinger 2021 ).

Die mögliche Einwendung, dass die nur leichte Übersterblichkeit 2020 das Ergebnis der wirksamen Corona-Schutzmaßnahmen sei, kann nicht gelten, weil ab Sommer bis Jahresende 2020 die Fallzahlen gerade nicht gefallen, sondern drastisch gestiegen sind – und das bei tendenziell unveränderten Sterbezahlen.

Eigentlich wäre es angezeigt gewesen, dass die Kanzlerin und die Länder-MP bei ihrem kurz nach der amtlichen Bekanntgabe der 2020er Gesamtsterbezahl stattfindenden Treffen diese Information zum Anlass genommen hätten, einmal grundsätzliche Überlegungen zum abgelaufenen „Corona-Jahr“ anzustellen. Derartige grundsätzliche Reflexionen sind freilich sowohl für die politischen Akteure als auch ihre wissenschaftlichen Berater Tabu. Denn sie bergen die „Gefahr“ in sich, dass die von Beginn an bestehende epidemiologische und rechtliche Haltlosigkeit der offiziellen Corona-Politik evident würde.

Stattdessen wurde bei dem Treffen am 10. Januar Lockdown-Politik „as usual“ gemacht: So wurde der Lockdown bis zum 7. März verlängert mit der Maßgabe, dass es Lockerungen danach nur bei einer Inzidenz von  unter 35 geben könne. D. h. wenn sich in einer  Woche von 100 000 Menschen weniger als 35 neu mit dem Virus anstecken..

Friseursalons wurde die Öffnung ab dem 1. März gestattet. Die Öffnung der Schulen und Kitas wurde in die Entscheidung der Länder gestellt, eine einheitliche Regelung gibt es nicht.

Angesichts des Wiederanstiegs des Inzidenzwerts von schon erreichten 57 auf gegenwärtig über  61 erscheint ein Absinken unter 35 als ausgeschlossen. Man darf auf den Beschluss der Ministerpräsidentenkonferenz gespannt sein. Werden sich die Hardliner durchsetzen und wird auf einer  unveränderten Beschlusslage bestanden oder diese im Sinne der Strategie des „Zero COVIT“ sogar verschärft oder kommt es umgekehrt gar zu einer Neuausrichtung der Politik? Das schwedische Beispiel könnte einen Anstoß dazu geben. Dazu müsste die deutsche Politik freilich ihr notorisches Desinteresse an nicht „passenden“ Daten aufgeben.

 

  1. Schweden hat es besser. Der sensationelle Erfolg des liberalen Modells         . .

Weltweit stehen unter den größeren Ländern der übergroßen Mehrheit der Lockdown-Länder nur vier Länder gegenüber, die auf den Einsatz dieses repressiven Instruments bisher verzichtet haben : Schweden, Südkorea, Japan und Hongkong. Es handelt sich um Inseln epidemiologischer Aufklärung  in globaler Corona-Dunkelheit ( vgl näher Reiss, Bhakdi 2020. 106 ff ).

John Joannidis unterscheidet mit seinen Mitautoren ( Bendavid, Oh, Bhattacharya, Joannidis 2021 ) zwischen England, Frankreich, Deutschland, Iran, Italien, Niederlande, Spanien und den USA einerseits und Schweden und Südkorea andererseits. Während die erste Gruppe rechtlich verpflichtende Ausgangsbeschränkungen und Geschäftsschließungen zur Virusbekämpfung eingesetzt hat, sie werden als „stärker restriktive Interventionen“ bezeichnet, haben Schweden und Südkorea sich mit Maßnahmen begnügt, die „weniger restriktive Interventionen“ genannt werden. Zentrales Unterscheidungskriterium sind also die verpflichtenden Ausgangsbeschränkungen in Verbindung mit den Geschäftsschließungen, die in  Schweden und Südkorea nicht vorgenommen worden sind.

So hatte Schweden unter der Leitung seines Staatsepidemiologen Anders Tegnell sich auf Empfehlungen beschränkt, z.B. auf das Maskentragen zu Stoßzeiten, sowie auf Alkoholverbote in Bars und Restaurants ab 20 Uhr oder die Begrenzung der Teilnehmerzahl bei öffentlichen Zusammenkünften auf acht. Obwohl Schweden im Januar ein Pandemiegesetz verabschiedet hat, welches Lockdownmaßnahmen nun rechtlich ermöglicht, hat es diese bisher nicht umgesetzt. Der schwedische MP Stefan Löfven hat vielmehr den Sonderweg seines Landes am 8.  Januar d. J. ausdrücklich verteidigt.

Angesichts dieser Entwicklung waren die deutschen frohlockenden Abgesänge „Schweden verabschieden sich von ihrem Corona-Sonderweg“ ( Steuer 2021 ) nicht nur verfrüht, sondern glatte Fehleinschätzungen.

Wie sieht denn nun die epidemiologische Bilanz beider Länder im Vergleich aus? Deutsche Politiker und Journalisten verdammen zumeist fast reflexhaft den schwedischen Weg wegen seiner angeblich vielen Toten, Die Frage soll nun anhand der Daten von Euromomo ( European Mortality Monitoring ) sowie worldometer beantwortet werden.

  • Vergleich nach Maßgabe der „z-scores by country“ nach Euromomo: Gleichstand

Z-scores by country werden bei Euromomo  verwendet, um Vergleiche zu ziehen zwischen den Sterblichkeitsmustern verschiedener Bevölkerungen. Maßeinheit des z-score ist die Standardabweichung, welche in einem komplizierten Verfahren berechnet wird. Unterschieden werden sechs Stufen des „Excess in z-scores“: No excess, low excess, moderate excess, high excess, very high excess, extraordinary high excess.

Hier belegt Schweden am 23. 2. 2021 mit „No excesss“ die beste Stufe. Für Deutschland werden mit Germany ( Berlin ) und Germany ( Hesse ) zwei Bezugsorte angegeben, die ebenfalls auf der Stufe „No excess“ liegen. Auf der Ebene allgemeiner Mortalität ergibt sich also eine Gleichstellung zwischen  beiden Ländern – Schweden hat dies aber ohne Vornahme eines Lockdowns erreicht. Der „Sonderweg“ ist also erfolgreich bei der Erreichung geringer Sterbezahlen. Und zwar im selben Umfang wie das Lockdown -Land Deutschland.

Zusätzlich ist davon auszugehen, dass Deutschland den Status des „No excess“ bei der Sterblichkeit in den März 2021 hinüber nehmen wird, womit die in diesem Monat  fällige Erneuerung der Feststellung einer „epidemischen Lage von nationaler Tragweite“ durch den Bundestag nicht möglich ist ( vgl. Nahamowitz 2021). Man darf gespannt sein, wie sich die Regierung dieses Problems entledigt.

  • Vergleich nach Maßgabe der Daten von worldometer: sensationell niedrige schwedische Sterbezahlen

Für das nach Bevölkerung  gegenüber Schweden etwa 8 mal größere Deutschland gibt worldometer am 24: 2   2021  die insgesamt aufgelaufene Zahl der täglich neuen Fälle  mit 2.399.500 an, die aufgelaufene Gesamtzahl der Todesfälle mit 68.772. Für Schweden lauten die Zahlen 631.166 und 12.649. Die schwedischen Todeszahlen liegen grob bei knapp einem Fünftel der deutschen, dürften gemessen an der Bevölkerung aber nur bei einem Achtel liegen. Bei den aufgelaufenen täglichen Infektionszahlen liegt Schweden etwa bei einem Viertel. Bei dieser statischen Betrachtung ergibt sich also ein klarer Vorteil für das Lockdown-Land Deutschland..

Bei den aktuellen Fallzahlen weist Deutschland am 24. 2. d. J. im „7 day moving average“ 7.554 Fälle aus und Schweden 1.903 – also ebenfalls überproportional viel. Etwas ganz anderes ergibt sich bei  den letztlich entscheidenden Todeszahlen. Hier kommt Schweden am 24. 2. auf sensationell geringe  6 Todesfälle, Deutschland auf  403 – fast  70 mal so viel ( ! ). In Schweden haben sich also die Todesdaten systematisch von der Entwicklung der Falldaten entkoppelt.

Wie kann das sein? Nach den Daten von Euromomo liegen die beiden Länder doch gleich

auf. Bei worldometer hingegen, und zwar nur bei den Todeszahlen, findet sich der Riesenvorteil bei Schweden. Eine Erklärung könnte sein, dass Schweden es ab etwa Weihnachten entscheidend gelernt hat, bei den vulnerablen Gruppen Todesfälle zu vermeiden.

Wahrscheinlicher erscheint mir folgende Erklärung: Während Euromomo alle Todesfälle erfasst, erfasst worldometer nur die Corona-Toten. Deren Zahl aber hat das RKI maßlos aufgeblasen, folgend seiner von Beginn an verfolgten Strategie der Angsterzeugung und Überdramatisierung. So meldete es im Dezember an manchen Tagen über 1.000 „an und mit“ Corona Verstorbene. Bei 2.600 täglich durchschnittlich Verstorbenen ist das mehr als ein Drittel aller Verstorbenen. Corona verdrängt  damit die Herz -/ Kreislauferkrankungen als Todesursache vom 1. Platz. Das ist völlig unglaubhaft.

Hier dürfte – wahrscheinlich  mit Einverständnis der Bundesregierung – nach allen Regeln der Kunst manipuliert worden sein. Die tatsächliche deutsche tägliche Corona-Sterbezahl dürfte 70 oder 80 Tote nicht überschreiten. Dies ist der Fluch der bösen Tat: Die massive künstliche Aufblähung der eigenen Corona-Sterbezahlen hat Deutschland beim Vergleich mit Schweden in die ultimative Nachteilsposition befördert.

  1. Der nur geringe Erfolg von internationalen Lockdown-Maßnahmen

Ich komme zurück auf die oben erwähnte Untersuchung von Joannidis und seinen Mitautoren ( Bendsvid et al. 2021 ). Es geht in ihr um den Vergleich des Einflusses auf  die Ausdehnung der Corona-Fallzahlen von als „stärker restriktiv“ bezeichneten Interventionen, das sind Ausgangsbeschränkungen und Geschäftsschließungen, und „weniger restriktiven“ Maßnahmen, wie sie in Schweden und Südkorea vorgenommen worden sind.

Die Implementation  beider Arten von Interventionen führten zu signifikanten Reduktionen bei den Corona-Ansteckungen  in allen Ländern ( Ausnahme Spanien ). Die Autoren fanden aber keinen klaren, signifikanten  positiven Zusatzeffekt der „stärker restriktiven Interventionen“ auf das Wachstum der Corona-Fallzahlen im Vergleich zu den „weniger restriktiven“ Maßnahmen.

Als Beispiel wird im „Abstract“ Frankreich hervorgehoben. Dessen „stärker restriktive Interventionen“ hatten beim Vergleich mit Schweden nur einen Zusatzeffekt von + 7 %, beim Vergleich mit Südkorea von + 13 %.

Dieses ernüchternde Ergebnis spricht angesichts der damit verbundenen Kosten auf allen Ebenen der Gesellschaft sehr klar gegen eine Fortsetzung des Lockdowns in Deutschland.

 

  1. Fazit: Die Daten schlagen zurück

Die vom Statistischen Bundesamt für Deutschland für das  Vorjahr erhobenen Sterbedaten zeigen, dass sich in Deutschland seit Beginn der Pandemie zu keinem Zeitpunkt eine „epidemische Lage von nationaler Tragweite“ eingestellt hat. Eine solche wird sich auch in  diesem Jahr nicht einstellen.

Im Systemvergleich zwischen dem Lockdown-Modell und dem liberalem Modell bei der Pandemiebekämpfung hat das liberale schwedische Modell bei den Corona-Sterbezahlen gegenüber dem deutschen Lockdown-Modell einen spektakulären Sieg errungen.

Auch im umfassenderen internationalen Vergleich hat sich bei der Krisenbekämpfung das „stärker interventionistische“ Modell nicht als signifikant erfolgreicher als das liberale Modell erwiesen. Auf Lockdowns sollte daher zukünftig weltweit verzichtet werden.

 

Quellen:

Bendavid, Eran, Oh, Christopher, Bhattacharya, Jay, Ionnadis, John P. A. ( 2021 ) : Assessing Mandatory Stay-at-Home and Business Closure Effects on the Spread of COVID-19, doi: 10. 1111 /eci. 13484.

Casula, Claudio ( 2021 ) : Statistik-Bilanz für 2020: Pandemie ohne Übersterblichkeit, Achgut-Publikation vom 1. 2.

Nahamowitz, Peter ( 2020) :Sechs kurze Begründungen für die Verfassungswidrigkeit des Shutdown in Deutschland, EIKE-Publikation vom 17 Mai.

Nahamowitz, Peter ( 2021) : Corona in Deutschland 2020 : Die Rückkehr der harten Lockdowns, Unter- und Übersterblichkeit und der fällige Offenbarungseid der Corona-Politik, EIKE-Publikation vom 15. Januar.

Reiss, Karina, Bhakdi, Sucharit ( 2020 ) : Corona Fehlalarm? , Berlin.

Rießinger, Thomas (2021) :  Übersterblichkeit ? „Sehr weit weg von allen Katastrophenszenarien“. Eine mathematische Auswertung der Sterbefälle, EIKE-Publikation vom 22. Januar.

Steuer, Helmut ( 2021 ): Schweden verabschieden sich von ihrem Corona-Sonderweg, Handelsblatt vom 5. 1.

 

Zum Autor:

Peter Nahamowitz war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Leibniz Universität Hannover. Er ist seit 2007 im Ruhestand.

 

 

 

 

 

 

 

 

 

 




Die Uhr tickt weiter bei der neuen Regierung in USA: Nun sind es noch neun Jahre, um die Welt zu retten

„Ich habe keine neue Zeitleiste, die ich dir von hier aus geben kann. Ich kann Ihnen jedoch bestätigen, dass der Präsident der Einschätzung von  John Kerry zustimmt, dass es sich um eine Krise handelt und dass die Zeit von entscheidender Bedeutung ist. Wir müssen schnell handeln. Und deshalb ist das Klima ein wichtiger Bestandteil seiner Agenda “, sagte Psaki.

Zum Thema: . (Treasury Department To Create New Climate Czar Role, Expand Climate Change Efforts)

[Finanzabteilung zur Schaffung einer neuen Rolle als Klimazar, Ausweitung der Bemühungen um den Klimawandel

Finanzministerin Janet Yellen macht den Klimawandel zur obersten Priorität der Finanzabteilung und plant Berichten zufolge die Schaffung einer neuen Führungsposition in der Abteilung, um ihre Klimabemühungen zu koordinieren.

„Sowohl die Auswirkungen des Klimawandels selbst als auch die Maßnahmen zu seiner Bekämpfung könnten erhebliche Auswirkungen haben, indem gestrandete Vermögenswerte entstehen, große Veränderungen der Vermögenspreise, Kreditrisiken usw. entstehen, die sich auf das Finanzsystem auswirken könnten“, sagte Yellen gegenüber den Senatoren. „Das sind sehr reale Risiken.“ ]]

 

„Nun, die Wissenschaftler sagten uns vor drei Jahren, wir hätten 12 Jahre Zeit, um die schlimmsten Folgen der Klimakrise abzuwenden. Wir sind jetzt drei Jahre weiter, also haben wir noch neun Jahre“, sagte Kerry zu Ben Tracy von CBS News.„ CBS This Morning “ und auch auf Twitter .

„Selbst wenn wir alles tun würden, was wir bei unserer Anmeldung in Paris angekündigt haben, würden wir einen Anstieg der Erdtemperatur auf etwa 3,7 Grad oder mehr sehen, was katastrophal ist“.

Präsident Joe Biden unterzeichnete am 20. Januar ein Dekret, mit der die USA erneut dem Pariser Klimaabkommen beitreten sollen. Damit schloss sich die USA am 19. Februar erneut offiziell den Abkommen an. [Wiederum ohne Zustimmung der Abgeordneten!?]

 

https://dailycaller.com/2021/02/23/psaki-wont-say-if-biden-agrees-with-kerry-that-there-are-only-9-years-left-to-save-the-world-from-climate-catastrophe/

Übersetzt durch Andreas Demmig




Eisstürme: Windräder von RWE in Texas bescheren dem Konzern extreme Verluste

Die angeblich durch die Erderwärmung erzeugten Schneestürme auf der Nordhalbkugel setzen nicht nur in Deutschland die Kraftanlagen zur Bereitstellung „erneuerbarer Energie“ außer Gefecht. Man sieht, die frei erfundenen Vorhersagen zur kommenden Heißzeit haben den Bau einer Infrastruktur zur Folge gehabt, die im tatsächlich anstehenden kühlen Zeitalter komplett versagt.

Wußten Sie, daß die alternative Energiewende Deutschlands auch in Übersee stattfindet? Der deutsche Branchenriese RWE betreibt tatsächlich in Texas Windradparks, die wegen der ungewöhnlichen Blizzards dort derart vereist sind, daß ein Teil keinen Strom mehr liefert. Die Ausfälle sind derart hoch, daß RWE „zu außergewöhnlich hohen Preisen“ von wetter-sicheren Betreibern Strom zukaufen muß. Vermutlich handelt es sich um Kernkraft- und Fossilkraftwerke, denen Hitze oder Kälte nichts ausmachen. Die Verluste werden geschätzt 250 bis 400 Millionen Euro betragen.

Die Eisstürme in Texas haben flächendeckende Strom- und Wasserausfälle verursacht. Für US-Amerikaner mag eine solche Erfahrung nichts Apokalyptisches darstellen. (Wer schon einmal in New York Stadt war, hat in den Bezirken Queens und Brooklyn vielleicht die freihängenden Stromleitungen auf Holzmasten gesehen, die bei Stürmen und Schnee ganz gerne umfallen und reißen.) Durch die besonders anfälligen „Ökostrom“-Erzeuger, die in der freien Natur stehen und den Kräften des Wetters ungeschützt ausgesetzt sind, kann das Problem aber chronisch werden. Die öko-geplagten Kalifornier können ein Lied davon singen.




Im Eis eingefrorene Alligatoren in Oklahoma

Im Südosten von Oklahoma, in McCurten County, sind die Sümpfe gefroren. Die Alligatoren, die dort leben, versuchen, sich an die Kälte anzupassen. Obwohl sie im Eis eingefroren sind, lassen sie ihre Nase draußen, damit sie atmen können.

Die Bilder der Reptilien wurden vom Oklahoma Wildlife Conservation Officer David Arbor veröffentlicht. Er nahm diese Bilder in den Red Slough Sümpfen auf. Zuvor wurde dieses Verhalten der Reptilien bei Frost in den Jahren 2018 und 2019 in North Carolina beobachtet.

Dieser Zustand ist vergleichbar mit dem Winterschlaf bei Säugetieren. Die ungewöhnliche Kälte führt dazu, dass der Stoffwechsel der Reptilien verlangsamt wird. Wenn die Tiere die Sümpfe verlassen, könnten sie sterben, weil sie ihre Körpertemperatur nicht regulieren können. Wenn die Thermometer über den Nullpunkt steigen, kehren die Alligatoren in ihren normalen Zustand zurück.

Weitere Fotos:

https://www.gismeteo.ru/news/animals/alligatory-v-oklahome-vmerzli-v-led-iz-za-ekstremalnyh-holodov-foto/

[Das ist eine russische Website, auf russisch {Eine Übersetzungsmaschine hilft}. Es geht aber auch um Oklahoma. Nur beim Aufrufen des Links erschienen bei mir anstatt der Fotos nur weiße Flächen. A. d. Übers.]

Auch auf Facebook
https://www.facebook.com/photo.php?fbid=3670670829676199&set=p.3670670829676199&type=3
Dank an Martin Siebert für diese Links.

„Die ganze Kälte, sagen sie, ist eine Anomalie – oder einfach nur eine ‚Kältewelle’“, sagt Martin Siebert. „Nein! Das ist bereits ein Trend, und ich denke, es wird noch schlimmer werden. Wenn man die Anzahl der Toten von Covid hinzufügt, gibt es einen Teil der ‚Plagen‘ im Zyklus des Beginns einer LIA, der Zyklus wiederholt sich, nicht wahr!“

Link: https://www.iceagenow.info/oklahoma-alligators-frozen-in-the-ice/

Übersetzt von Chris Frey EIKE

 




Die Behauptungen der NOAA bzgl. Klima-Katastrophen sind eine Schande

Quelle

Schon auf den ersten Blick wird deutlich, dass das Ganze total betrügerisch ist. Schauen wir auf die Karte:

Wenn ein Hurrikan einen besiedelten Küstenabschnitt trifft, was fast immer der Fall ist, sind große Schäden unvermeidlich. Aber obwohl das vergangene Jahr ein Hurrikan-reiches Jahr war, wissen wir, dass die Häufigkeit von US-Hurrikanen im letzten Jahrzehnt nicht ungewöhnlich war, und wenn überhaupt, ist der langfristige Trend rückläufig. (Dabei ist erwähnenswert, dass die 1980er und 1990er Jahre unterdurchschnittlich waren, was die Wahl von 1980 als Startdatum statistisch unangemessen macht):

Quelle

Die überwiegende Mehrheit dieser fälschlicherweise als „Klima“-Katastrophen bezeichneten Ereignisse sind jedoch entweder Tornados, Hagelstürme oder Unwetter (bei denen es sich fast ausschließlich um Gewitter-/Tornadoausbrüche handelt).

Auch hier wissen wir, dass die Tornado-Aktivität seit den 1970er Jahren deutlich zurückgegangen ist. Aber man will uns glauben machen, dass Tornados und Gewitter heutzutage viel katastrophaler sind als in der Vergangenheit.

Die Antwort auf dieses Rätsel liegt darin, wie die NOAA bestimmt, was eine Milliarden-Dollar-Katastrophe ist. Der Schlüssel ist dieser Satz:

Die USA sind seit 1980 von 285 Wetter- und Klimakatastrophen betroffen worden, bei denen die Gesamtschäden/Kosten 1 Milliarde Dollar erreichten oder überschritten (einschließlich CPI-Anpassung bis 2020).

Sie berücksichtigen also zu Recht die Inflation, aber ist das genug?

Die einfache Wahrheit lautet, dass die Amerikaner viel mehr „Zeug“ haben als in den 1980er Jahren: Größere Häuser, mehr Autos, die neuesten technologischen Spielereien, teure Möbel und Kleidung und dergleichen mehr.

Wenn ein Haus abbrennt, sind die Kosten für den Wiederaufbau und die Wiederbeschaffung des Hausinhalts seit 1980 um weit mehr als die Inflation gestiegen.

Das Gleiche gilt für die lokale Infrastruktur und Dienstleistungen.

Der beste Weg, dies zu überwachen, ist die Betrachtung des BIP, nicht des VPI [= Verbraucherpreisindex], der besagt, dass $1 im Jahr 1980 jetzt $3,32 wert ist:

Das BIP ist jedoch von 2857 Mrd. $ im Jahr 1980 auf 21433 Mrd. $ im Jahr 2019 gestiegen, also um das 7,3-fache.

Quelle

Wir können die Auswirkungen des steigenden Wohlstands besser sehen, wenn wir das konstante BIP betrachten, das um den Verbraucherpreisindex bereinigt wurde:

Dieser Index des das reale Wachstum messenden BIP ist von 6,5 Billionen Dollar im Jahr 1980 auf 18,3 Billionen Dollar gestiegen und hat sich damit fast verdreifacht.

Das heißt, dass eine 1 Milliarden-Dollar-Katastrophe im Jahr 1980 einer Katastrophe von 3 Milliarden Dollar jetzt entspricht.

Wir können uns auch die Entwicklung der Hauspreise ansehen. Das untenstehende Diagramm ist mit dem VPI inflationsbereinigt, spiegelt also die realen Preise und nicht die monetären. Er ist von 81,78 auf 134,88 gestiegen, ein Faktor von 1,65:

Quelle

Von den zweiundzwanzig Milliarden-Dollar-Katastrophen des letzten Jahres, die angeblich einen Rekord darstellen, lagen neun unter zwei Milliarden Dollar. Es besteht überhaupt kein Zweifel daran, dass, wenn sie sich 1980 ereignet hätten, keine von ihnen mehr als eine Milliarde gekostet hätte.

Hurrikane

Wir können tatsächlich einen direkten Vergleich zwischen der Hurrikansaison 1985 und dem letzten Jahr anstellen. In beiden Jahren wurden sechs Hurrikan verzeichnet.

Im Jahr 1985 schlugen nur drei der Hurrikane in der Liste zu Buche mit Gesamtkosten von 9 Mrd. $. Im Vergleich dazu wurden im letzten Jahr alle sechs Hurrikane verzeichnet plus Tropensturm Eta mit Gesamtkosten von 40,1 Milliarden Dollar. Die durchschnittlichen Kosten pro Hurrikan sind von 3 Mrd. $ auf 5,7 Mrd. $ gestiegen. Dies ist ein starker Beweis dafür, dass es der zunehmende Wohlstand ist, der die steigenden Kosten von Katastrophen vorantreibt, und nicht die Auswirkungen des Klimawandels.

[Im Original folgt jetzt diese Liste mit allen Ereignissen dieser Art. Auf deren Übersetzung wird hier verzichtet. A. d. Übers.]

Link: https://wattsupwiththat.com/2021/02/21/noaas-climate-disaster-claims-are-a-sham/

Übersetzt von Chris Frey EIKE

 




Neues Buch: Bill Gates will jetzt auch das Klima retten

„Wie wir die Klimakatastrophe verhindern“ heißt die derzeit heiß diskutierte Publikation von Bill Gates, mit der der Computer- und Medienstar durch die Talkshows zieht.

Eigentlich war der Technikgigant eher als Kritiker der Klimaszene bekannt, was zum Beispiel Maischberger in ihrer 45minütigen Interview klar anspricht. Der wendige Gates diskutiert das aber schnell weg und bekräftigt, daß er sich nun auch der Rettung der Welt vor der Klimakatastrophe widmen will. Warum gerade er, bleibt offen, weil der Mann nur für Betriebssysteme, besser: die clevere Vermarktung von umstrittenen Betriebssystemen bekannt ist.

Aber wie es halt so ist: Wird jemand reich und berühmt, fühlt er sich bemüßigt, sich von der „banalen“ Basis seines Erfolges zu emanzipieren und quasi-religiös das Schicksal der Menschen mitzubestimmen. Der bekannte Psychologe Abraham Maslow nannte dieses Phänomen „Bedürfnishierarchie“ oder „Motivationspyramide“. Da Gates übrigens keineswegs ein amerikanischer Aufsteiger nach dem Modell Tellerwäscher-Millionär ist, sondern wie Donald Trump mit dem goldenen Löffel im Mund geboren wurde, strebt er mit seiner Bill/Melinda-Gates-Stiftung nach ganz vorn in die Geschichtsbücher. Dafür bieten sich die gerade promovierten Themen wie „Pandemie“ und „Klimakollaps“ besonders an; unabhängig davon, ob die Narrative überhaupt stimmen.

Immerhin beweist Gates noch einen Rest Eigenständigkeit, in dem er klipp und klar sagt, daß es ohne moderne Kernkraftwerke nicht gehe. Auf Maischbergers ARD-typisch grünen Einwand, daß die Meiler doch gefährlich seien und jede Menge Strahlenmüll verursachten, meint er erstaunlich gelassen, daß es ja neue Konzepte gäbe, die viel sicherer seien und man eben Problem gegen Problem abwägen müsse. Und die „Klimakatastrophe“ müsse angegangen werden, eben auch mit problematischen Methoden wie Kernkraft.

Als Klimakritiker ist man daher geneigt, den Aktivismus des Bill Gates zu unterstützen, weil er, sofern erfolgreich, uns wenigstens die Energiesicherheit im Land erhielte. Nicht, daß die Massenmedien oder Klimapolitiker etwas darauf geben würden, was der unbeliebte Windows-Kapitalist für richtig hält. Gates hat mit seiner Stiftung aber die weltgrößte private Nichtregierungs-Organisation NGO aufgebaut, die über rund 46 Milliarden (!) Dollar Einlagen verfügt, deutlich mehr als die Unternehmungen des Milliardärs György/George Soros mit seiner Open Society.

Da es bei den Öko-NGOs, wie dieses Beispiel zeigt, bestenfalls ganz am Anfang um Moral und Natur, sonst aber nur um Lobbyismus für Interessengruppen geht, sind die 46 Milliarden allerdings eine Hausnummer, an der keiner so leicht vorbeikommt. ARD/ZDF-Journalisten mögen in ihrer weltanschaulichen Filterblase gefangen sein; aber dahinter steht, bewußt oder unbewußt, stets das Eigeninteresse. Denn das privilegierte Juste Milieu will entgegen der eigenen Bekundungen natürlich keineswegs auf schöne Fernreisen, bequeme Autos, windradlose Aussichten, nicht Styropor-verschandelte Altbauvillen und exotisches Essen verzichten. Und das bekommt man dadurch, daß man das sagt, was Finanzierer hören wollen.

Was steht außer der KKW-Befürwortung noch in Gatesens Buch? Angeblich untersuche er schon seit zehn Jahren mit Unterstützung zu Rate gezogener (bezahlter?) Experten wie Naturwissenschaftlern, Politologen (!) und Finanzexperten (!) den Klimawandel. Als Fazit seiner Recherche habe sich ergeben, daß die Menschheit eine „Netto-Null“-CO2-Emission erreichen müsse. Dabei ist dem Informatiker durchaus klar, daß man Stahl und Beton nicht ohne Emissionen produzieren kann; man müsse aber ausgleichen. Wie das gehen soll, wird mit einem konkreten Plan erklärt, der, grob gesagt, auf Erhöhung der technischen Effektivität und Erfindungen beruht. Also nichts Neues unter der Sonne; aber deutlich bürgerfreundlicher als die Mittelalter-verliebte Technikfeindlichkeit europäischer bzw. D/A/CH- Klimaaktivisten, die auch noch den Unterricht schwänzen und sowieso meist nichts Technisches studier(t)en.

Innovationen und Effizienz sind grundsätzlich zu begrüßen, weil sie als logische Folge von Aufklärung, Wissenschaft, Demokratie und Kapitalismus die heutige Zivilisation Europas überhaupt erst möglich machten. Problematisch ist natürlich, wenn die Erfindungen und Verbesserungen, die ja eine Menge Geld kosten, nur noch auf dem ideologischen Gebiet des „Klimaschutzes“ gemacht werden. Was nutzt ein Linienflugzeug, das mit sicherem Brutreaktor fliegt und kein CO2 ausstößt, aber thermodynamisch ineffizient und daher superteuer ist?

Das hat uns die Aufstiegsgeschichte Europas gelehrt: Geniale Erfindungen wie die Dampfmaschine von Denis Papin müssen nicht nur ihren Wirkungsgrad erhöhen, um überhaupt praktikabel zu sein; nein, sie müssen verbessert werden, um überhaupt bezahlbar zu werden. Bis 1914 zum Beispiel profitierte Deutschland von der eigenen Erfindung des Automobils überhaupt nicht, weil die wenigen im Lande fahrenden Karossen händig zusammengeschraubte Spielzeuge für Kaiser, Adel und Reiche waren. Die amerikanischen Kollegen in Detroit gingen die Sache viel intelligenter an und produzierten unsere Erfindung in Massen und billig, so daß Ford-Autos zur Wirtschaft und zur Lebensqualität der USA gewaltig beitrugen.

An die Tradition Henry Fords knüpft Bill Gates aber nicht an, wenn er Innovationen im Sinne der Verhinderung einer nicht vorhandenen Katastrophe fordert und fördert. Man sieht: Die USA haben ihre einstigen einzigartigen Umsetzungs-Fähigkeitren verloren und unterwerfen sich wie wir Europäer den irrealen Narrativen von Lobbygruppen.




Anmerkungen zum Gegen­strahlungs-Paradoxon aus einem hemisphä­rischen Blick­winkel

Einen Abgleich meines hemisphärischen S-B-Modells mit allen wesentlichen THE-Thesen hatte ich hier auf EIKE bereits als Trilogie (Darstellung, Diskussion, Ergebnis) vorgelegt. Allerdings soll dieser THE nach „neuesten Erkenntnissen“ jetzt nur noch (32°) betragen, und damit gibt es dann wiederum mehr Spielraum für den Klimaeinfluss des Menschen oberhalb von (14°C). Andererseits ist es völlig unmöglich zu beweisen, dass es irgendein Phantasieprodukt gar nicht gibt, eben weil dieses Etwas gar nicht existiert. Dazu ein Beispiel aus einer Reportage von RSH (Radio Schleswig-Holstein), gesendet am 23. Dezember 2011: Auf einem Weihnachtsmarkt wurden Besucher gefragt, ob sie denn beweisen könnten, dass es den Weihnachtsmann gar nicht gibt. Natürlich konnte keiner der Befragten einen schlüssigen Beweis erbringen. Nähern wir uns mit diesem Wissen jetzt einmal dieser sogenannten „atmosphärischen Gegenstrahlung“, die sich angeblich folgendermaßen herleitet:

1. Hochfrequente (HF) Sonneneinstrahlung (@PIR²) => Erwärmung von Materie auf der Tagseite der Erde (2PIR²)

=> 2.Erwärmte Materie strahlt über die gesamte Erdoberfläche (4PIR²) Infrarot(IR)-Strahlung ab

=> 3. Diese IR-Strahlung animiert sogenannte „Klimagase“ zu einer IR-„Gegenstrahlung“ (@4PIR²)

=> 4. Diese IR-„Gegenstrahlung“ soll wiederum vorgeblich die Erdoberfläche (@4PIR²) erwärmen beziehungsweise deren „Abkühlung verlangsamen“ =>

Jetzt wird’s schwierig, denn nun geht es gleichzeitig mit 1. (@2PIR²) und 2. (@4PIR²) weiter.

WIDERSPRUCH 1: Die Erde soll sich durch die Rückstrahlung ihrer eigenen Abstrahlung (= Gegenstrahlung) noch weiter erwärmen; eine solche „Selbstaufheizung“ widerspricht aber dem 2. HS der Thermodynamik. Denn wenn ein solcher Vorgang funktionieren würde, könnten Sie Ihren Kaminofen zum Glühen bringen, indem Sie ein paar Kästen Mineralwasser davorstellen…

Und jetzt schauen wir uns nachfolgend einmal beim Deutschen Wetterdienst (DWD) die vorgeblich gemessene atmosphärische Gegenstrahlung an:

Abbildung 1: Originalbeschreibung, „Globale (rot), direkte (magenta) und diffuse (gelb) Sonnenstrahlung sowie langwellige Gegenstrahlung der Atmosphäre (blau) an einem wolkenlosen (links) und an einem bedeckten (rechts) Oktobertag in Lindenberg“ (Quelle: DWD Deutscher Wetterdienst)

Wir gehen jetzt einfach einmal davon aus, dass die beiden Beispiele einigermaßen vergleichbare Situationen darstellen. Daher halten wir an dieser Stelle fest:

  • An einem wolkenlosen Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 220 bis 250 W/m².
  • An einem bedeckten Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 330 bis 350 W/m².
  • Es gibt nur bei wolkenlosem Himmel eine schwache optische Korrelation zwischen einem tentativen tageszeitlichen Temperaturverlauf und der sogenannten „Gegenstrahlung“, aber eine Differenz von etwa 100W/m² zugunsten einer Wolkenbedeckung.
  • Die Unterschiede in der absoluten Bestrahlungsstärke der sogenannten „Gegenstrahlung“ liegen also weniger im Ablauf von Tag und Nacht, als vielmehr im Bedeckungsgrad.

WIDERSPRUCH 2: Hier treffen also eine über Nacht unverminderte „atmosphärische Gegenstrahlung“ und die Sonneneinstrahlung des neuen Tages unvermittelt aufeinander. Die sogenannte „atmosphärische Gegenstrahlung“ und die Sonneneinstrahlung des neuen Tages müssten daher zusammen eine Resonanzkatastrophe (=Selbstverbrennung der Erde) durch einen von Tag zu Tag ungebremst fortlaufenden Temperaturanstieg verursachen.

Schauen wir weiter, in Nr. 178 der „Berichte des Deutschen Wetterdienstes“ wird auf Seite 11, oben links, eine Formel zur Berechnung der Gegenstrahlung als Leistungsfluss „A“ in W/m^2 für die 1989 in der Station Hartheim am Rhein verwendete Messapparatur angegeben:

Die „gemessene“ Gegenstrahlung „A“ wird hier im Wesentlichen als Funktion der gemessenen langwelligen IR-Strahlung und der Instrumententemperatur dargestellt. Ohne die Kenntnis der ursprünglichen Messwerte „U“ und der beiden Eichkonstanten ist es schwer, eine direkt Aussage aus dieser Formel abzuleiten. Also müssen wir uns auf anderem Wege einem Verständnis nähern. Wie Abbildung 1 beweist, ist der gemessene langwellige (IR-) Anteil tagsüber wie auch nachts über 24h vorhanden, die direkte kurzwellige Sonneneinstrahlung ist dagegen nachts nicht wirksam. Wir überführen daher die Gleichung 1 in Gleichung 2 unter der Annahme, dass der Term für die Globalstrahlung bei der Messung der „Gegenstrahlung“ nachts keine Wirkung entfaltet, also:

Wenn wir nun auf die Abbildung 1 zurückgehen und den geringen Unterschied zwischen Tag und Nacht auf die Gegenstrahlung betrachten, dann ergibt sich für eine solche Messung das folgende Bild:

  • Der Einfluss der direkten Sonneneinstrahlung auf die „Gegenstrahlung“ ist bei einem sehr geringen Temperaturgang am wolkenlosen Tag offenbar recht gut kompensiert worden und bei Nacht gar nicht vorhanden.
  • Der Einfluss von langwelliger IR-Strahlung ist Tag und Nacht über die Thermospannung „U“ messbar.
  • Der Term „SIGMA T4“, also der Einfluss der Instrumententemperatur, spiegelt sich dauerhaft Tag und Nacht im Messergebnis wider.

In der DWD-Abbildung 1 fehlt der Temperaturverlauf über die beiden dort dargestellten 24h-Tage. Da aber die Eigentemperatur „T“ des Messinstruments als ein wesentlicher Faktor in der Gleichung 1 erscheint, ergeben sich daraus erhebliche Unterschiede für die „gemessene“ Gegenstrahlung, je nachdem, ob es sich um ein beheiztes, gekühltes oder ein Instrument bei normal variabler Umgebungstemperatur handelt. In Tabelle 1 wurde der Messwert „U/el = A –  T4“ für unterschiedliche Instrumententemperaturen „T“ aus der in Abbildung 1 dargestellten „gemessenen“ Gegenstrahlung „A“ hergeleitet:

Tabelle 1 gilt im Wesentlichen auch für Tagmessungen, soweit die jeweiligen DWD-Messergebnisse korrekt um den Einfluss der Globalstrahlung korrigiert wurden. Die Analyse aus dieser Tabelle ergibt nun eindeutig, dass es sich nicht um ein beheiztes Instrument handeln kann, weil dessen Messfähigkeit zu höheren Temperaturen stark eingeschränkt wäre; denn dieses Gerät kann nur eine Einstrahlung messen, deren S-B-Temperaturäquivalent höher als die eigene Temperatur ist. Selbst ein gekühltes Instrument würde nur eingeschränkt funktionieren und müsste zur Messung einer „Gegenstrahlung“ von 220W/m² unter -23,5°C gekühlt werden. Es wäre zu erwarten gewesen, dass insbesondere der wesentliche Term „U/el“, also die Geräte-Ausgangsspannung mit dem Ergebnis des langwelligen (IR-)Strahlungsanteils, einen primären und eindeutig definierten Beitrag zum Messergebnis liefern würde. Das ist offensichtlich nicht der Fall, denn das Ergebnis der Analyse aus Tabelle 1 legt nahe, dass das Messergebnis für die sogenannte „atmosphärische Gegenstrahlung“ in allen hier aufgezeigten Temperaturbereichen von der Instrumententemperatur (T=-18°C bis +15°C) majorisiert wird. So, und jetzt stellen Sie Sich als „Messinstrument“ einfach mal die Ordowski’sche Glasplatte vor, wo eine ca. 1 m über dem Boden angebrachte Glasplatte über den Tagesverlauf immer die gleiche Temperatur wie die umgebende Luft aufweist und sich nur dann noch weiter erhitzt, wenn sie nahe an den Erdboden abgesenkt wird…

WIDERSPRUCH 3: Wir stehen hier vor dem physikalischen Paradoxon, dass eine Messapparatur, die darauf ausgelegt ist, etwas WÄRMERES zu messen als ihre Eigentemperatur, tatsächlich auch etwas KÄLTERES gemessen haben will. Die Tabelle 1 beweist aber eindeutig, dass dieses Messinstrument nicht in der Lage ist, eine niedrigere Temperatur zu messen als die Instrumententemperatur „T“ selbst, denn solche Werte wären negativ.

Wie kommen wir nun aus dieser Nummer wieder heraus?

Schauen wir also einmal weiter. In Nr. 178 der „Berichte des Deutschen Wetterdienstes“ ist auf Seite 40 eine Isoplethendarstellung der über alle Wetterlagen gemittelten Bestrahlungsstärke der Gegenstrahlung abgebildet. Diese Darstellung bildet die Tageskurven der Gegenstrahlung im Verlauf des Jahres (hier in 10-Tages-Schritten) ab.

Abbildung 2: Isoplethendarstellung der über alle Wetterlagen gemittelten Gegenstrahlung (Quelle: DWD)

Dazu heißt es dort auf Seite 37 letzter Absatz rechts, Zitat: „Obgleich die Anwesenheit von Wolken verstärkend auf die Gegenstrahlung wirkt, kann daraus nicht geschlossen werden, dass bei bewölktem Wetter generell höhere Gegenstrahlungswerte auftreten. Ganz im Gegenteil liegen die absoluten (mittleren) Maxima mit 437 W /m2 Mitte Juli um 14 Uhr im Schönwettertyp und nahezu gleich beim Windtyp. Je stärker die Bewölkung eines Wettertyps wird, desto geringer wird tendenziell dieses Maximum. Lediglich bei Nebel wird diese Regel zugunsten etwas höherer Strahlung gebrochen. Zeitlich ist die Lage des jeweiligen Maximums bei allen Wetterlagen konstant am oben genannten Zeitpunkt, mit Ausnahme des Stratusschichttyps, wo der höchste Wert erst im August um 17 Uhr erreicht wird.“

Halten wir an dieser Stelle fest:

  • Die über alle Wetterlagen gemittelte Bestrahlungsstärke der Gegenstrahlung an der Messstelle Hartheim liegt zwischen MIN= 280W/m² (nachts im Februar) und MAX=400W/m² (nachmittags in den Sommermonaten).
  • Die absoluten (mittleren) Maxima der Gegenstrahlung liegen mit 437 W/m2 Mitte Juli um 14 Uhr im Schönwettertyp und entsprechen einem S-B-Temperatur-Äquivalent von 23,2°C.

Die Messstelle Hartheim besteht heute als forstmeteorologische Meßstelle Hartheim der Albert-Ludwigs-Universität Freiburg fort. Auf der Internetseite meteo.uni-freiburg.de wird  das Jahresmittel der Lufttemperatur (1978 -2018) für diese Messstelle mit 10,6°C angegeben:

Abbildung 3: Bildunterschrift „Die Entwicklung der Jahresmitteltemperatur an der forstmeteorologischen Messstelle Hartheim von 1978 bis 2018 relativ zum 41-jährigen Mittel 1978 – 2018. Rote Jahre waren überdurchschnittlich warm, blaue Jahre kühl.“ (Quelle: Forstmeteorologische Messstelle Hartheim – meteo.uni-freiburg.de)

An dieser Stelle halten wir also fest:

  • Die Jahresmitteltemperatur an der Meßstelle Hartheim von 10,6°C entspricht einem S-B-Strahlungsäquivalent von 368W/m².

ANALYSE: Da hier nur gemittelte Werte zur Verfügung stehen, kann die nachfolgende Analyse nur eine grobe Annäherung an die tatsächlichen Gegebenheiten darstellen. Das S-B-Strahlungsäquivalent von 368W/m² für die Jahresmitteltemperatur von 10,6°C an der Meßstelle Hartheim entspricht der Bestrahlungsstärke der Gegenstrahlung im Sommerhalbjahr am Vormittag und am Abend, also im Anstieg und Abfall des Nachmittagsmaximums in Abbildung 2. Gleichzeitig liegt dieses S-B-Strahlungsäquivalent von 368W/m² ziemlich nahe an dem Mittelwert von 340W/m² zwischen MIN=280W/m² und MAX=400W/m² über den Jahresverlauf der Bestrahlungsstärke der Gegenstrahlung. Damit aber spielt die „gemessene“ Gegenstrahlung vom Betrag her in derselben Liga wie die Sonneneinstrahlung, allerdings anders als diese über den gesamten 24h-Tag. Die übertragene Wärmemenge wäre damit im groben Tagesdurchschnitt pro 24h:

Gegenstrahlung: 340W/m² * 24h = 29.376.000 Joule/m²

Sonneneinstrahlung: 368W/m² * 12h* = 15.897.600 Joule/m²

*) Tentativer Durchschnittswert über das Jahr

WIDERSPRUCH 4: Wir stellen also in grober Näherung fest, dass die Wärmezufuhr durch die sogenannte Gegenstrahlung an der Meßstelle Hartheim den Einfluss der Sonne um nahezu das Doppelte übertreffen soll. Dieses Ergebnis ist insofern eigenartig, als ja nach der vorherrschenden Klimatheorie die sogenannte Gegenstrahlung selbst erst durch die Wärmewirkung der Sonneneinstrahlung erzeugt werden soll.

  • Wir halten an dieser Stelle weiterhin fest, dass die wichtigsten Treibhausgase in der Reihenfolge ihrer Wirksamkeit der Wasserdampf, Kohlendioxid, Ozon, Methan und Distickstoffoxid sind.

Daraus folgt mein finaler Lösungsansatz für das Phänomen „atmosphärische Gegenstrahlung“:

Die sogenannten „Treibhausgase“ sind Gase, und auch noch durchsichtig, ihre Moleküle bewegen sich in großem Abstand voneinander und füllen den verfügbaren Raum gleichmäßig aus. Deren Klimawirkung soll auf der Aufnahme der terrestrischen IR-Abstrahlung beruhen, mit der wiederum die atmosphärische Gegenstrahlung befeuert werden soll. Der wesentliche Unterschied in der Gegenstrahlung an beiden Tagen der DWD-Abbildung 1 liegt aber zwischen einem wolkenlosen und einem bedeckten Himmel, also zwischen dem gasförmigen und dem flüssigen Aggregatzustand von Wasser. Und im flüssigen Aggregatzustand hat Wasser gegenüber gesättigtem Wasserdampf eine doppelt so hohe Wärmekapazität, also eine erhöhte Speicherfähigkeit für Wärme; gegenüber trockener Luft erhöht sich dieses Verhältnis sogar auf einen Faktor von etwa vier. Abbildung 1 beweist also, dass die sogenannten Treibhausgase bei der Bestrahlungsstärke der atmosphärischen „Gegenstrahlung“ bestenfalls eine untergeordnete Rolle spielen. Denn die Zusammensetzung der gut durchmischten gasförmigen Bestandteile der umliegenden Atmosphäre an der Meßstelle Hartheim dürfte sich zwischen den beiden DWD-Tagesgängen „wolkenlos“ und „bedeckt“ bis auf Menge und Aggregatzustand des Wassers nicht wesentlich verändert haben.

WIDERSPRUCH 5: Wenn dort beim DWD also überhaupt etwas gemessen worden sein sollte, dann war es wohl nicht die „atmosphärische Gegenstrahlung“ von IR-aktiven „Klimagasen“, sondern eher der Wärmeinhalt einer Zusammenballung von Wassertröpfchen, die man gemeinhin als „Wolken“ zu bezeichnen pflegt und die der Meßstelle Hartheim durch Advektion und Kondensation offenbar zusätzliche Wärme zugeführt hatten.

Im Ergebnis hat es den Anschein, als dass die an der Meßstelle Hartheim gemessene „Bestrahlungsstärke der Gegenstrahlung“ den jahreszeitlichen Beitrag von Advektion und Kondensation auf die Ortstemperatur spiegeln würde. Im Umkehrschluss dürften also die dort dargestellten Werte sehr viel eher die Temperatur von Messgerät und unmittelbarer Umgebung wiedergeben als einen unabhängigen Wert für die sogenannte Gegenstrahlung.

Wolken treten in meinem hemisphärischen S-B-Modell unter den Stichworten „Advektion“ als „fliegende Wärmflaschen“ auf, aber auch die „Kondensation“ erzeugt Wärme vor Ort, was ein befreundeter Segelflieger folgendermaßen beschrieben hatte, Zitat:

„… nachts ist die Luft oft sehr ruhig. Dadurch ist lokale Wolkenbildung möglich, an den Grenzschichten unterschiedlicher Luftzusammensetzung, die sich nur ungern vermischen. Die Dicke bzw. Dichte dieser Wolken nimmt in der Regel gegen Morgen hin zu, sodass die Masse an ‚Materie‘ zunehmend ist. Dass dem so ist beweisen manchmal auftretende lokale morgendliche Regenfälle, wenn diese Ruhewolken das ‚Wasser nicht mehr halten‘ können. Sobald durch Sonneneinstrahlung etwas Bewegung in die Atmosphäre kommt verschwinden diese Wolken genauso lokal wie sie entstanden sind und man hat die Chance auf einen herrlichen Tag…“

ERGO: Wir haben heute keine Angst mehr, von der „Erdscheibe“ herunterzufallen. Wir glauben heute nicht mehr, die Erde stünde im Mittelpunkt des Universums. Aber wir glauben, die spezifische Strahlungsleistung einer „atmosphärischen Gegenstrahlung“ zu messen und damit ein unzureichendes 2-dimensionales Klimamodell für unsere Erde zu bestätigen. Man könnte also sagen, dass die sogenannte „atmosphärische Gegenstrahlung“ die Rache der Mathematik für eine fehlerhafte physikalische Faktor4-Stefan-Boltzmann-Inversion ist, BEWEIS:

ERGEBNIS: Es gibt im streng „gleichzeitigen“ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer „gleichzeitigen“ S-B-Inversion erlaubt. Physikalisch „gleichzeitig“ bedeutet übrigens auch nicht, dass unterschiedliche „Gleichzeitigkeiten“ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften. Damit ist eine globale Faktor4-Tag=Nacht-THE-Flacherde-Inversion der Solarkonstanten physikalisch nicht statthaft.

Versuchen Sie einfach mal den Gegenbeweis: Wenn Sie die Oberfläche eines Fußballs vollständig* mit einer Taschenlampe beleuchten können, dann wäre der Faktor4-Ansatz bewiesen.

*) Hinweis für die Sophisten unter den geschätzten Kommentatoren: Dieses Beispiel unterstellt Gleichzeitigkeit mit einer einzigen Taschenlampe ohne weitere Hilfsmittel, wie Sie das beispielsweise mit der Sonne als „Taschenlampe“ im Wechsel von Tag und Nacht auf der Erde beobachten können; aber vielleicht versuchen Sie’s einfach mal mit einer Rotationsgeschwindigkeit größer 300.000 km/s…

 




Kamele im Schnee: in Vorderasien wüten Eisstürme

Nach PIK, Quarks&Co und dem DWD sind sowohl Schneestürme wie auch das aktuelle Frühlingswetter unbestreitbare Beweise für die menschgemachte Klimaerwärmung.

Darüber können die Araber im Maghreb und in Vorderasien nur lachen: Von der arabischen Halbinsel erreichen uns Filme von schneebedeckten Kamelen in der Wüste, in Libyen bauen Kinder Schneemänner, und in der Kriegsprovinz Idlib in Syrien fallen über 20 cm Schnee. Dieses Video einer Nachrichtenseite ist aufschlußreich:

Fundstück FB

Der Scheichberg bei Damaskus in Syrien. Privates Foto.




HadCRUT5 zeigt seit 1850 eine um 14% stärkere globale Erwärmung als HadCRUT4

Dies war nicht genug. Wie die endlos angepassten GISS-, RSS- und NCEI-Datensätze hebt HadCRUT5 den Trend an – und zwar um erschreckende 14%. Die übliche Methode wird angewandt: Man korrigiert die früheren Temperaturen nach unten (wir wissen so viel besser, wie die Temperatur vor anderthalb Jahrhunderten war, als die Inkompetenten, die die Messungen damals durchgeführt hatten) und korrigiert die späteren Temperaturen nach oben, mit dem Effekt, dass der Trend steiler wird und die scheinbare Erwärmung zunimmt.

Natürlich werden ausführliche Begründungen für die Änderungen geliefert. Es liegt jenseits meiner Gehaltsklasse, diese zu bewerten. Es ist jedoch bezeichnend, dass die stark manipulierten GISS-, HadCRUT-, RSS- und NCEI-Datensätze von Klimafanatikern verwaltet werden, während der UAH-Datensatz – der einzige der großen Fünf, der in die andere Richtung gegangen ist – von Klimaskeptikern verwaltet wird.

Ich kenne die beiden Skeptiker, die den UAH-Datensatz aufbewahren. Sie sind ehrenwerte Männer, deren einziges Ziel es ist, so gut sie können, die wahre Rate der globalen Erwärmung zu zeigen. Aber ich traue dem GISS-Datensatz nicht, der wiederholt und verwerflich von seinen Bewahrern manipuliert wurde. Ich traue auch RSS nicht: Als Ted Cruz unser Diagramm zeigte, das die 18 Jahre und 9 Monate der letzten großen Pause in der globalen Temperatur zum sichtbaren Unbehagen der „Demokraten“ im Senat belegte, sagte ich voraus, dass der Verwalter des RSS-Datensatzes, der Skeptiker als „Klimaleugner“ bezeichnet, ihn manipulieren würde, um die Pause verschwinden zu lassen. Ein oder zwei Monate später kündigte er an, dass er genau das tun würde, und genau das tat er dann auch. Was HadCRUT betrifft, lesen Sie einfach die Harry-Read-Me-Datei, um zu sehen, in welch hoffnungslosem Zustand sich das befindet.

Und der NCEI-Datensatz stand viele Jahre lang unter dem Einfluss des unseligen Tom Karl. Ich habe einmal neben ihm im Repräsentantenhaus ausgesagt, wo er versuchte zu behaupten, dass meine Behauptung, dass es fast ein Jahrzehnt der globalen Abkühlung gegeben habe, unbegründet sei – obwohl sein eigener Datensatz (wie auch alle anderen) genau das zeigte.

HadCRUT5 zeigt einen Trend von 1,04 K von 1850-2020, oder drei Fünftel Grad pro Jahrhundert, was einem Anstieg von 14% gegenüber dem Trend von 0,91 K der HadCRUT4-Daten entspricht:

Aus dem HadCRUT5-Trend kann man berechnen, wie viel Erwärmung letztendlich zu erwarten wäre, wenn wir das CO2 in der Luft im Vergleich zu 2020 verdoppeln würden. Man muss auch den anthropogenen Nettoantrieb seit 1850 kennen (2,9 W/m²); das planetarische Energie-Ungleichgewicht, das durch die Verzögerung der Rückkopplung verursacht wird (0,87 W/m²); den verdoppelten CO2-Strahlungsantrieb (3. 52 W/m² als Mittelwert in den CMIP6-Modellen); den anthropogene Anteil der beobachteten Erwärmung (70 %); der exponentielle Wachstumsfaktor, der mehr Wasserdampf in wärmerer Luft erlaubt (7 % pro Grad direkter Erwärmung); und der Planck-Sensitivitäts-Parameter (0,3 K/Wm²).

Alle diese Werte sind recht aktuell, weil alle damit beschäftigt waren, die Daten für die nächste mehrtausendseitige Horrorgeschichte des IPCC auf Vordermann zu bringen, die später in diesem Jahr erscheinen soll. Die Berechnungen sind in der Tabelle zusammengefasst. Die sieben Eingangsparameter habe ich nach drei Kriterien ausgewählt: Sie sollten aktuell sein, im mittleren Bereich liegen und dem Mainstream entsprechen, d.h. aus Quellen stammen, die die Klimafanatiker akzeptieren würden.

Das Industriezeitalter von 1850-2020 ist der Basiszeitraum für die Berechnung der Rückkopplungsreaktion pro Grad Referenzsensitivität über den Zeitraum. Diese stellt sich als 0,065 heraus. Dann findet man die Einheitsrückkopplungsantwort für den 100- bis 150-Jahres-Zeitraum von 2020 (415 ppmv CO2) bis 830 ppmv CO2, indem man die Einheitsrückkopplungsantwort erhöht, um zusätzlichen Wasserdampf in wärmerer Luft zu berücksichtigen.

Schließlich multipliziert man die Referenzsensitivität von 1,053 K bei verdoppeltem CO2 mit dem Systemgewinnfaktor, der die Rückkopplungsreaktion der Einheit plus 1 ist: Die mittlere Gleichgewichtsempfindlichkeit bei verdoppeltem CO2, bekannt als ECS, stellt sich als nur 1,1 K heraus. Wenn man den HadCRUT4-Erwärmungstrend verwenden würde, wäre ECS weniger als 1 K. Ich hatte zuvor vermutet, dass der HadCRUT5-Trend 1,1 K betragen würde, was 1,2 K ECS impliziert.

Man vergleiche diese kleinen und harmlosen Werte im mittleren Bereich mit den offiziellen CMIP6-Vorhersagen: untere Grenze 2 K; mittlere Grenze 3,7 K; obere Grenze 5,7 K; ujtopischer Rand 10 K.

Man kann sich ausrechnen, um wie viel größer die Einheitsrückkopplung nach 2020 im Vergleich zur Einheitsrückkopplung von 1850-2020 wäre, wenn diese absurd überhöhten Vorhersagen der neuesten Modellgeneration richtig wären: untere Grenze 14, mittlere Grenze 19, obere Grenze 67, utopische Grenze 130.

Diese aufschlussreichen Zahlen zeigen, wie wahnsinnig und ungeheuerlich übertrieben die offiziellen Vorhersagen zur globalen Erwärmung sind. Es gibt keine physikalische Grundlage für die Annahme, dass die Einheitsrückkopplung ab 2020 auch nur das 14-fache der Einheitsrückkopplung von 1850-2020 betragen wird. Sie könnte höchstens etwa das 1,1-1,2-fache der früheren Einheitsrückkopplung betragen. Daher ist sogar die von den Modellen vorhergesagte untere Grenze der globalen Erwärmung von 2 K, die X = 14 impliziert, weit übertrieben.

Dies ist der einfachste Weg, um zu zeigen, dass die Vorhersagen der Modelle zur globalen Erwärmung ohne einen Funken Legitimität oder Glaubwürdigkeit sind. Sie sind ausgeklügelte Fiktionen. Sie leiden unter zwei Mängeln: Sie sind grob überzogen und entsprechend schlecht berechnet.

Denn, wie die Grafik zeigt, ist die ECS-Antwort auf Rückkopplungsanteile rechteckig-hyperbolisch. Der in den lächerlichen Vorhersagen der Modelle implizit enthaltene Rückkopplungsanteil (der Anteil des ECS, der durch die Rückkopplungs-Reaktion repräsentiert wird), übersteigt im Allgemeinen 0,5: aber es gibt absolut unmöglich, dass der Rückkopplungsanteil in einem nahezu perfekt thermostatischen Klima auch nur annähernd 0,5 betragen könnte. Als ich diese Grafik zum ersten Mal einer Gruppe von IPCC-Leitautoren zeigte, hörten sie plötzlich mit dem Spott auf, dem sie den größten Teil meines Vortrags unterworfen hatten. Plötzlich verstummte der führende Spötter und sagte dann: „Haben Sie das veröffentlicht?“

Nein, sagte ich, denn zu diesem Zeitpunkt hatte ich noch nicht herausgefunden, was die Klimatologen falsch gemacht hatten. „Nun, Sie müssen veröffentlichen“, sagte er. „Das ändert alles.“

Das tut es auch. Aber die Veröffentlichung wird sehr schwierig werden, nicht weil wir falsch liegen, sondern weil wir richtig liegen. Wenn es nur wenig mehr als 1 K anthropogene Erwärmung im nächsten Jahrhundert oder so geben wird, gibt es absolut keine Notwendigkeit, etwas zu tun, um dies zu verhindern. Die Abwanderung wichtiger Produktionsindustrien nach China, das mächtig von dem Klimabetrug profitiert, der im Westen von den dies subventionierenden katzbuckelnden Frontgruppen verführerisch gefördert wird, kann und sollte rückgängig gemacht werden.

Wir unternehmen Schritte, um die britische Regierung zu zwingen, der Wahrheit Beachtung zu schenken, dass die globale Erwärmung nicht mehr als ein Drittel der gegenwärtigen offiziellen Vorhersagen im mittleren Bereich betragen wird und dass daher kein Netto-Schaden daraus entstehen wird. Man verfolge, wie das jetzt weitergeht..

Link: https://wattsupwiththat.com/2021/02/21/hadcrut5-shows-14-more-global-warming-since-1850-than-hadcrut4/

Übersetzt von Chris Frey EIKE

 




Klimaschau 17 – die Tagesschau von Sebastian Lüning

Thematisch sortiertes Beitrags-Verzeichnis aller Klimaschau-Ausgaben: http://klimaschau.tv




Aktuelles Grand Solar Minimum wird globale Abkühlung bringen

In diesem Leitartikel werde ich anhand des neu entdeckten Proxy-Magnetfeldes für die Sonnenaktivität zeigen, dass die Sonne in das moderne Grand Solar Minimum (2020-2053) eingetreten ist, das zu einer signifikanten Reduktion des solaren Magnetfeldes und der Aktivität wie während des Maunder-Minimums führen wird, was zu einer spürbaren Abkühlung der Erdtemperatur führt.

Die Sonne ist die Hauptenergiequelle für alle Planeten des Sonnensystems. Diese Energie wird der Erde in Form von Sonnenstrahlung in verschiedenen Wellenlängen zugeführt, die als Total Solar Irradiance (TSI) bezeichnet wird. Die Schwankungen der solaren Bestrahlungsstärke führen zur Erwärmung der oberen Planetenatmosphäre und zu komplexen Prozessen des solaren Energietransports zur Planetenoberfläche.

Die Zeichen der Sonnenaktivität werden aus den zyklischen 11-Jahres-Schwankungen der Anzahl der Sonnenflecken auf der Sonnenoberfläche abgeleitet, wobei die gemittelte monatliche Anzahl der Sonnenflecken als Proxy für die Sonnenaktivität der letzten 150 Jahre verwendet wird. Die Sonnenzyklen wurden durch die Wirkung des solaren Dynamo-Mechanismus im Sonneninneren beschrieben, der magnetische Stränge am Boden der solaren Konvektionszone erzeugt.

Diese magnetischen Stränge wandern durch das Sonneninnere und erscheinen auf der Sonnenoberfläche, oder Photosphäre, als Sonnenflecken, die die Fußpunkte anzeigen, an denen diese magnetischen Stränge in die Photosphäre eingebettet sind.

Das Magnetfeld der Sonnenflecken bildet ein toroidales Feld, während das solare Hintergrundmagnetfeld ein poloidales Feld bildet. Der Solardynamo wandelt zyklisch das poloidale Feld in ein toroidales um und erreicht sein Maximum bei einem Sonnenzyklus-Maximum und dann das toroidale Feld zurück in das poloidale zu einem Sonnen-Minimum. Es ist offensichtlich, dass für die gleiche führende Polarität des Magnetfeldes in Sonnenflecken auf der gleichen Hemisphäre die Länge des Sonnenzyklus auf 22 Jahre verlängert werden sollte.

Trotz des Verständnisses des allgemeinen Bildes eines Sonnenzyklus war es ziemlich schwierig, die beobachteten Sonnenfleckenzahlen mit den modellierten in Einklang zu bringen, es sei denn, der Zyklus ist schon weit fortgeschritten. Diese Schwierigkeit ist ein deutlicher Hinweis auf einige fehlende Punkte in der Definition der Sonnenaktivität durch Sonnenfleckenzahlen, die unsere Aufmerksamkeit auf die Erforschung des solaren (poloidalen) Hintergrundmagnetfeldes (SBMF) lenkte [1].

Durch Anwendung der Principal Component Analysis (PCA) auf die niedrig aufgelösten Magnetogramme der gesamten Sonnenscheibe, die in den Zyklen 21-23 vom Wilcox Solar Observatory aufgezeichnet wurden, entdeckten wir nicht eine, sondern zwei Hauptkomponenten dieses solaren Hintergrundmagnetfeldes (siehe Abbildung 1, oberes Diagramm), die mit zwei magnetischen Wellen verbunden sind, die durch rote und blaue Linien markiert sind. Die Autoren leiteten mathematische Formeln für diese beiden Wellen ab, indem sie die Hauptkomponenten aus den Daten der Zyklen 21-23 mit der Reihe der periodischen Funktionen anpassten und diese Formeln zur Vorhersage dieser Wellen für die Zyklen 24-26 verwendeten. Es wurde festgestellt, dass diese beiden Wellen in verschiedenen Schichten des Sonneninneren erzeugt werden und nahe, aber nicht gleiche Frequenzen erreichen [1]. Die Summenkurve dieser beiden magnetischen Wellen (Abbildung 1, unterer Plot) zeigt die Interferenz dieser Wellen, die Maxima und Minima der Sonnenzyklen bilden.

Abbildung 1. Oberer Plot: zwei Hauptkomponenten (PC) des solaren Hintergrundmagnetfeldes (blaue und grüne Kurven, willkürliche Zahlen), ermittelt für die Zyklen 21-23 (historische Daten) und vorhergesagt für die Zyklen 24-26 unter Verwendung der mathematischen Formeln, abgeleitet aus den historischen Daten (aus den Daten von Zharkova et al. [1]). Der untere Plot: Die Summenkurve, abgeleitet aus den beiden obigen PCs für die „historischen“ Daten (Zyklen 21-23) und vorhergesagt für den Sonnenzyklus 24 (2008-2019), Zyklus 25 (2020-2031), Zyklus 26 (2031-2042) (aus den Daten von Zharkova et al. [1]).

Die Summenkurve zweier magnetischer Wellen erklärt viele Merkmale der 11-Jahres-Zyklen, wie z.B. Doppelmaxima in einigen Zyklen oder Asymmetrie der Sonnenaktivität in den gegenüberliegenden Hemisphären während verschiedener Zyklen. Zharkova et al. [1] verknüpften die Summenkurve des Moduls mit den gemittelten Sonnenfleckenzahlen für die Zyklen 21-23, wie in Abbildung 2 (oberer Plot) gezeigt, und erweiterten diese Kurve auf die Zyklen 24-26, wie in Abbildung 2 (unterer Plot) gezeigt. Es scheint, dass die Amplitude des zusammengefassten solaren Magnetfeldes, die in der Summenkurve dargestellt ist, in Richtung der Zyklen 24-25 abnimmt und im Zyklus 26 fast Null wird.

Abbildung 2. Obere Grafik: Die aus der Summenkurve (Abbildung 1, unterer Plot) erhaltene Modul-Summenkurve (schwarze Kurve) gegen die gemittelten Sonnenfleckenzahlen (rote Kurve) für die historischen Daten (Zyklen 21-23). Untere Grafik: Die Modul-Summenkurve in Verbindung mit den für die Zyklen 21-23 abgeleiteten (und für die Zyklen 24-26 berechneten) Sonnenfleckenzahlen (erstellt aus den Daten von Zharkova et al. [1]).

Zharkova et al. [1] schlugen vor, die Summenkurve als neuen Proxy für die Sonnenaktivität zu verwenden, der nicht nur die Amplitude eines Sonnenzyklus‘, sondern auch dessen führende magnetische Polarität des solaren Magnetfeldes markiert.

Abbildung 3. Rekonstruierte Kurve der Sonnenaktivität (Zusammenfassung) für 1200-3300 n. Chr. (erstellt aus den Daten von Zharkova et al. [1]).

Abbildung 3 zeigt die Summenkurve, die mit den abgeleiteten mathematischen Formeln für die kommenden 1200 Jahre und für die letzten 800 Jahre berechnet wurde. Diese Kurve zeigt das Auftreten von Großen Solarzyklen alle 350-400 Jahre, die durch die Interferenz von zwei magnetischen Wellen verursacht werden. Diese großen Zyklen werden durch die großen solaren Minima, oder Perioden sehr geringer Sonnenaktivität, getrennt [1]. Das vorhergehende große Sonnenminimum war das Maunder-Minimum (1645-1710), und das andere davor hieß Wolf-Minimum (1270-1350). Wie in Abbildung 3 aus der Vorhersage von Zharkova et al. [1] zu sehen ist, nähern sich in den nächsten 500 Jahren zwei moderne große solare Minima der Sonne: das moderne im 21. Jahrhundert (2020-2053) und das zweite im 24 Jahrhundert (2370-2415)

Die beobachteten Eigenschaften der beiden magnetischen Wellen und ihre Summenkurve wurden durch doppelte Dynamowellen, die von dipolaren magnetischen Quellen in zwei Schichten des Sonneninneren erzeugt werden, eng aneinander angepasst: innere und äußere Schichten [1], während andere drei Paare magnetischer Wellen von vierfachen, sechsfachen und achtfachen magnetischen Quellen erzeugt werden können, wobei die dipolare Quelle das sichtbare Erscheinungsbild der Sonnenaktivität an der Oberfläche bestimmt.

Derzeit hat die Sonne den Sonnenzyklus 24 abgeschlossen – den schwächsten Zyklus seit über 100 Jahren – und im Jahr 2020 beginnt der Zyklus 25. Während der Perioden geringer Sonnenaktivität, wie dem derzeitigen großen solaren Minimum, ist die Sonne oft frei von Sonnenflecken. Dies wird nun zu Beginn dieses Minimums beobachtet, denn im Jahr 2020 hat die Sonne bis August 115 fleckenfreie Tage (oder 78 %) gesehen, was bedeutet, dass 2020 auf dem besten Weg ist, den Weltraumrekord von 281 fleckenfreien Tagen (oder 77 %) für das gesamt Jahr zu übertreffen, der im Jahr 2019 beobachtet wurde. Der Start des Zyklus 25 ist jedoch immer noch langsam im Auftreten aktiver Regionen und Flares, so dass mit jedem zusätzlichen Tag/Woche/Monat, der vergeht, die Null in der Sonnenaktivität verlängert wird, was den Beginn des großen solaren Minimums markiert.* Welche Folgen hat dieser Rückgang der Sonnenaktivität für die Erde?

[*Der Beitrag datiert vom August 2020. Die aktuell immer noch fleckenfreie Sonne unterstreicht diese Aussagen. A. d. Übers.]

Die verringerte TSI während des Maunder-Minimums

Betrachten wir jetzt das Verhalten der Sonneneinstrahlung während des letzten großen Sonnenminimums – dem Maunder-Minimum. Während dieses Zeitraums erschienen nur sehr wenige Sonnenflecken auf der Sonnenoberfläche, und die Gesamthelligkeit der Sonne war leicht verringert.

Die Rekonstruktion der zyklusgemittelten solaren TSI zurück bis ins Jahr 1610 (Abbildung 4, oberes Diagramm) deutet auf eine Abnahme der TSI während des Maunder-Minimums um einen Wert von etwa 3 W/m² [2] hin, was etwa 0,22 % der gesamten solaren Bestrahlungsstärke im Jahr 1710 entspricht, nachdem das Maunder-Minimum beendet war.

Temperaturrückgang während des Maunder-Minimums

Von 1645 bis 1710 sanken die Temperaturen in weiten Teilen der nördlichen Hemisphäre der Erde, als die Sonne in eine Ruhephase eintrat, die heute als Maunder-Minimum bezeichnet wird. Dies geschah wahrscheinlich, weil die TSI um 0,22 % reduziert wurde, wie in Abbildung 4 (oberer Plot) [2] dargestellt, was zu einem Rückgang der durchschnittlichen Erdtemperatur, die hauptsächlich auf der Nordhalbkugel in Europa gemessen wurde, um 1,0-1,5 °C führte, wie in Abbildung 4 (unterer Plot) [3] dargestellt. Dieser scheinbar geringe Rückgang der Durchschnittstemperatur in der nördlichen Hemisphäre führte zu zugefrorenen Flüssen, kalten langen Wintern und kühlen Sommern.

Abbildung 4. Oberer Plot: Rekonstruierte TSI von 1600 bis 2014 von Lean et al. [2], modifiziert von Easterbrook [3], aus Lean, Beer, Bradley [2]. Unterer Plot: Mitteleuropa-Temperaturen (CET), die seit 1658 kontinuierlich aufgezeichnet wurden. Blaue Bereiche sind wiederkehrende kühle Perioden; rote Bereiche sind warme Perioden. Alle Zeiten der solaren Minima fielen mit kühlen Perioden in Mittelengland zusammen. Übernommen aus Easterbrook [3], mit Erlaubnis des Elsevier-Verlags.

Die Oberflächentemperatur der Erde sank überall auf dem Globus (siehe Abbildung 1 in [4]), besonders in den Ländern der nördlichen Hemisphäre. Europa und Nordamerika gerieten in eine Frostperiode: Die Alpengletscher dehnten sich über das Ackerland in den Tälern aus; das Meereis kroch von der Arktis nach Süden; die Flüsse Donau und Themse froren in diesen Jahren regelmäßig zu, ebenso wie die berühmten Kanäle in den Niederlanden.

Shindell et al. [4] konnten nachweisen, dass der Temperaturrückgang mit der Abnahme der Ozonmenge zusammenhängt, die durch das ultraviolette Licht der Sonne in der Stratosphäre gebildet wird, also der Schicht der Atmosphäre zwischen 10 und 50 Kilometern Höhe. Da die Sonne während des Maunder-Minimums insgesamt weniger Strahlung emittierte, einschließlich der starken ultravioletten Emission, wurde weniger Ozon gebildet, was sich auf die planetarischen hemisphärischen Wellen, die riesigen Mäander im Jetstream, auswirkte.

Shindell et al. [4] vermuten auf S. 2150, dass „eine Veränderung der planetarischen Wellen während des Maunder-Minimums die Nordatlantische Oszillation (NAO) – das Gleichgewicht zwischen einem permanenten Tiefdrucksystem in der Nähe von Grönland und einem permanenten Hochdrucksystem in seinem Süden – in eine negative Phase brachte, die dazu führte, dass es in Europa während des MM ungewöhnlich kalt blieb.“

Die Rolle des Magnetfeldes bei der terrestrischen Abkühlung in Grand Solar Minima

Doch nicht nur die Sonnenstrahlung zeigte sich während des Maunder-Minimums verändert. Es gibt noch einen weiteren Beitrag zur Reduzierung der Erdtemperatur während des Maunder-Minimums – das ist das solare Hintergrundmagnetfeld, dessen Rolle bisher übersehen wurde. Nach der Entdeckung [1] einer signifikanten Reduktion des Magnetfeldes im bevorstehenden modernen großen Sonnenminimum und während des Maunder-Minimums wurde erkannt, dass das solare Magnetfeld die Stärke der kosmischen Strahlung steuert, welche die planetaren Atmosphären des Sonnensystems einschließlich der Erde erreicht. Eine signifikante Reduktion des solaren Magnetfeldes während des großen solaren Minimums wird zweifellos zu einer Erhöhung der Intensität der galaktischen und extra-galaktischen kosmischen Strahlung führen, die wiederum zur Bildung von hohen Wolken in den terrestrischen Atmosphären führt und zur Abkühlung der Atmosphäre beiträgt, wie Svensmark et al. gezeigt haben [5].

Im letzten solaren Minimum zwischen den Zyklen 23 und 24 nahm die Intensität der kosmischen Strahlung um 19% zu. Gegenwärtig nimmt das in Abbildung 1 von Zharkova et al. [1] vorhergesagte solare Magnetfeld in der Sonne radikal ab, was wiederum zu einem starken Rückgang des interplanetaren Magnetfeldes der Sonne auf nur noch 4 nanoTesla (nT) von typischen Werten von 6 bis 8 nT führt. Diese Abnahme des interplanetaren Magnetfeldes führt natürlich zu einem signifikanten Anstieg der Intensität der kosmischen Strahlung, die in die Atmosphären der Planeten eindringt, wie von den jüngsten Weltraummissionen berichtet wird [6]. Daher schreitet dieser Prozess der Verringerung des solaren Magnetfeldes voran, wie von Zharkova et al. vorhergesagt [1], und sein Beitrag wird von den planetarischen Atmosphären, einschließlich der Erde, absorbiert werden. Dies kann die terrestrische Temperatur während des modernen großen solaren Minimums, das bereits im Jahr 2020 begonnen hat, verringern.

Der erwartete Rückgang der terrestrischen Temperatur während des derzeitigen Grand Solar Minimums

Diese Summenkurve zeigte auch das bevorstehende moderne große Sonnenminimum 1 in den Zyklen 25-27 (2020-2053) und das moderne große Sonnenminimum 2 (2370-2415) an. Dies wird in der modernen Zeit die einzigartigen niedrigen Aktivitätsbedingungen der Sonne bringen, die während des Maunder-Minimums auftraten. Es wird erwartet, dass während des modernen großen Sonnenminimums die Sonnenaktivität deutlich reduziert sein wird, wie dies während des Maunder-Minimums der Fall war (Abbildung 4, untere Grafik). Ähnlich wie beim Maunder-Minimum wird die Verringerung des solaren Magnetfelds, wie oben beschrieben, eine Abnahme der solaren Bestrahlungsstärke um etwa 0,22 % für die Dauer von drei Sonnenzyklen (25-27) für das erste moderne große Minimum (2020-2053) und vier Sonnenzyklen ab dem zweiten modernen großen Minimum (2370-2415) verursachen.

Dies wiederum kann während der nächsten drei Zyklen (25-27) des großen Minimums 1 zu einem Absinken der terrestrischen Temperatur um bis zu 1,0°C gegenüber der aktuellen Temperatur führen. Die stärksten Abkühlungsphasen werden während der lokalen Minima zwischen den Zyklen 25-26 und den Zyklen 26-27 auftreten, wenn das niedrigste Niveau der Sonnenaktivität erreicht wird, wenn man die Abschätzungen in Abbildung 2 (unterer Plot) und Abbildung 3 verwendet. Daher kann die Durchschnittstemperatur in der nördlichen Hemisphäre um bis zu 1,0°C im Vergleich zur aktuellen Temperatur sinken, die seit dem Maunder-Minimum um 1,4°C gestiegen war. Dies wird dazu führen, dass die Durchschnittstemperatur nur noch 0,4°C über der im Jahr 1710 gemessenen Temperatur liegt. Dann, nachdem das heutige große solare Minimum 1 vorbei ist, wird sich die Sonnenaktivität im Zyklus 28 in dem eher kurzen, aber kräftigen großen Sonnenzyklus zwischen 2053 und 2370 wieder normalisieren, wie in Abbildung 3 dargestellt, bevor es im Jahr 2370 zum nächsten großen solaren Minimum 2 kommt.

Conclusions

In diesem Leitartikel habe ich gezeigt, dass die jüngsten Fortschritte beim Verständnis der Rolle des solaren Hintergrundmagnetfeldes bei der Bestimmung der Sonnenaktivität und bei der Quantifizierung der beobachteten Größen des Magnetfeldes zu verschiedenen Zeiten eine zuverlässige langfristige Vorhersage der Sonnenaktivität auf einer Zeitskala von einem Jahrtausend ermöglichen. Dieser Ansatz zeigte, dass es nicht nur 11-jährige Sonnenzyklen gibt, sondern auch große Sonnenzyklen mit einer Dauer von 350-400 Jahren. Wir konnten zeigen, dass diese großen Zyklen durch die Interferenzen zweier magnetischer Wellen mit nahe beieinander liegenden, aber nicht gleichen Frequenzen gebildet werden, die durch die doppelte solare Dynamowirkung in unterschiedlichen Tiefen des Sonneninneren erzeugt werden. Diese großen Zyklen werden immer durch große solare Minima vom Typ des Maunder-Minimums getrennt, die in der Vergangenheit regelmäßig auftraten und die bekannten Maunder-, Wolf-, Oort-, Homeric- und andere große Minima bildeten.

Während dieser großen solaren Minima kommt es zu einer signifikanten Reduktion des solaren Magnetfeldes und der solaren Bestrahlungsstärke, die die Reduktion der terrestrischen Temperaturen erzwingen, die für diese Zeiträume aus der Analyse der terrestrischen Biomasse während der letzten 12.000 oder mehr Jahre abgeleitet wurden. Das jüngste große solare Minimum trat während des Maunder-Minimums (1645-1710) auf, das zu einer Verringerung der solaren Bestrahlungsstärke um 0,22 % gegenüber der heutigen und zu einer Verringerung der durchschnittlichen terrestrischen Temperatur um 1,0-1,5 °C führte.

Diese Entdeckung der doppelten Dynamowirkung in der Sonne brachte uns eine rechtzeitige Warnung vor dem bevorstehenden großen solaren Minimum 1, wenn das solare Magnetfeld und seine magnetische Aktivität um 70% reduziert sein werden. Diese Periode hat in der Sonne im Jahr 2020 begonnen und wird bis zum Jahr 2053 andauern. Während dieses modernen großen Minimums würde man eine Reduktion der durchschnittlichen terrestrischen Temperatur um bis zu 1,0°C erwarten, insbesondere während der Perioden der solaren Minima zwischen den Zyklen 25-26 und 26-27, z.B. in der Dekade 2031-2043.

Die Verringerung der terrestrischen Temperatur während der nächsten 30 Jahre kann für verschiedene Teile des Planeten wichtige Auswirkungen auf die wachsende Vegetation, die Landwirtschaft, die Nahrungsmittelversorgung und den Heizbedarf sowohl in der nördlichen als auch in der südlichen Hemisphäre haben. Diese globale Abkühlung während des bevorstehenden großen solaren Minimums 1 (2020-2053) kann für drei Jahrzehnte jegliche Anzeichen einer globalen Erwärmung ausgleichen und würde zwischenstaatliche Anstrengungen erfordern, um Probleme mit der Wärme- und Nahrungsmittelversorgung für die gesamte Erdbevölkerung anzugehen.

References

Link: https://www.tandfonline.com/doi/full/10.1080/23328940.2020.1796243

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Noch einmal: der Beitrag datiert vom August 2020. Die gerade zu Ende gegangene 14-tägige Folge ohne Sonnenflecken unterstreicht die Aussagen der Autorin, auch wenn heute (19.2.) erstmals wieder Sonnenflecken auftauchen.

 




Auswirkungen der Coronavirus-Maßnahmen auf das CO2-Niveau

Abbildung 1: Unter Verwendung einer einfachen Methode1 zur Entfernung des großen saisonalen Zyklus aus den Mauna Loa CO2-Daten sowie der durchschnittlichen Auswirkungen von El Nino- und La Nina-Ereignissen wurde kein offensichtlicher Rückgang der globalen CO2-Werte beobachtet4. Analyse von Dr. Roy Spencer.

Klimaaktivisten erwarteten, dass dieser wirtschaftliche Aufschwung zu einem geringeren Energieverbrauch und damit zu weniger CO2-Emissionen weltweit führen würde. Das ist zwar in der Tat geschehen, mit einem Rückgang der Emissionen in China um 40 % und einer erwarteten 11-prozentigen Reduktion der CO2-Emissionen aus der Energieerzeugung in den USA in diesem Jahr, aber es hat sich nicht in den von ihnen gesuchten Beweis umgesetzt. Was die Wissenschaftler suchen, sind Beweise für einen Rückgang der globalen atmosphärischen CO2-Konzentration, die stark genug wären, um sie dem wirtschaftlichen Abschwung zuzuschreiben.

Der Klimawissenschaftler Dr. Roy Spencer von der University of Alabama hat eine einfache Methode1 verwendet, um den großen saisonalen CO2-Zyklus2, der auf die jahreszeitlich bedingten Zu- und Abnahmen der pflanzlichen Photosynthese zurückzuführen ist, aus den CO2-Daten des Mauna Loa zu entfernen, ebenso wie die durchschnittlichen Auswirkungen von El-Nino- und La-Nina-Ereignissen, die die Rate der Ausgasung von CO2 im Ozean verändern. Das Ergebnis: Es wurde kein offensichtlicher Rückgang des globalen CO2-Gehalts beobachtet3,4.

Wie in Abbildung 1 zu sehen ist, zeigen die neuesten CO2-Daten keinen Abwärtstrend, sondern nur eine Welle, die anderen Wellen in der Grafik nicht unähnlich ist, als es noch keine Krise und keinen daraus resultierenden Wirtschaftsabschwung gab. Die Zeitung USA Today führte einen Faktencheck zu diesem Thema durch und kam zu dem gleichen Ergebnis.

Die Earth System Research Laboratories der NOAA untersuchten das Thema ebenfalls5 und kamen zu dem Schluss:

Der Rückgang der Emissionen muss groß genug sein, um sich von der natürlichen CO2-Variabilität abzuheben, die dadurch entsteht, wie Pflanzen und Böden auf saisonale und jährliche Schwankungen von Temperatur, Luftfeuchtigkeit, Bodenfeuchte usw. reagieren. Diese natürlichen Schwankungen sind groß, und bis jetzt fallen die ‚fehlenden‘ Emissionen nicht auf.“

Es gibt eindeutig keinen Hinweis darauf, dass die erzwungenen Reduktionen irgendeine Auswirkung auf den globalen CO2-Gehalt hatten, was darauf hindeutet, dass die natürlichen Kräfte, wie z.B. die Ausgasung von CO2 aus den Ozeanen, die vom Menschen verursachten Beiträge überwiegen. Dies deutet ferner darauf hin, dass die Aufrufe der Klimaalarmisten, den Verbrauch fossiler Brennstoffe, den Autoverkehr, Flugreisen, den Rindfleischkonsum und eine ganze Litanei von Beschwerden, die sie über moderne, das Leben erleichternde Energieanwendungen vorbringen, wenig oder gar keinen Effekt haben werden, falls sie wie gefordert umgesetzt werden.

Zusammengefasst sind folgende Punkte bedeutsam:

Einige Klimaaktivisten feierten die wirtschaftliche Abschaltung aufgrund der Coronavirus-Pandemie und stellten fest, dass sie den größten Rückgang der globalen CO2-Emissionen aller Zeiten verursachte.

Die gesamte Weltwirtschaft schrumpfte als Folge der Abschaltungen, und die Vereinigten Staaten sind auf dem Weg zu einer 40%igen Reduktion im zweiten Quartal 2020.

● Der Weltmarktführer bei den CO2-Emissionen China verzeichnete einen geschätzten Rückgang der CO2-Emissionen um 25 %, während die Energy Information Administration eine Reduktion der energiebedingten CO2-Emissionen in den USA um 11 % in diesem Jahr vorhersagt.

● Trotz abstürzender Volkswirtschaften und großer Kürzungen im Reiseverkehr, in der Industrie und bei der Energieerzeugung haben Klimawissenschaftler noch keinen Hinweis auf einen Rückgang der atmosphärischen CO2-Werte gefunden.

● Die Tatsache, dass trotz massiver globaler Sperrungen und wirtschaftlicher Härten die atmosphärischen CO2-Werte überhaupt nicht gesunken sind, deutet darauf hin, dass die Forderungen der Klimaaktivisten nach einer globalen Reduktion des Energieverbrauchs ineffektiv und katastrophal sind und Jahrzehnte dauern würden.

Further reading:

  1. Is the COVID-19 Economic Downturn Affecting Atmospheric CO2? Mauna Loa Data Say, Not Yet Dr. Roy Spencer March 22nd, 2020  https://www.drroyspencer.com/2020/03/is-the-covid-19-economic-downturn-affecting-atmospheric-co2-mauna-loa-data-say-not-yet/
  2. Seasonal Changes in Carbon Dioxide NASA’s Scientific Visualization Studio May 4th, 2017https://svs.gsfc.nasa.gov/4565
  3. March 2020 CO2 Levels at Mauna Loa Show No Obvious Effect from Global Economic Downturn Dr. Roy Spencer April 7th, 2020 https://www.drroyspencer.com/2020/04/march-2020-co2-levels-at-mauna-loa-show-no-obvious-effect-from-global-economic-downturn/
  4. Why the Current Economic Slowdown Won’t Show Up in the Atmospheric CO2 Record Dr. Roy Spencer May 15th, 2020 http://www.drroyspencer.com/2020/05/why-the-current-economic-slowdown-wont-show-up-in-the-atmospheric-co2-record/
  5. Can we see a change in the CO2 record because of COVID-19? NOAA Earth System Research Laboratories May 2020 https://www.esrl.noaa.gov/gmd/ccgg/covid2.html

View this page as a printable PDF: CAAG-coronavirus-vs-CO2Download

Link: https://climateataglance.com/climate-at-a-glance-coronavirus-impact-on-co2-levels/

Übersetzt von Chris Frey EIKE

 




Wetter-Kapriolen Ergebnis des Klimawandels?

Die eiskalten Tage im Dezember und Januar, die mit Schneestürmen einhergingen, paßten den Klima-Alarmisten überhaupt nicht ins Konzept, weswegen eiligst darauf hingewiesen wurde, daß die Erwärmung der Arktis für ein geringes Temperaturgefälle zum Äquatorbereich sorge, so der Polarwirbel langsamer werde und uns deswegen Kälte und Schnee schicke.

Aktuell scheint der Polarwirbel wieder beschleunigt zu sein, was Europa frühlingshafte Temperaturen beschert. Die Iberische Halbinsel war schon letzte Woche dran, berichtet unser Referent Sebastian Lüning. Die Wetter- und Klimafrösche atmen auf und melden erfreut, …

Februar-Tage mit über 20 Grad traten laut DWD im Zuge der Klimaerwärmung zuletzt immer häufiger auf: Zwischen 2001 und 2020 gab es in acht Jahren im Februar Höchsttemperaturen von 20 Grad und mehr. Zwischen 1981 und 2000 sowie von 1961 bis 1980 waren es jeweils nur drei Jahre.

Acht und drei in 2×20 Jahren, das ist natürlich extrem signifikant. Würde man den Gesamtzeitraum ab 1850 betrachten, und die Jahrhunderte zuvor (sofern meßtechnisch möglich) vergleichen, würde man vermutlich anderes, oder alles Mögliche schließen können. Es gilt das berühmte Zitat: Traue keiner Statistik, die Du nicht selber zusammengestellt hast.

Und in der Tat: Die Presseberichte widersprechen sich selbst ein wenig:

Es ist lange her, aber es gab auch schon mal 24,5 Grad im Februar: im nordrhein-westfälischen Arnsberg im Jahr 1900. 1960 war es in Müllheim (Baden-Württemberg) und Kaiserslautern (Rheinland-Pfalz) 22,5 Grad warm, 2019 in Saarbrücken-Burbach 21,7 Grad. Die nun vorhergesagten Höchsttemperaturen werden an diese Spitzenreiter wohl nicht herankommen, glaubt Meteorologe Adrian Leyser.

Und nicht vergessen: Wie unser Vizepräsident Michael Limburg betont, ist selbst aktuelle Meßtechnik keineswegs zuverlässig. Passend dazu stellte sich heraus, daß deutsche „Spitzentemperaturen“ der Station Lingen auf mangelhafte Wartung zurückzuführen waren.