1

Die arktische Eisausdehnung zum Jahresende 2020

Das obige Diagramm zeigt den verfügbaren Datensatz des Meereisindex (Sea Ice Index SII) seit 1989, zusammen mit dem vergleichbaren Datensatz von MASIE 2006 bis heute. Es zeigt, dass 2020 um 150k km2 (1 %) niedriger ist als 2019 und 300k km2 über dem Tiefstwert von 2017 liegt. Tatsächlich ist 2020 fast der Durchschnitt für das letzte Jahrzehnt.

Wie bereits in einem früheren Beitrag erwähnt, wurden im Oktober Befürchtungen geäußert, dass die Arktis langsamer als im Durchschnitt wieder zufriert. Diese Befürchtungen wurden erstens durch den Anstieg der Eisausdehnung im November und zweitens durch das schnelle Gefrieren der Arktis im Dezember ausgeräumt. Im November wurden 3,5 Wadhams Meereis im Laufe des Monats hinzugefügt.  (Die Metrik 1 Wadham = 1 Million km² stammt von den Vorhersagen des Professors über eine eisfreie Arktis, was weniger als 1 Million km² Ausdehnung bedeutet). Im Dezember kamen weitere 2,7 Wadhams hinzu. Die letzten beiden Monate haben das Defizit im Oktober mehr als ausgeglichen.

Hintergrund aus früherem Beitrag aktualisiert zum Jahresende

Als ich vor einigen Jahren einen Beitrag über die globale Erwärmung bei WUWT las, fiel mir der Kommentar einer Person auf: „Ich bin Versicherungsmathematiker mit begrenztem Wissen über Klimametriken, aber es scheint mir, wenn man Temperaturänderungen verstehen will, sollte man die Änderungen analysieren, nicht die Temperaturen“. Das ließ bei mir die Alarmglocken läuten, und ich wandte diese Einsicht in einer Reihe von Temperatur-Trend-Analysen von Temperaturaufzeichnungen von Oberflächenstationen an. Diese Beiträge sind unter dieser Überschrift verfügbar: Climate Compilation Part I Temperatures.

In diesem Beitrag wird versucht, die Schwankungen des arktischen Meereises mit einem ähnlichen Ansatz zu verstehen: Der Schwerpunkt liegt auf den Raten der Ausdehnungsänderungen und nicht wie üblich auf der Untersuchung der Eisausdehnung selbst. Glücklicherweise bietet der Sea Ice Index (SII) der NOAA einen geeigneten Datensatz für dieses Projekt. Wie viele wissen, stützt sich der SII auf passive Mikrowellensensoren von Satelliten, um Karten der arktischen Eisausdehnung zu erstellen, die bis ins Jahr 1979 zurückreichen. Die aktuelle Version 3 hat sich stärker an MASIE, der modernen Form der Marine-Eiskartenerstellung zur Unterstützung der arktischen Navigation, angelehnt. Wie man die SII-Daten lesen muss, steht hier.

Es sind statistische Analysen verfügbar, und diejenige, die von Interesse ist (Tabelle unten), heißt Sea Ice Index Rates of Change (hier). Wie der Titel schon andeutet, besteht diese Tabelle nicht aus monatlichen Ausdehnungen, sondern aus Änderungen der Ausdehnungen gegenüber dem Vormonat. Konkret wird ein Monatswert berechnet, indem der Durchschnitt der letzten fünf Tage des Vormonats vom Durchschnitt der letzten fünf Tage dieses Monats subtrahiert wird. Der Wert stellt also die Menge an Eis dar, die während des aktuellen Monats zu- oder abgenommen hat.

Diese monatlichen Änderungsraten wurden zu einer Basislinie für den Zeitraum 1980 bis 2010 zusammengestellt, die die Schwankungen der arktischen Eisausdehnung im Laufe eines Kalenderjahres zeigt. Unten ist ein Diagramm dieser durchschnittlichen monatlichen Veränderungen während des Basiszeitraums zu sehen. Diejenigen, die mit Studien zum arktischen Eis vertraut sind, werden von der Wellenform des Vorzeichens nicht überrascht sein. Ende Dezember ist ein relativ neutraler Punkt im Zyklus auf halbem Weg zwischen dem Minimum im September und dem Maximum im März.

Die Grafik verdeutlicht die sechs Frühjahrs-/Sommermonate mit Schmelzen und die sechs Herbst-/Wintermonate mit Gefrieren. Man beachte, dass Juni-August den Großteil der Verluste produzieren, während Oktober-Dezember den Großteil des Zuwachses zeigen. Auch die Maximum- bzw. Minimum-Monate März und September zeigen von Anfang bis Ende nur sehr geringe Änderungen in der Ausdehnung.

Die Tabelle der monatlichen Daten zeigt die Variabilität der Eisausdehnung während der letzten 4 Jahrzehnte:

Die Werte im Januar zeigen die Veränderungen gegenüber dem Ende des vorangegangenen Dezembers, und durch Summierung von zwölf aufeinanderfolgenden Monaten können wir eine jährliche Veränderungsrate für die Jahre 1979 bis 2019 berechnen:

Wie viele wissen, hat die Eisausdehnung in der Arktis in diesen 40 Jahren abgenommen, im Durchschnitt um 40.000 km² pro Jahr. Aber Jahr für Jahr wechseln die Veränderungen ständig zwischen Schrumpfen und Wachsen.

Außerdem scheint es Zufall zu sein, welche Monate für ein bestimmtes Jahr ausschlaggebend sind. Zum Beispiel wurde viel Aufhebens darüber gemacht, dass die Eisausdehnung im Oktober 2020 langsamer als erwartet zunahm. Wie es in diesem Datensatz der Fall ist, weist der Oktober die höchste Rate der Eiszunahme auf. Die folgende Tabelle zeigt die verschiedenen monatlichen Raten in der Aufzeichnung als Anomalien gegenüber der Basislinie 1980-2010. In dieser Darstellung ist eine rote Zelle eine negative Anomalie (weniger als die Basislinie für diesen Monat) und blau ist positiv (höher als die Basislinie).

Man beachte, dass die +/- Kursanomalien sind über das gesamte Netz verteilt sind, Sequenzen verschiedener Monate in verschiedenen Jahren, wobei sich Gewinne und Verluste gegenseitig ausgleichen. Ja, der Oktober 2020 verzeichnete einen unterdurchschnittlichen Zuwachs, aber einen höheren als 2016. Der Verlust im Juli 2020 war der größte in diesem Jahr wegen des heißen sibirischen Sommers. Außerdem beachte man, dass die Anomalie des Eiszuwachses im November 2020 die Anomalie des Defizits im Oktober um mehr als das Doppelte überstieg. Der Dezember fügte mehr Überschuss hinzu, so dass die Anomalie für das Jahr Null war. Die untere Zeile zeigt die durchschnittlichen Anomalien für jeden Monat über den Zeitraum 1979-2020. Die Raten der Gewinne und Verluste gleichen sich größtenteils aus, und der Durchschnitt aller Monate in der unteren rechten Zelle ist praktisch Null.

Eine letzte Betrachtung: Die Grafik unten zeigt die Jahresend-Eisausdehnung der Arktis für die letzten 30 Jahre.

Hinweis: Die tägliche SII-Eisausdehnungsdatei liefert keine vollständigen Werte vor 1988.

Die Eisausdehnung am Jahresende in der Arktis (die letzten 5 Tage im Dezember) zeigt drei verschiedene Regimes: 1989-1998, 1998-2010, 2010-2019. Die durchschnittliche Ausdehnung am Jahresende 1989-2010 betrug 13,4 Mio. km². In der letzten Dekade lag sie bei 13,0 Mio. k², und zehn Jahre später, 2019, bei 12,8 Mio. km². Bei all den Schwankungen betrug der Nettoverlust also 200k km² oder 1,5%. Das Gerede von einer Todesspirale des arktischen Eises ist Phantasterei.

Diese Daten zeigen ein höchst variables Naturphänomen. Es ist klar, dass unvorhersehbare Faktoren im Spiel sind, vor allem die Wasserstruktur und -zirkulation, atmosphärische Zirkulationen und auch Umwälzungen und Stürme. Und längerfristig gesehen sind die heutigen Ausmaße nicht ungewöhnlich.

Link: https://rclutz.wordpress.com/2021/01/04/arctic-ice-year-end-2020/?mc_cid=3231bff1ad&mc_eid=08ba9a1dfb

Übersetzt von Chris Frey EIKE

 




Wie genau sind unsere Messungen bzgl. Wetter und Klima?

Heute dagegen brauchen wir beispielsweise auf einem Flug von New York nach Los Angeles detailliertere und zuverlässigere Wetterinformationen, wie z. B. ob es bei der Zwischenlandung in St. Louis schneit. Oder der Landwirt in Nebraska, der die Vorhersage für die Frühjahrsweizenproduktion in der Ukraine sehen muss. Er braucht die bestmöglichen Informationen, um besser abschätzen zu können, wie viele Hektar Winterweizen er für die heutigen globalen Märkte anbauen sollte.

Wir brauchen vor allem bessere und zuverlässigere Informationen, um zu entscheiden, welche Maßnahmen wir zur Vorbereitung auf Klimaveränderungen in Betracht ziehen sollten.

Während Wissenschaftler, Ingenieure und Software-Programmierer die Bedeutung und die Notwendigkeit dieser Datengenauigkeit kennen, ist sich die breite Öffentlichkeit nicht bewusst, wie herausfordernd diese Aufgaben sein können.

Wenn wir langfristige Klimadaten betrachten, müssen wir unter Umständen mehrere Proxies (indirekte Messgrößen, von denen wir hoffen, dass sie direkt mit dem Wetter variieren) verwenden, die eine zusätzliche Ebene von Komplexität, Kosten und Fehlerquellen hinzufügen. Einer der am häufigsten verwendeten Proxies sind die alten Temperatur- und CO2-Werte aus Eiskernproben. In den letzten paar hundert Jahren waren auch Baumringdaten eine primäre Quelle für die Jahrestemperaturen. Aber seit dem letzten halben Jahrhundert werden direkte atmosphärische Messwerte verwendet, die sehr genau und zuverlässig sind.

Aus Abbildung 1 geht hervor, dass der CO2-Gehalt ab Mitte der 1950er Jahre dramatisch anstieg. Wir haben aufgehört, Proxies zur Messung des atmosphärischen CO2-Gehalts zu verwenden, und haben begonnen, direkte Messwerte von der Mauna Loa Wetterstation auf Hawaii zu verwenden. Wir müssen uns also fragen, ob dieser dramatische Anstieg des CO2-Gehalts real war, oder ob er durch die Änderung des Messverfahrens teilweise verzerrt wurde. Oder wir haben in den frühen 1960er Jahren aufgehört, Baumringdaten zu verwenden. In der Zeit, als wir sowohl Baumring- als auch Thermometer-Aufzeichnungen hatten, wurden gewisse Diskrepanzen festgestellt. Wir können solche Änderungen in den Messungen nicht vornehmen, ohne Raum für Zweifel zu lassen.

Abbildung 1 zeigt zum Beispiel den CO2-Gehalt der Jahrtausende alten antarktischen Eisschilde. Vor Mitte der 1950er Jahre wurden die CO2-Schätzungen auf der Grundlage des CO2-Gasgehalts der Eisbohrkerne berechnet. Die auf diese Weise gemessenen CO2-Gehalte schienen über einen Zeitraum von mehreren zehntausend Jahren nie viel über 280 ppm zu steigen.

Man beachte nun, dass wir, beginnend vor etwa 6.000 Jahren, einen kleinen, aber stetigen Anstieg sehen, wenn wir von links nach rechts schauen. Und der Anstieg scheint bis Mitte der 1990er Jahre einigermaßen konstant zu sein. Hier ist die klassische Annahme, dass sowohl das CO2 als auch die Temperaturen gestiegen sind.

Kürzlich haben sich Wissenschaftler die abwärts gehende Neigung angesehen, wenn wir in den 1950er Jahren stehen und von rechts nach links schauen. Dabei stellt sich die Frage, ob das CO2 durch das enorme Gewicht der Gletscher herausgedrückt wird, während sie altern, und vielleicht auch in Kombination mit CO2, das chemisch gebunden wird, und in welchen Anteilen. Ab Mitte der 1950er Jahre sehen wir einen sehr deutlichen und schnellen Anstieg der CO2-Werte, und wir sehen die inzwischen bekannten CO2-Hockeyschläger. Ist das CO2 so schnell angestiegen, oder war es Teil der Anomalie, die durch die Änderung der Messmethoden verursacht wurde? Wir denken Letzteres.

Woher soll der Durchschnittsbürger das wissen? Wurde diese dramatische Veränderung jemals genau und verständlich erklärt? Wir wollen das erst einmal allgemeiner als „Datenintegrität“ bezeichnen.

Hier ist ein weiteres einfaches Beispiel. Wenn wir die Temperatur in der Gegend von Boston vor 200 Jahren messen wollten, hätten wir vielleicht zwanzig Thermometer an zwanzig verschiedene Orte gebracht. Wir hätten einige allgemeine Entscheidungen getroffen, einige entlang der Küste und den Rest an verschiedenen Stellen in der Stadt und auf dem Land zu platzieren – vor allem auf Bauernhöfen. Wir hätten vielleicht nur ein oder zwei in den Bergen oder Wäldern aufgestellt, weil diese Stationen bemannt sein und die Daten mehrmals am Tag aufgezeichnet werden mussten. Dann, vielleicht ein- oder zweimal pro Tag oder Woche oder Monat, könnten sie konsolidiert worden sein, um eine durchschnittliche „Boston-Temperatur“ für Oktober 1820 zu erhalten. Wie würde es aussehen, wenn die Boston-Temperatur im Oktober 1920 bzw. 2020 verglichen werden, um zu sehen, ob sie gestiegen ist oder nicht? Nun, das stellt eine ziemliche Herausforderung dar:

In den letzten hundert Jahren könnten einige Bäume um das Thermometer herum gewachsen sein, während die Thermometer im Jahr 1920 vielleicht den ganzen Tag in der vollen Sonne standen. Was nun?

● Einige Instrumente wurden aus irgendeinem Grund verschoben, z. B. wegen einer großen Autobahnbaustelle; wie hat sich das auf die Temperaturmesswerte ausgewirkt?

● Einige Instrumente könnten nach und nach für Monate oder sogar Jahre nicht mehr kalibriert worden sein, bevor sie repariert oder ersetzt wurden. Was machen wir mit den verdächtigen Daten während des fraglichen Zeitraums? Ignorieren?

● Wenn die Instrumente ersetzt wurden, wie wurden sie ersetzt? Einige Variablen sind die gleiche Höhe über dem Boden, der gleiche Schutzkasten, Quecksilber ersetzt durch Alkoholthermometer oder Thermoelemente, usw.

● Eine Wetterstation befand sich in der Nähe einer unbefestigten Straße, bis sie 1926 mit Zement und 1963 mit Asphalt bedeckt wurde? Später wurde sie wieder zu einem Feldweg umgestaltet, als das Gebiet 2004 zu einem Naturpark wurde?

● Wie würden wir diese Temperaturen[iii] mit den Temperaturen bis zum Jahr 2020 vergleichen, kontrastieren und integrieren? Sehr unterschiedlich und sehr herausfordernd:

1) Instrumente, die einst auf einer Weide standen, befinden sich jetzt in der Nähe von Flughafenlandebahnen und Düsenabgasen!

2) Ein anderes war in der Nähe einer schattigen, sandigen Straße, die jetzt ein asphaltierter Parkplatz ist.

3) Thermoelemente haben viele Thermometer ersetzt; wie wurden die Messwerte „zusammengestoppelt“?

4) Andere Wetterstationen wurden einfach wegen der hohen Kosten für ihre Wartung aufgegeben oder durch ein ferngesteuertes Thermoelement oder Telemetrie ersetzt.

5) Wie kann man[i] die Auswirkungen der Umweltverschmutzung der 1960er bis 1990er Jahre mit dem unberührten Himmel der 1800er Jahre in Einklang bringen, wenn Wolken eine so wichtige Rolle spielen?

6) Und die Wolkendecke von 1820 war wahrscheinlich ganz anders als heute, als Folge der zunehmenden Menge an „Aerosolen“, die eine wichtige Rolle bei der Wolkenbildung, dem „Treibhaus“- und dem „Albedo“-Effekt spielen.

In den letzten Jahrzehnten, und vor allem seit der Satelliten-Ära, wurden Hunderte von erdgebundenen Wetterstationen aus verschiedenen Gründen aufgegeben, unter anderem aus Kostengründen und wegen der Zuverlässigkeit der Daten. In den letzten Jahrzehnten haben die NASA und die NOAA versucht, aktuelle und historische Wetteraufzeichnungen an Land und auf dem Meer zu „normalisieren“. Abbildung 2 zeigt zwei Sätze von genau denselben Daten! Die blaue Linie repräsentiert die tatsächlichen landbasierten Temperaturen von 1.218 Stationen in den USA, als die Messwerte aufgenommen wurden. Man vergleiche das mit der roten Linie, die genau die gleichen Temperaturaufzeichnungen darstellt, aber nachdem sie von der NOAA „normalisiert“ wurden*.

*In einem Beitrag bei Real Climate Science wird schon Ende 2016 festgestellt: „Das Problem mit der NOAA-Graphik besteht darin, dass es Fake-Daten sind. Die NOAA erzeugt den Erwärmungstrend künstlich mittels Veränderung der Daten. Die RohDaten der NOAA zeigen im vergangenen Jahrhundert keinerlei Erwärmung“.

„Normalisierung“ hat eine praktische Grundlage. Es ist ein bisschen so, als würde man die Menge des Obstes berechnen, wenn man Äpfel zu Orangen addiert. Allerdings ist der Prozess anfällig für fehlerhafte Annahmen und Ausführung. Der prominente Umweltwissenschaftler Donald Easterbrook behauptet, dass die bisherigen historischen Aufzeichnungen absichtlich manipuliert wurden, wie in Abb. 2 dargestellt. Es wurde der Vorwurf erhoben, dass diese Temperaturen verzerrt wurden, um in das aktuelle Narrativ des CO2-induzierten globalen Klimawandels zu passen. Die historischen Daten der blauen Linie wurden in den letzten Jahrzehnten mindestens viermal verändert, und nun in ihrer endgültigen Form zeigt die rote Linie einen dramatischeren, steileren Temperaturanstieg seit den 1980er Jahren, indem die Temperaturen in den vorangegangenen Jahrzehnten gesenkt wurden! Wenn wir heute aufgefordert werden, Multi-Billionen-Dollar-Entscheidungen zu treffen, die auf unserer Temperaturhistorie des letzten Jahrhunderts basieren, sind sie schwerwiegend und folgenreich geworden.

For more information we recommend our book A Hitchhikers Journey Through Climate Change, coming soon to the CFACT store at CFACT.org.

[i] http://www.clker.com/clipart-thermometer-in-beaker.html

Autoren: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Terigi Ciccone is an Engineer, Science Enthusiast and Artist. Loves reading and travel, Naturalist, Author of the new book “A Hitchhiker’s Journey Through Climate Change.”

Link: https://www.cfact.org/2021/01/05/how-accurate-are-our-weather-and-climate-measurements/

Übersetzt von Chris Frey EIKE

 




Grundgesetz: Professor Ahnungslos vom RKI

Bei Wikipedia kann man nachlesen, dass Brockmann am Robert-Koch-Institut die Projektgruppe P4 „Epidemiologische Modellierung von Infektionskrankheiten“ leitet. Im Ergebnis handelt es sich bei ihm also zweifellos um einen jener Experten am RKI, die von der Bundesregierung bei der Bewältigung der Corona-Pandemie zu Rate gezogen werden. Um so erstaunlicher ist es, welche Erklärungen er in dem Interview von sich gegeben hat, die juristisch betrachtet – gelinde formuliert – unhaltbar sind.

In dem Interview wird Brockmann unter anderem vorgehalten, dass Politiker und Juristen eine Beschränkung von Reisen auf 15 Kilometer als unverhältnismäßig kritisieren und dass es bessere, passgenauere Maßnahmen gebe, beispielsweise das Schließen von Skigebieten. Laut t-online antwortete Brockmann: „Ich lehne das Wort „unverhältnismäßig“ in diesem Zusammenhang ab. Da steckt ‚Verhältnis‘ drin. Das suggeriert, dass man Zahlen zum Zusammenhang zwischen Kontakten und Reisen kennt… Es gibt diese Daten nicht. Bisher wurde der Zusammenhang zwischen Reisen und der Anzahl der Kontakte nur wenig beziehungsweise unzureichend erforscht“.

Diese Aussage ist, wenn man ehrlich bleibt, ein geistiges Armutszeugnis. Es sollte jedem gebildeten Staatsbürger in Deutschland, auch Herrn Brockmann, mittlerweile klar sein, dass der Grundsatz der Verhältnismäßigkeit ein Rechtssatz ist und nicht nur die Beschreibung eines mathematischen Zusammenhangs von Zahlen. Der Grundsatz der Verhältnismäßigkeit hat darüber hinaus – dieses Wissen kann man bei einem Physik-Professor wahrscheinlich nicht erwarten, sondern nur bei einem Juristen – nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts Verfassungsrang!

Der Grundsatz der Verhältnismäßigkeit gilt also immer und in jedem Zusammenhang, auch im Zusammenhang mit Corona. Brockmanns Satz: „Ich lehne das Wort ‚unverhältnismäßig‘ in diesem Zusammenhang ab“ ist folglich absurd und schlicht unvertretbar. Brockmann hat erkennbar von Grundrechten und vom Verhältnismäßigkeitsgrundsatz so viel Ahnung, wie ein Medizinmann aus dem Busch Kenntnis hat von moderner Herzchirurgie: nämlich gar keine. Sein Satz, er lehne das Wort „unverhältnismäßig“ im Zusammenhang mit Corona ab, ist etwa so richtig, wie wenn er gesagt hätte, dass er im Zusammenhang mit Corona die Beachtung von Grundrechten ablehne. Leider gibt das Interview Anlass dafür, genau das zu vermuten.

Im juristischen Sinne völlig unverhältnismäßig

Die Antwort von Brockmann ist auch in einem weiteren Punkt bemerkenswert. Denn aus seiner oben erwähnten Antwort ergibt sich, wenn auch von ihm unbeabsichtigt, dass die Anordnung einer Beschränkung von Reisen auf 15 Kilometer im juristischen Sinne völlig unverhältnismäßig ist.

Für alle juristischen Laien, zu denen erkennbar Brockmann sowie einige Ministerpräsidenten in Deutschland gehören, sei daher an dieser Stelle ein kurze juristische Einführung in den Grundsatz der Verhältnismäßigkeit gegeben: Nach jahrzehntelanger Rechtsprechung des Bundesverfassungsgerichts und aller übrigen obersten Bundesgerichte ist eine staatliche Maßnahme nur dann verhältnismäßig, wenn sie geeignet ist, das beabsichtigte Ziel zu erreichen, wenn sie erforderlich ist, um das beabsichtigte Ziel zu erreichen und wenn sie verhältnismäßig im engeren Sinne ist, also nicht gegen das Übermaßverbot verstößt.

Das beabsichtigte Ziel ist klar definiert: Eine Absenkung der Infektionszahlen zur Eindämmung der Pandemie. Ist eine Beschränkung von Reisen auf 15 Kilometer geeignet, um dieses Ziel zu erreichen?

Klare Antwort: Nein! Sogar Brockmann, ein Experte für „Epidemiologische Modellierung von Infektionskrankheiten“, erklärt selbst in seiner oben zitierten Antwort, dass es keine Daten gibt, die einen Zusammenhang zwischen Reisen und Kontakten belegen und dass diese gesamte Frage bisher nicht erforscht ist! Es fehlt also bereits an einem Nachweis, dass die beabsichtigte staatliche Maßnahme der Beschränkung der Reisen auf 15 Kilometer überhaupt geeignet ist, um das beabsichtigte Ziel zu erreichen. Zumindest die Geeignetheit einer Maßnahme muss aber zweifelsfrei feststehen, wenn sie als Rechtfertigung für einen Eingriff in Grundrechte herhalten soll. Von der Erforderlichkeit der Maßnahme (gibt es nicht tatsächlich weniger einschneidende und mildere Mittel?) und der Verhältnismäßigkeit im engeren Sinne (schießt man hier nicht deutlich übers Ziel hinaus?) braucht gar nicht mehr gesprochen zu werden. Sie liegen beide zweifelsfrei ebenso nicht vor.

Aus der eigenen Antwort eines Experten des Robert-Koch-Instituts ergibt sich also bereits, dass die Beschränkung von Reisen auf 15 Kilometer Entfernung im Rechtssinne völlig unverhältnismäßig ist. Die Bundesregierung bzw. die Landesregierungen haben insoweit auch keinen Beurteilungsspielraum mehr und keine Einschätzungsprärogative. Im Gegensatz zum ersten Lockdown im Früjahr 2020, als man über das Corona-Virus so gut wie nichts wusste, keine Masken und keine Impfungen hatte und man eine Pandemie mit Millionen von Toten allein in Deutschland befürchten musste, wissen wir heute eine ganze Menge über das Virus, haben Masken und Impfmittel und können auch mit Sicherheit sagen, dass keine Millionen von Menschen in Deutschland an Corona sterben werden.

Ein Akt der Willkür und bloßer Aktionismus

Da nach den eigenen Angaben des RKI-Experten Brockmann keinerlei Zahlen und keine Forschung dafür vorliegen, dass ein Zusammenhang zwischen Reisen von mehr als 15 Kilometern Entfernung und vermehrten Kontakten und Infektionen besteht, liegt das generelle Verbot von Reisen von mehr als 15 Kilometern Länge nicht mehr im Beurteilungsspielraum der Regierenden, sondern stellt einen Akt der Willkür bzw. bloßen Aktionismus dar.

Brockmann offenbart in dem Interview, aber auch ansonsten, eine – vorsichtig formuliert – sehr eigenwillige Sichtweise auf die freiheitliche demokratische Grundordnung des Grundgesetzes. So erklärt er u.a.: „Generell gilt: Jede Reise, die nicht unternommen wird, schadet nicht“.

Diese Aussage lässt tief blicken. In der freiheitlichen demokratischen Grundordnung ist nämlich, was Brockmann offenbar nicht weiß, grundsätzlich erst einmal alles erlaubt, was nicht verboten ist. Das ergibt sich aus der allgemeinen Handlungsfreiheit (Art. 2 Abs. 1 GG). Der Staat darf nicht völlig willkürlich und nicht unverhältnismäßig irgendwelche Verbote erlassen. Vielmehr muss der Staat einen vernünftigen Grund vorweisen können, um in die Freiheit seiner Bürger eingreifen zu dürfen.

In einem freiheitlichen Rechtsstaat stellt sich also nicht die Frage, ob eine Reise „nicht“ schadet. Das ist eine Sichtweise, die in Diktaturen gehört. Sondern in einem freiheitlichen System ist die einzige Frage, „ob“ eine Reise schadet. Denn nur dann kann sie verboten werden! Sonst nicht. Die Denkweise, erst einmal prophylaktisch alles zu verbieten, was unter Umständen schaden könnte, gehört, wie bereits erwähnt, in Diktaturen, aber nicht in eine freiheitliche Demokratie.

Wenn es darum ginge, alles zu verbieten, was möglicherweise schaden könnte, müsste man nicht nur Reisen von mehr als 15 Kilometer Entfernung, sondern beinahe sämtliche Errungenschaften der modernen Gesellschaft verbieten. Hier nur einige Beispiele: Man müsste den Autoverkehr komplett verbieten, weil nachweislich durch den Autoverkehr jedes Jahr in Deutschland durchschnittlich mehr als 3.000 Menschen ums Leben kommen. Man müsste sämtliche Demonstrationen und den Zusammentritt des Bundestages verbieten. Überlegen Sie sich mal, welches Infektionsrisiko besteht, wenn sich 709 Abgeordnete des Bundestages bei den Debatten einfinden, dort Stunden lang debattieren und sich teilweise sogar lautstark beschimpfen. Man möchte gar nicht wissen, wie viele Aerosole und wie viele Tröpfchen dort umherschwirren und andere Menschen anstecken könnten. Und man müsste Computer und Internet – zumindest für die Allgemeinheit – verbieten, weil sie Strom benötigen, viel CO2-Ausstoß verursachen und von „schlechten“ Menschen missbraucht werden.

Das Modell der vorbeugenden Inhaftierung

Eine solche Herangehensweise, alles zu verbieten, was möglicherweise gefährlich werden könnte, wäre auch im Strafrecht interessant. Wenn jemand beispielsweise schon viermal rechtskräftig wegen Diebstahls verurteilt wurde, müsste er beim fünften Mal ohne Wenn und Aber – auch ohne komplizierte und mühevolle Gerichtsverhandlung – sofort eingesperrt werden. Denn er könnte ja möglicherweise wieder stehlen gehen. Und eine solche Prognose wäre statistisch nicht einmal von der Hand zu weisen. Denn es ist wissenschaftlich erwiesen, dass jemand, der ein bestimmtes Verhaltensmuster erlernt hat und mehrfach einschlägig zuvor verurteilt wurde, auch in Zukunft mit signifikant höherer Wahrscheinlichkeit wieder eine solche Straftat begehen wird als ein unbescholtener Bürger aus der Durchschnittsbevölkerung.

Das Modell der vorbeugenden Inhaftierung hatten wir übrigens schon einmal in Deutschland zwischen 1933 und 1945. Damals wurden auch missliebige Personen ohne Gerichtsverhandlung in „Schutzhaft“ genommen, weil angeblich die Gefahr bestand, sie könnten weitere Straftaten begehen oder dem System gefährlich werden.

Dieses drastische Beispiel zeigt, wie absurd eine solche Denkweise ist, prophylaktisch alles zu verbieten, was gefährlich werden könnte, und dass diese Denkweise in einer freiheitlich-demokratischen Grundordnung nach dem Grundgesetz nichts zu suchen hat. Die Tatsache, dass Brockmann anscheinend nicht viel von Freiheit hält, wird auch noch an einer anderen Stelle des Interviews deutlich.

Auf das Ansprechen der Ein-Personen-Regel (dass sich also die Angehörigen eines Haushalts nur noch mit einer einzigen haushaltsfremden Person treffen dürfen), antwortet Brockmann:

„Das ist die sinnvollste Regel überhaupt! Es sprengt die Kontaktnetzwerke, zerstückelt sie. Das ist das wichtigste.“

Wenn man die Situation allein und ausschließlich unter dem Blickwinkel der Absenkung der Infektionszahlen betrachtet, hat Brockmann sicherlich recht. Aber mit einem freiheitlichen Staat, der seinen Bürgern Grundrechte, unter anderem das Recht auf Freizügigkeit und Berufsfreiheit garantiert, hat das nicht mehr viel zu tun. Außerdem blendet Brockmann die negativen Folgen solcher Beschränkungen einerseits für die Menschen und ihre Bedürfnisse, andererseits für die Wirtschaft, die unser aller Lebensgrundlage darstellt, völlig aus. Er orientiert sich leider völlig einseitig nur an dem Ziel, die Infektionszahlen zu senken.

Sofern man die Aussage von Brockmann zugrunde legen würde, nämlich um jeden Preis die Kontaktnetzwerke zu „sprengen“ und zu „zerstückeln“, läge die effektivste Bekämpfung der Infektionszahlen zweifellos darin, alle Deutschen, mit Ausnahme der Menschen in systemrelevanten Berufen, einzusperren und zu isolieren, entweder im Gefängnis oder in einem geschlossenen Krankenhaus oder bei sich zu Hause. Man müsste auf jeden Fall verhindern, dass sich noch eine nennenswerte Zahl von Menschen in Deutschland frei auf den Straßen bewegt. Vielmehr wäre es nach Brockmann sinnvoll, eine Friedhofsruhe herzustellen, bei der sich niemand mehr anstecken könnte. Das würde dann aber leider sehr den Verhältnissen in Nordkorea ähneln.

Von unserer Rechts- und Werteordnung keine Ahnung

Auch an einer weiteren Stelle wird Brockmanns problematisches Verständnis von unserer Gesellschaftsordnung nach dem Grundgesetz deutlich.

Er führt u.a. aus: „Wir brauchen einen System-Switch, glaube ich. Die Dauer des Lockdowns würde ich nicht mehr von einem Datum abhängig machen, sondern von der Inzidenz“.

Mit einem solchen Unterfangen hätten wir einen unbefristeten Lockdown (!), und die Bevölkerung dürfte sich in ängstlicher Neugier täglich die Inzidenzzahlen angucken, ob dort eine Besserung in Sicht ist. Auch das erinnert leider fatal an Diktaturen, die wir in Deutschland schon hatten, als beispielsweise während des Zweiten Weltkrieges die Menschen gläubig die Wehrmachtsberichte von den Geschehnissen an der Front hören oder während der Zeit des Arbeiter- und Bauernstaates die Erfolge der sozialistischen Wirtschaft in den Fünfjahresplänen zur Kenntnis nehmen durften. Beide Diktaturen waren nicht sehr menschenfreundlich und auf Dauer nicht erfolgreich. Sie dürften daher kaum als Vorbild für die Bewältigung der heutigen Aufgaben in der Bundesrepublik dienen.

Brockmann und andere „Experten“, zu denen anscheinend auch mancher Ministerpräsident gehört, mögen zwar viel über Corona und die Ausbreitung von Infektionen wissen. Von unserer Rechts- und Werteordnung nach dem Grundgesetz, zu der auch die Abwägung von Belangen und der Verhältnismäßigkeitsgrundsatz gehören, haben sie aber offenbar keine Ahnung. Oder, was ebenso schlimm wäre, sie ignorieren sie, um die eigene Macht und das eigene Prestige zu bewahren.

 

Der Autor ist Richter an einem deutschen Gericht und schreibt hier unter Pseudonym.

Der Beitrag erschien zuerst bei ACHGUT hier




Verlangsamung der CO2-Anreicherung in der Luft – durch COVID oder durch die Natur?

Hier möchte ich jetzt meine Hypothese überprüfen hinsichtlich des Löwenanteils der Ursachen für die CO2-Zunahme, selbst wenn ich sicher bin, dass dieses nur eine geringe Rolle bzgl. des Erdklimas spielt (wenn überhaupt eine).

Hier zunächst ein paar einfache Fakten:

1.Ozeane sind die größte CO2-Senke

2.Je wärmer die Ozeane, umso mehr CO2 wird freigesetzt

3.Die Ozeane sind wärmer geworden.

Beispiel: Man betrachte die Wassertemperatur heute (rechts) mit der vor 35 Jahren:

Meine Hypothese ist, dass sich durch die natürliche zyklische Erwärmung der Ozeane eine kumulative Ansammlung von CO2 entwickelt hat. Dies setzt sich so lange fort, bis ein Gleichgewicht erreicht ist. Der Planet versucht, dem mit immer mehr Laub entgegenzuwirken, was eines der Standbeine meiner „keine Schuld“-Lösung für die auf CO2 basierende und auf Indoktrination fußende AGW-Angst. Pflanzen Sie also genug Bäume, bauen Sie genug Kernkraftwerke und machen Sie Kohlenstoffabscheidung, und wenn Sie CO2 für die Erwärmung verantwortlich machen (was ich im Großen und Ganzen nicht tue), ist das Problem gelöst, egal was Sie glauben. Ich skizziere es in meinem neuen Buch, The Weaponization of Weather in the Phony Climate War. Das ist ein Novum: jemand, der tatsächlich eine fehlerfreie Lösung für ein Problem vorschlägt, das höchstwahrscheinlich gar nicht existiert und das unsere Lebensweise nicht zerstören wird.

Die andere „Lösung“ ist der „Green New Deal“, der als Nebenprodukt wahrscheinlich die wirtschaftliche Lebensader der US-Wirtschaft stören, wenn nicht gar zerstören wird und genau ins Herz des Systems geht, um das uns die Welt beneidet.

Tatsache ist jedoch, dass die Verlangsamung auf Covid zurückgeführt wird, da Covid im Frühjahr eine weltweite Abschaltung der Industrie für mehrere Wochen verursachte. Zu dieser Zeit sah die CO2-Kurve sehr ähnlich aus wie in den Vorjahren zu dieser Zeit. Wir konnten also nichts erkennen. Aber jetzt, später im Jahr, wird die Behauptung hinaus posaunt, dass es die Covid-Abschaltungen waren, die sie gesenkt haben, ohne überhaupt die andere Seite der Debatte zu betrachten. Die Ozeane kühlen sich ab und die Anstiegsrate sollte sich nach meiner Vorstellung etwas verlangsamen.

Um das „Problem“ der Schuldzuweisung weiter zu vergrößern, kann meine Seite der Debatte (diejenigen von uns, die an eine aufgeschlossene Debatte glauben) nicht vor der Tatsache davonlaufen, dass CO2 und Temperatur in den letzten 35 Jahren gestiegen sind. Was bedeutet, dass die andere Seite einen Grund hat, ihren Standpunkt zu vertreten. Das Problem ist, dass sie nicht denken, jemand könne deren Narrativ in Frager stellen. Also, was ist es? Wie in vielen Beiträgen zuvor, ziehe ich SUPER NINOS in Betracht, um die entsprechenden höheren Temperatur-Plateaus zu erklären – es ist weitgehend mehr Wasserdampf, nicht CO2.

Super-Nino’s setzen immense Mengen an Wasserdampf frei, welche die Temperatur beeinflussen, vor allem in den Polarregionen, wo sie niedrigere Temperaturen und Taupunkte viel mehr beeinflussen als dort, wo es warm und feucht ist. Wir haben keine Temperatur/CO2-Korrelationen. Wir haben Korrelationen zwischen Wasserdampf und Temperatur. Ich frage mich, warum? Empfohlene Lektüre in meinem Buch:

Kapitel 6: Die globale Temperatur als Waffe

Hier noch einmal die relevante Keeling-Graphik der letzten zwei Jahre (Quelle):

Hier möchte ich auf zweierlei hinweisen: 1) Es gibt eine Abflachung der Kurve von Januar bis März, die wahrscheinlich auf die maximale Ausdehnung des globalen Meereises zu dieser Zeit zurückzuführen ist, da dies die Ausgasung von CO2 aus dem Ozean verhindert, was wiederum die Bedeutung der Ozeane und des CO2 und nicht die des Menschen zeigt. Wären die Ozeane komplett vereist, dann gäbe es keine CO2-Ausgasung. Es gäbe wahrscheinlich auch keine Menschheit, ein kleiner Punkt. Immerhin hat Prinz Phillip gesagt, dass er als Virus, der die Menschen ausrottet, wieder ins Leben zurückkehren will.

„Wenn ich wiedergeboren werden würde, würde ich mir wünschen, als Killervirus auf die Erde zurückzukehren, um die menschliche Population zu senken.“

2) Seit dem Tiefpunkt in diesem Jahr bei 411,2 ppm am 1. Januar sind wir bei ca. 414,2 ppm, ein Anstieg um 3 ppm seit dem Tiefpunkt (Pflanzen werfen Laub ab, und die Erwärmung nimmt zu, daher der CO2 -Anstieg in der kalten Jahreszeit)

Im letzten Jahr hatten wir einen Tiefpunkt von ca. 408 und einen Anstieg auf 413 am 1. Januar. Grob gesagt, ist das ein Defizit von 2 ppm vom letzten Jahr bis zu diesem Jahr im Anstieg. Die Industrie hat wieder aufgeschlossen. Ich glaube nicht, dass es an Covid liegt, aber ich vermute, dass die Abkühlung des Ozeans etwas damit zu tun hat.

Aber man wird sehen, dass die Covid-Klima-Koalition davon ausgeht, dass die indoktrinierte Öffentlichkeit ihre Prämisse, dass nämlich CO2 ursächlich für die Verlangsamung ist, akzeptieren wird ohne auch nur ansatzweise auf die andere Seite des Problems hinzuweisen. Gewöhnen Sie sich daran: Sie sehen hier eine Generalprobe dessen, wofür hier das Klima instrumentalisiert wird.

Nun die ultimative Ironie: Ich beobachte, wie meine Gegner in dieser Sache meine Vorhersage verifizieren. Das ist irgendwie interessant, oder? Vielleicht sollte ich mich bei ihnen bedanken.

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore. His new book The Weaponization of Weather in the Phony Climate war can be found here. phonyclimatewar.com

Link: https://www.cfact.org/2021/01/03/is-covid-or-nature-slowing-the-increase-in-co2/

————————————

Zu diesem Thema hat sich auch Willis Eschenbach Gedanken gemacht. Einen davon beschreibt er so [Anm. d. Übers.]:

Eine CO2-Besonderheit

Willis Eschenbach

Jüngst kam mir der oben stehende Beitrag vor Augen. Die im Titel gestellte Frage wollte ich mir auch einmal vornehmen. Hier zeigen sich die Mauna Loa-Daten. Oben: Die CO2-Zunahme, unten: die mittlere Änderung des CO2-Gehaltes von Monat zu Monat:

Eines geht daraus ganz klar hervor.

Die Rate der CO2-Zunahme hat sich kein bisschen geändert. Ich biete dafür keine Erklärung an … aber das ist kein gutes Zeichen für all jene, die da behaupten, dass es Lockdowns á la Covid bedarf, um das CO2-Niveau zu senken.

Link: https://wattsupwiththat.com/2021/01/05/a-co2-oddity/

Übersetzt von Chris Frey EIKE

 




Angst macht Macht*

In der perspektivischen Verkürzung des Rückblicks scheint die erste, bahnbrechende und grauenerregende Angst, der, wie man damals annehmen durfte, eine größere nicht würde folgen können, diejenige gewesen zu sein, die vom Baumsterben ausgelöst worden war. Damals, in den 1980ern, war dieses Baumsterben allgegenwärtig und es griff um sich wie ein Steppenbrand. Das Publikum wurde eingedeckt mit Bildern von kranken oder abgestorbenen Bäumen. Dabei spielte es für die Zuschauer keine Rolle, ob es sich dabei um Krüppelkiefern handelte oder aber um eine Fichte an der Baumgrenze, denn derlei Einzelheiten erschließen sich den meisten Menschen nicht.

Diese kleinen, wenn auch unredlichen Tricks, beschleunigten den Steppenbrand außerordentlich, der zudem dadurch befeuert wurde, dass es sich beim Thema Wald um ein deutsches Urgefühl handelt, das anzutasten an die Seinsgründe teutonischen Seelenlebens rührt. Nicht umsonst spricht man davon, man habe einem Unglücklichen die „Axt an die Wurzel“ gelegt.

Mit dem Waldsterben ging es los

Daher spielte es auch keine Rolle, dass bei der ganzen Propaganda nachgeholfen, die Lage maßlos überzeichnet und vor allem verschwiegen wurde, dass der Wald einen lebendigen Organismus darstellt, der einmal ziemlich gesund, dann wieder etwas krank, aber nur in kleinen Teilen eins von beiden zur Gänze ist. Bei den Menschen ist es ja ebenso. Jedenfalls hätte nach den Prognosen, so auch des Club of Rome, um die Jahrhundertwende in Deutschland kein Baum mehr stehen dürfen. „Erst stirbt der Baum, dann stirbt der Mensch“, hieß es damals. Es ist anders gekommen, die Wälder haben an Fülle und Ausdehnung zugelegt, und seither spielt der Waldzustandsbericht eine nachgeordnete Rolle.

Das allerdings schadet dem Gesamtaufkommen an Ängsten keineswegs. Denn seither haben wir eine große Zahl von Schrecknissen erfahren. Eine kleine Aufzählung, welche der Wirtschaftsprofessor Walter Krämer zusammengetragen hat, gibt Aufschluss über die Leidensfähigkeit unserer Gattung. Diese wird gestählt durch Ängste geringerer Art, so diejenige vor Masern, die Verletzungsgefahr von Kindern durch Airbags, Müdigkeit durch Herpes, Brustkrebs durch Flatrate-Trinken, Benzol im Babybrei, Fensterheber ohne Einklemmschutz, US-Dosenfutter, das Haustieren schadet, giftige Pflanzen in Haus und Garten, die Wollhandkrabbe, der Killerasteroid VK 184, der allerdings seine Chance anno 2007 vertan hat, Krebs natürlich an allen Ecken und Enden, Pestizide in Mandarinen und Gift in Babysocken.

Solchen Fährnissen aber folgen schwerere auf dem Fuß:

das Ozonloch, der Rinderwahn, Schweinegrippe, SARS, Feinstaub, Elektrosmog, außer unter Windrädern, da gibt es ihn nicht, Asbest und Dioxin, Fluglärm sowie Nanopartikel verschiedenster Genese.

Doch mit dem Reaktorunglück von Fukushima vor nunmehr zehn Jahren hat sich die Atom-Angst dauerhaft etabliert, an prominentester Stelle, bis vor Kurzem. Dabei sind in Japan wegen des Tsunamis deutlich mehr Menschen zu Schaden gekommen als wegen des Reaktors. Doch ungeachtet dessen hat die Bundesregierung in Deutschland den Vorfall zum Anlass genommen, vom Ziel einer sicheren und bezahlbaren Energieversorgung Abschied zu nehmen.

Übertroffen wird die Atom-Angst aber von dem Schrecken, den das Stichwort „Klima“ auslöst, und derzeit zumindest ebenso von einem kleinen Virus. Man kann Tageszeitungen finden, die es kaum unter ein bis zwei Dutzend „an und mit“-Corona-Artikeln tun. Jeden Tag.

Angst vor staatlichen Maßnahmen

Es hat bereits die Energiewende die enge Verbindung zwischen der Angst und den Möglichkeiten gezeigt, welche eine solche Angst den Politikern in die Hand gibt. Mit ihrer neuen Energiepolitik, angekündigt im Parlament, aber ohne dieses zu befragen, hat Angela Merkel mit einem Satz ein ganzes Geflecht von Gesetzen und Verträgen für null und nichtig erklärt. Nicht anders bei Corona. Grundrechte, die teils auch mit einer Zweidrittelmehrheit des Parlaments nicht eingeschränkt oder gar aufgehoben werden könnten, werden heute durch eine Verwaltungsverordnung außer Kraft gesetzt.

Angst bedeutet für die Regierenden Macht, und leider gilt auch der Umkehrschluss. Wenn eine Regierung ihre Macht übers Maß hinaus erweitern will, führt es zum Ziel, Angst zu streuen. Die mit Fukushima und Corona begründete Politik wäre nicht durchzusetzen, wenn nicht für den Fall ihrer Ablehnung mit Tod und Entsetzen gedroht würde. Wie hieß es doch in den 80ern? „Erst stirbt der Baum, dann der Mensch.“

Man sieht, die Sache mit der Angst und der Macht hat System. Doch während sich die Angst heute noch gegen ein Virus oder das Klima richtet, kommt mehr und mehr die Angst vor staatlichen Maßnahmen dazu. Dafür sorgen nicht zuletzt die drastischen Strafandrohungen bei einer Verletzung von Vorschriften bis hin zur Zerstörung einer beruflichen Existenz, wenn meinetwegen ein Hochschulprofessor in Sachen Klima oder Corona nicht so tut, wie von ihm erwartet wird.

Begleitet wird diese Entwicklung zur Totalität durch eine Gehirnwäsche, ausgerichtet an grüner Dekadenz. Ihr gilt die Angst als eine Tugend, der Selbsthass als ehrenhaft und die Wehleidigkeit als Zeichen von Charakterstärke. Willfährige Medien unterstützen diesen Aufbruch in einen politischen wie kulturellen Niedergang, vor dem man in der Tat Angst haben könnte.

Anm. der PAZ-Redaktion: Der Autor ist ein christsoziales Urgestein und war lange Zeit Redakteur beim „Bayernkurier“.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  8. Januar 2021, S.8; EIKE dankt der PAZ-Redaktion sowie dem Autor  Florian Stumfall   für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/ ; Hervorhebungen im Text: EIKE-Redaktion.

=================================================================




„Madrid kollabiert und erlebt mit dem Schneesturm des Jahrhunderts einen Notfall“

Quelle: metsul.com

In The Day after Tomorrow von unserem „Spielbergle“ Roland Emmerich führt die Erderwärmung zum Abreißen des Golfstromes und anderen Effekten, was die nördlichen USA und Europa in tiefgekühltem Eis erstarren läßt; nur wenige Menschen überleben.

Solche für Kracher-Filme nützlichen Ideen werden in der politischen Klima-Wissenschaft meist nicht laut vertreten; zu schwachsinnig erscheint die Argumentation, wenn Lesch & Co. sonst von Hitze, Dürre und Waldschäden erzählen.

Möglicherweise wird dieses Orwellsche Doppeldenk – alles und sein Gegenteil gilt, gleichzeitig – bald wichtiger, wenn die nach realer Atmosphärenphysik erwartete neue Kühlphase immer deutlicher wird. Nicht nur die Gletscher wachsen weltweit wieder fleißig (berichtet wird nur von denen, die noch schrumpfen), auch das Schneechaos in den Alpen, Japan, NO-USA und nun in Mittelspanien kündigt eine unheilvolle Abkühlung des Weltklimas an.

Der Blizzard in Spaniens Hauptstadt, administrativ die sechstgrößte Europas, läßt sich nicht vertuschen und wird selbst von Tagesschau.de ungeschönt dargestellt. Es liegt ein halber Meter Schnee in den Straßen und auf den Autos, der droht, die Scheiben einzudrücken. Eingeschneite Autofahrer mußten teils 15 Stunden warten, bevor sie von Rettungskräften befreit wurden. Auf sechsspurigen Schnellstraßen rodeln Kinder mit dem Schlitten. Nur die Untergrundbahn fährt noch; Flugzeuge haben Start- und Landeverbot. Es soll schon Tote gegeben haben.

Für die meisten Madrilenen ist ein Schneesturm völlig unbekannt, da der letzte im kalten Jahrzehnt, den 70ern, vor genau 50 Jahren stattfand. In Anbetracht der anstehenden Kaltphase (Minimum etwa um 2100) dürften solche Phänomene aber gehäuft auftreten. Nebenbei: Die meisten Inseln der Malediven sind in den letzten Jahren gewachsen, nur ein paar sind etwas geschrumpft. Möglicherweise wird also Meerwasser abseits der Kameras bereits in großen Mengen als Eis gebunden.

Da fast jede Medaille zwei Seiten hat, kann der Kälteeinbruch auch etwas Gutes haben: Das Corona-Sars2-Virus hat in den heißen Ländern des Südens ja tatsächlich zu erhöhter Übersterblichkeit geführt. Wird die Kälte Spanien nun regelrecht desinfizieren?




Die Temperaturen im Dezember 2020 und das deutsche Stromabschaltungsgesetz

Aber zunächst zur Temperaturentwicklung.Die globale Mitteltemperatur der satellitengestützten Messungen ging im Dezember stark zurück. Die Abweichung vom 30-jährigen Mittel (1981 bis 2010) betrug nur noch 0,27 Grad Celsius (November 0,53 Grad Celsius). 2020 blieb allerdings das zweitwärmste Jahr seit 1979 (hinter 2016). La Nina wird sich in den nächsten Monaten noch stärker bemerkbar machen, so dass im neuen Jahr 2021 mit einem weiteren Temperaturrückgang zu rechnen ist.

Trotz Rückgang der CO2– Emissionen steigt die Konzentration in der Atmosphäre

Die weltweiten CO2-Emissionen gingen in 2020 um 6,7 % zurück, und zwar von 36,4 Milliarden Tonnen CO2 auf 34,1 Milliarden Tonnen. Die Emissionen gingen Coronamaßnahmen-bedingt in den USA um 12,1 %, in Europa um 11,2 % zurück. In China blieben die Emissionen aus Kohlekraftwerken unverändert ; die Gesamtemissionen gingen nur um 1,7 % zurück. Der Anteil Chinas an der Gesamtemission der Welt stieg demzufolge auf 29,3 %. Fast jede dritte Tonne CO2 stammt nunmehr aus China. Der Anteil wird weiter steigen, da China nach dem Pariser Abkommen für sich den Status eines Entwicklungslandes beansprucht und demzufolge bis 2030 die Emissionen an CO2 weiter ansteigen lassen darf. Allein der Anstieg in diesem Jahrzehnt bis 2030 entspricht der Gesamtemission von Europa.

Die Verteilung des Rückgangs der CO2-Emissionen zeigt die Grafik des Global carbon projekts. Sie zeigt eindrucksvoll, dass es seit Mai keinen Rückgang der CO2-Emissionen in China mehr gegeben hat.


Und warum gehen die CO2 Konzentrationen nicht zurück ?

Trotz des Rückgangs der Emissionen gehen die Konzentrationen in der Luft nicht etwa zurück, sondern steigen weiter. Im Jahre 2019 hatten wir eine CO2– Konzentration von 409,5 ppm im Jahresmittel und 2020 von 412 ppm.

In 2020 wurden nur noch 34 Milliarden Tonnen CO2 emittiert. Zusammen mit den Landnutzungsänderungen ergeben sich rund 40 Milliarden Tonnen CO2. Mehr als die Hälfte wurden durch die Pflanzen und die Meere aufgenommen, so dass 19 Milliarden Tonnen in der Luft verblieben. Das entspricht einem Anstieg von 2,5 ppm in 2020 gegenüber 2019. In 2018 war der Anstieg 1,9 ppm, in 2019 betrug er 2,8 ppm. Die Messungen von Mauna Loa zeigen die Entwicklung sehr anschaulich. Die rote Kurve zeigt die jahreszeitlichen Schwankungen. Bei der schwarzen Linie sind die jahreszeitlichen Schwankungen herausgemittelt.

Die Schwankungen entstehen durch die Vegationsunterschiede von Sommer zu Winter in der Nordhemisphäre und der unterschiedlichen Aufnahme des CO2 von Sommer zu Winter durch die größeren Ozeanflächen der Südhemisphäre. Die CO2-Zunahme würde langfristig erst gestoppt, wenn die Emissionen um die obengenannten 19 Milliarden Tonnen vermindert würden. Eine Emissionsminderung um 40 Milliarden Tonnen auf Null ist nicht erforderlich,denn die Aufnahme von etwa 21 Milliarden Tonnen CO2 durch Pflanzen und Meere richtet sich allein nach der Gesamtkonzentration von 412 ppm und wird sich daher nach einer Emissionssenkung nicht wesentlich ändern.

Das deutsche „steuerbare-Verbrauchseinrichtungen-Gesetz“ oder Stromabschaltungsgesetz

Wenn man sich die oben beschriebenen globalen CO2-Emissionsentwicklungen vergegenwärtigt und betrachtet die völlig aus den Fugen geratenen europäischen und deutschen Massnahmen zur Energiewende, so wird man sprachlos.

Das neueste Produkt der Energiewende ist das Steuerbare-Verbrauchseinrichtungen Gesetz. Die Politik hat sich einreden lassen, dass der Umstieg auf die Elektromobilität aus Klimaschutzgründen dringend geboten sei (wer sich vom Gegenteil überzeugen will, sollte dies in unserem Buch „Unerwünschte Wahrheiten“ nachlesen). Das Niederspannungsnetz, das unsere Häuser und Wohnungen versorgt, kommt aber mit steigender Zahl an Ladestationen für E-Autos an seine Kapazitätsgrenze. Das gleiche Problem einer Überlastung der Netze ensteht auch beim Umstieg von Gas-und Ölheizungen auf elektrisch betriebene Wärmepumpen. Beides zusammen kann den Strombedarf und den Anschlusswert einer Wohnung oder eines Hauses schnell verdoppeln bis verdreifachen und die Niederspannungnetze zum Zusammenbruch führen, wenn die E-Auto -Besitzer nach Hause kommen und ihr E-Auto aufladen wollen oder wenn alle Wärmepumpenbesitzer gleichzeitig ihre Wohnung mit Strom heizen wollen.

Der Gesetzentwurf des Bundesministers für Wirtschaft schreibt nun vor, dass bei einem Anschluss einer Ladestation oder einer Wärmepumpe der Netzbetreiber das Recht hat, den Strom für zwei Stunden abzuschalten. Wir kennen das aus Entwicklungsländern, in denen reihum der Strom abgeschaltet wird. Dort nennt man es „load shedding“ ( Lastabwurf oder Stromabschaltung). Im deutschen Gesetzentwurf nennt man dies schönfärberisch Spitzenglättung:

„Die Einführung der Spitzenglättung ist ein erster Schritt, um die Flexibilität in den Verteilernetzen zu stärken.“ In der Begründung heisst es, „das Gesetz ist erforderlich, um Flexibilität in den Verteilernetzen zu stärken und den bevorstehenden Hochlauf der Elektromobilität zu unterstützen“.

Wir können uns schon vorstellen, wie das Gesetz als Vorkehrung bei tagelangen Dunkelflauten weiterentwickelt wird. Denn selbstverständlich wird der Stromkunde auch verpflichtet, über smart meter seine Stromverbrauchsdaten durch den Netzbetreiber rund um die Uhr per internet überwachen zu lassen. Eine beeindruckende Kritik dieses Gesetzentwurfes gibt es hier durch Dr. Humpich.
Nachdenklich stimmt, dass kaum eine deutsche Zeitung über diesen geplanten Eingriff in die autonomen Entscheidungen der Bürger über ihre Energieversorgung berichtet hat. Wird nicht berichtet, weil es vielleicht eher ein Zeichen für die bevorstehende Strom-Mangel-Wirtschaft ist ? Oder ist es gar eine zu abschreckende Nachricht für alle, die beabsichtigen, sich ein E-Auto anzuschaffen ?
Es ist ein Offenbarungseid der Energiewende und der Einstieg in die planwirtschaftliche Zuteilung von Strom und Energie. Und darüber berichtet man ungern, wenn man die bejubelte Energiewende für alternativlos hält.




Klimaschau 6 – die Tagesschau von Sebastian Lüning

Keine Vorschau zu sehen? HIER KLICKEN




UK: Keinerlei Erwärmung mehr seit dem Jahr 2006

Quelle

Dies ist jedoch nicht mehr als ein Versuch, die höchst unbequeme Wahrheit zu vertuschen, nämlich dass die Erwärmung im Jahr 2006 aufgehört hat. Der 10-Jahres-Durchschnitt zeigt dies deutlich.
Wir können uns ein klareres Bild davon machen, wenn wir den Zeitraum seit 1991 heranzoomen.

Die 10-Jahres-Durchschnitte stiegen in den 1990er und frühen 2000er Jahren langsam an. Seitdem sind sie jedoch allmählich zurückgegangen und haben ihren Höhepunkt im Zeitraum von 1997 bis 2006 erreicht:

Das alles führt uns zu der Frage: was ist das „normale“ Klima für England?

Das Met Office würde sagen, dass dies der 30-Jahres-Durchschnitt ist, aber das ist nur ein künstliches Konstrukt aus Bequemlichkeit. Derzeit liegt der 10-Jahres-Durchschnitt der MEZ bei 10,40C, was kaum über dem Durchschnitt von 1991-2020 von 10,25C liegt. Die Differenz liegt deutlich innerhalb einer natürlichen Schwankungsbreite.

Immerhin stiegen die Jahrestemperaturen von 8,86C im Jahr 2010 auf 10,72C im darauffolgenden Jahr, rein aufgrund von Schwankungen des „Wetters“.

Die Grafik unten mit den höchsten und niedrigsten monatlichen Durchschnittstemperaturen für jeden Monat seit 1991 zeigt, wie variabel das englische Wetter sein kann:

Würden die „wärmsten“ Monate alle im gleichen Jahr auftreten, läge der Jahresmittelwert bei 12,8°C. Und wenn das Gleiche für die „kältesten“ Monate gelten würde, läge der Jahresmittelwert bei 7,3°C.

Die nächste Grafik zeigt diesen Bereich, wenn er mit den tatsächlichen Jahrestemperaturen überlagert wird:

Obwohl eine solche Eventualität statistisch äußerst unwahrscheinlich sein mag, sehe ich meteorologisch keinen Grund, warum sie nicht möglich sein sollte.

Zusammenfassend lässt sich sagen, dass die Auffassung, es gäbe eine „normale“ Jahrestemperatur oder gar ein „normales“ Klima in England, unwissenschaftlich ist. In der Tat ist sie nicht wissenschaftlicher als die Behauptung, es gäbe hier „normales“ Wetter.

Was das englische „Klima“ immer noch dominiert, ist die Variabilität des Wetters, von Tag zu Tag, von Monat zu Monat und sogar von Jahr zu Jahr. Alle zugrundeliegenden Klimatrends gehen im Rauschen unter.

[Hervorhebung vom Übersetzer]

Laut CET stiegen die Jahrestemperaturen zwischen den 1940er und 2000er Jahren um etwa 0,7 °C. Aber wie viel davon hing mit den zugrunde liegenden klimatischen Bedingungen zusammen, und wie viel war wetterbedingt?

Vielleicht ist der beste Anhaltspunkt, den wir haben, der Vergleich der wärmsten Jahre. Während 2014 mit 10,95°C das wärmste Jahr war, lag das Jahr 1949 mit 10,65°C nicht weit dahinter. Gehen wir weiter zurück, sehen wir Jahre wie 1733, 1779 und 1834, die alle über 10,4°C lagen.

Dies deutet darauf hin, dass der größte Teil der Erwärmung in den letzten drei Jahrzehnten mit dem Wetter und nicht mit dem Klimawandel zusammenhängt.

Quelle

Link: https://wattsupwiththat.com/2021/01/03/no-warming-in-uk-since-2006/

Übersetzt von Chris Frey EIKE

 




Zum Befeuern des Klima-Alarms werden gute Nachrichten grundsätzlich als Katastrophe verkauft

Kürzlich haben The Guardian und andere Medien behauptet, dass ein aktualisierter Atlas der Lebensräume von Vögeln zeigt, dass die globale Erwärmung die Vögel weiter nach Norden „drängt“. Die Geschichte des Guardian würde einen glauben machen, dass Vögel ein Scharen durch den Klimawandel aus schrumpfenden natürlichen Lebensräumen in ungeeignete Gebiete gedrängt werden. Dies ist jedoch nicht wahr. Wie der Präsident des Heartland Institute James Taylor in einem Beitrag bei Climate Realism als Reaktion auf den Artikel des Guardian schrieb, erzählt der Atlas selbst eine völlig andere Geschichte.

Anstatt Vögel aus ihrem normalen Verbreitungsgebiet zu „verdrängen“ und sie nach Norden zu zwingen, profitieren Vögel von einem sich erwärmenden Klima, indem sie ihr Gesamtverbreitungsgebiet ausweiten – sie gedeihen in neuen, nördlichen Regionen, während sie auch in südlichen Regionen weiterhin gut gedeihen. Das Ergebnis des Klimawandels ist kein negatives „Verdrängen“ von Vögeln aus ihrem Lebensraum, sondern Vögel erfreuen sich größerer Lebensräume, während sie zur biologischen Vielfalt in ihren neuen Gebieten beitragen.

In der Tat, trotz der irreführenden, alarmierenden Titel der Geschichte [übersetzt], „Atlas: Vögel sind inmitten der Klimakrise nach Norden gezwungen worden“, räumt der Guardian weiter unten ein, was der Atlas wirklich zeigt: „Insgesamt haben 35 Prozent der Vögel ihr Brutgebiet vergrößert, 25 Prozent haben ihr Brutgebiet verkleinert und der Rest hat keine Veränderung gezeigt, oder der Trend ist unbekannt.“ Das ist eine gute Nachricht, denn, so räumte die Zeitung ein, laut Atlas gilt: „Im Allgemeinen ist es weniger wahrscheinlich, dass eine Art ausstirbt, wenn sie in mehr Gebieten vorkommt.“

Ein weiteres beängstigendes, aber nachweislich unwahres Klima-Alarm-Narrativ wurde in diesem Jahr in Form von Dutzenden, wenn nicht Hunderten von Geschichten verbreitet, denen zufolge der Klimawandel (angeblich menschlichen Ursprungs) für eine Zunahme der Anzahl und Schwere von Hurrikanen und Waldbränden verantwortlich ist. Ein Beispiel für diese Kombination aus fehlerhafter Analyse und schlechter Berichterstattung findet sich in einer von Bloomberg veröffentlichten Geschichte mit dem Titel [übersetzt] „Klimawandel sorgte im Jahr 2020 für rekordhohe Versicherungsleistungen“.

Bloomberg schreibt: „Christian Aid, der Hilfsdienst von 41 Kirchen in Großbritannien und Irland, hat eine Rangliste der 15 verheerendsten Klimakatastrophen des Jahres erstellt, basierend auf den Versicherungsschäden.“ Die Studie von Christian Aid, über die auch der Guardian berichtete, als ob es sich um eine göttlich inspirierte, offenbarte Wahrheit handelte, behauptet, dass allein die 10 teuersten Wetterkatastrophen des Jahres 2020 Schäden in Höhe von 150 Milliarden Dollar anhäuften, wobei die Gesamtzahl aller mit dem Klimawandel zusammenhängenden Katastrophen im Jahr 2020 neue Rekorde aufstellte. Die Studie von Christian Aid macht insbesondere die durch den Klimawandel verschärften Waldbrände und Hurrikane für die gestiegenen Schäden und höheren Versicherungszahlungen verantwortlich. Und siehe da: Die realen Daten zu Waldbränden und Wirbelstürmen sprechen eine ganz andere Sprache, aber die guten Nachrichten wurden ignoriert.

Was die Waldbrände betrifft, so zeigen Langzeitdaten, dass die Anzahl der Waldbrände und die von ihnen verbrannte Fläche im letzten Jahrhundert dramatisch zurückgegangen ist. Wenn man nur das Jahr 2020 betrachtet, berichtet der Copernicus Atmosphere Monitoring Service, „dass 2020 eines der Jahre mit den wenigsten aktiven Bränden weltweit war.“

In der Tat berichtet die NASA über eine aktuelle Studie in Science, die herausfand, „dass die jedes Jahr von Bränden heimgesuchte Gesamtfläche zwischen 1998 und 2015 um 24 Prozent zurückgegangen ist. Insgesamt ist die jährlich verbrannte Fläche global um mehr als 540.000 Quadratmeilen zurückgegangen, von 1,9 Millionen Quadratmeilen zu Beginn des letzten Jahrhunderts auf heute 1,4 Millionen Quadratmeilen.“

Auch in den Vereinigten Staaten sind die Flächenbrände im Laufe des letzten Jahrhunderts stark zurückgegangen. Bei Climate at a Glance wird berichtet: Langzeitdaten des U.S. National Interagency Fire Center (NIFC) zeigen, dass die Anzahl und Schwere der Flächenbrände seit den frühen 1900er Jahren zurückgegangen ist. Die Auswertung von Daten über US-Flächenbrände, die bis ins Jahr 1926 zurückreichen, zeigt, dass die Größe der verbrannten Flächen heute weitaus geringer ist als zu Beginn des 20. Jahrhunderts, wobei die derzeit verbrannte Fläche nur ein Viertel bis ein Fünftel der Fläche beträgt, die in den 1930er Jahren niedergebrannt ist.

Die Daten über Hurrikane sind ebenso klar und überzeugend: Trotz der regen Hurrikansaison 2020 ist es entgegen der Behauptung des Guardian – und wie in einem früheren Artikel bei Climate Realism berichtet – durchaus möglich, dass 2020 keinen Rekord für atlantische Hurrikane aufgestellt hat. Vor 1950 war die Verfolgung von Hurrikanen relativ primitiv und spärlich, und es war unüblich, einen Sturm zu benennen, wenn er nicht irgendwo auf das Festland ü bergegriffen hatte.

Darüber hinaus berichtet das IPCC, dass es „nur geringes Vertrauen für die Zuordnung jeglicher nachweisbarer Veränderungen in der Aktivität tropischer Wirbelstürme zu anthropogenen Einflüssen gibt.“ Und Daten des National Hurricane Center (NHC) zeigen Climate at a Glance: Hurricanes zufolge, dass „die Vereinigten Staaten kürzlich mehr als ein Jahrzehnt (2005 bis 2017) ohne einen großen Hurrikan der Kategorie 3 oder höher erlebt haben, was die längste solche Periode in der aufgezeichneten Geschichte ist. Die Vereinigten Staaten erlebten kürzlich auch die geringste Anzahl von Hurrikanen in einem Achtjahreszeitraum (2009 bis 2017) in der aufgezeichneten Geschichte.“

Die Studie von Christian Aid konzentriert sich auf die möglicherweise rekordverdächtigen Kosten der wetterbedingten Naturkatastrophen des Jahres 2020. Dabei ignoriert sie jedoch, was Bjorn Lomborg in seinem Buch „False Alarm“ als den „expandierenden Bulls-Eye-Effekt“ bezeichnet. Die gestiegenen Kosten von Naturkatastrophen in den letzten Jahrzehnten sind darauf zurückzuführen, dass Gemeinden zunehmend in Gebiete vordringen, die historisch gesehen anfällig für Naturkatastrophen sind – wie Überschwemmungsgebiete, Wälder und Küstengebiete – und dort immer teurere Strukturen und Infrastrukturen errichten. Dies hat zur Folge, dass bei extremen Wetterereignissen immer mehr teures Eigentum zerstört wird. Die steigenden Kosten von Naturkatastrophen sind demnach nicht auf den vom Menschen verursachten Klimawandel zurückzuführen, sondern auf einen direkt messbaren anthropogenen Faktor: die Zunahme der Anzahl und des Wertes von Vermögenswerten, die durch die demografische Verschiebung von Wohnorten und Lebensstilen ins Visier geraten.

Eine weitere wichtige „gute Nachricht“, die die Klimaalarmisten im Jahr 2020 als Tragödie darzustellen versuchten, findet sich in den zahlreichen Nachrichten über einen Bericht der Weltbank, dem zufolge Wasserknappheit im Nahen Osten – verursacht durch den vom Menschen verursachten Klimawandel – die Pflanzenproduktion bedroht. Wieder einmal hatten sich die Autoren des Weltbankberichts und die linken Medien, die ihn veröffentlichten, nicht die Mühe gemacht, die tatsächlichen Daten zu überprüfen. Hätten sie das getan, hätten sie herausgefunden, dass die Pflanzenproduktion in den im Bericht genannten Ländern des Nahen Ostens boomt, zum großen Teil aufgrund des Kohlendioxid-Düngeeffekts.

Die Weltbank behauptet, dass die durch den Klimawandel verursachte Wasserknappheit die landwirtschaftliche Produktion vor allem im Iran, Irak, Jordanien, Libanon, Syrien und der Türkei verringern wird. Tatsächlich zeigen die Daten, dass trotz erheblicher politischer Unruhen und andauernder Konflikte in der Region die Getreideproduktion im von Natur aus trockenen Nahen Osten mit der leichten Erwärmung der Erde zugenommen hat.

Daten der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) zeigen, dass während der Zeit der leichten Erwärmung seit 1989:

– Die Getreideproduktion im Irak stieg um 91 Prozent, während die Erntefläche um 5 Prozent zurückging.

– Die Getreideproduktion im Iran stieg um 187 Prozent, während die geerntete Fläche nur um 2,6 Prozent zunahm.

– Die Getreideproduktion in Jordanien stieg um 15 Prozent, während die geerntete Fläche um 30 Prozent zurückging.

– Die Getreideproduktion im Libanon stieg um 115 Prozent, während die geerntete Fläche um 30 Prozent zunahm.

– Die Getreideproduktion in Syrien stieg um 22 Prozent, obwohl die geerntete Fläche um 66 Prozent zurückging.
– Die Getreideproduktion in der Türkei stieg um 46 Prozent, obwohl die geerntete Fläche um 19 Prozent zurückging.

Die Tatsache, dass die Länder des Nahen Ostens ihre Ernteproduktion gesteigert haben – obwohl viele von ihnen in interne politische Unruhen, offene Bürgerkriege und externe Konflikte verwickelt sind – ist eindeutig eine gute Nachricht. Es ist keinesfalls Beweis für eine Klimakrise.

Die globale Erwärmung verlängert die Vegetationsperioden, reduziert Frostereignisse und macht mehr Land für die Pflanzenproduktion geeignet. Außerdem ist Kohlendioxid Dünger für die Pflanzenwelt. Die Pflanzen nutzen das Wasser unter Bedingungen mit höherem Kohlendioxid effizienter und verlieren weniger Wasser durch Transpiration. Letzteres sollte die Sorge der Weltbank über eine durch den Klimawandel verursachte Wasserknappheit und damit zu Ernteausfällen zerstreuen.

Traurigerweise übernehmen machthungrige Bürokraten und linke Mainstream-Medienorganisationen eine Behauptung nach der anderen mit unbegründeten Spekulationen über verschiedene Klimakatastrophen – während sie Fakten ignorieren, die darauf hinweisen, dass keine solchen Klimakatastrophen bevorstehen. Ich kann nur spekulieren, dass sie dies tun, weil gute Nachrichten nicht zu einem Ansturm auf eine autoritäre Klimapolitik ermutigen, die den Eliten die Kontrolle über Unternehmen und das Leben der Menschen gibt.

[Hervorhebung vom Übersetzer]

Quellen: Climate Realism; The Guardian; Phys.org; Climate Realism; World Bank; Bloomberg; Food and Agriculture Organization

Link: https://wattsupwiththat.com/2021/01/01/to-promote-climate-alarm-good-news-is-regularly-portrayed-as-a-disaster/

Übersetzt von Chris Frey EIKE




Man glätte niemals Zeitreihen!

Der Originaltitel ist als Wortspiel nur schwer übersetzbar: Do not smooth times series, you hockey puck!

Der Ratschlag, der den Titel dieses Beitrags bildet, wäre der eines Statistikers, wie man keine Zeitreihenanalyse durchführt. Nach den Methoden zu urteilen, die ich regelmäßig auf Daten dieser Art angewendet sehe, ist diese Zurechtweisung dringend nötig.

Der Ratschlag ist jetzt besonders relevant, weil sich eine neue Hockeystick-Kontroverse zusammenbraut. Mann und andere haben eine neue Studie veröffentlicht, in der viele Daten zusammengeführt wurden, und sie behaupten, erneut gezeigt zu haben, dass das Hier und Jetzt heißer ist als das Damals und Dort. Man gehe zu climateaudit.org und lese alles darüber. Ich kann es nicht besser machen als Steve, also werde ich es nicht versuchen. Was ich tun kann, ist zu zeigen, wie man es nicht tun soll. Ich werde es auch schreien, denn ich möchte sicher sein, dass jeder es hört.

Mann stellt auf dieser Site eine große Anzahl von Temperatur-Proxy-Datenreihen zur Verfügung. Hier ist eine von ihnen mit der Bezeichnung wy026.ppd (ich habe einfach eine aus dem Haufen herausgegriffen). Hier ist das Bild dieser Daten:

Die verschiedenen schwarzen Linien sind die tatsächlichen Daten! Die rote Linie ist ein geglätteter 10-Jahres-Mittelwert! Ich nenne die schwarzen Daten die realen Daten, und die geglätteten Daten die fiktiven Daten. Mann hat einen „Tiefpassfilter“ verwendet, der sich vom laufenden Mittelwert unterscheidet, um seine fiktiven Daten zu erzeugen, aber eine Glättung ist eine Glättung, und was ich jetzt sage, ändert sich kein bisschen, je nachdem, welche Glättung man verwendet.

Jetzt werde ich die große Wahrheit der Zeitreihenanalyse verkünden. Solange die Daten nicht mit Fehlern gemessen werden, glätte man nie, niemals, aus keinem Grund, unter keiner Drohung, die Reihe! Und wenn man sie aus irgendeinem bizarren Grund doch glättet, verwende man die geglättete Reihe AUF KEINEN FALL als Input für andere Analysen! Wenn die Daten mit Fehlern gemessen werden, kann man versuchen, sie zu modellieren (was bedeutet, sie zu glätten), um den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine externe (das gelehrte Wort ist „exogene“) Schätzung dieses Fehlers haben, d.h. eine, die nicht auf den aktuellen Daten basiert.

[Alle Hervorhebungen im Original]

Wenn man in einem Moment des Wahnsinns Zeitreihendaten glättet und sie als Eingabe für andere Analysen verwendet, erhöht man dramatisch die Wahrscheinlichkeit, sich selbst zu täuschen! Das liegt daran, dass die Glättung Störsignale hervorruft – Signale, die für andere Analysemethoden echt aussehen. Egal wie, man wird sich seiner Endergebnisse zu sicher sein! Mann et al. haben ihre Reihen erst dramatisch geglättet und dann separat analysiert. Unabhängig davon, ob ihre These stimmt – ob es wirklich einen dramatischen Temperaturanstieg in letzter Zeit gibt – sind sie sich ihrer Schlussfolgerung nun garantiert zu sicher.

Und jetzt zu einigen Details:

● Ein Wahrscheinlichkeitsmodell sollte nur für eine Sache verwendet werden: um die Unsicherheit von noch nicht gesehenen Daten zu quantifizieren. Ich gehe immer wieder darauf ein, weil diese einfache Tatsache aus unerfindlichen Gründen offenbar schwer zu merken ist.

● Die logische Folge dieser Wahrheit ist, dass die Daten in einer Zeitreihenanalyse die Daten sind. Diese Tautologie ist dazu da, um zum Nachdenken anzuregen. Die Daten sind die Daten! Die Daten sind nicht irgendein Modell derselben. Die realen, tatsächlichen Daten sind die realen, tatsächlichen Daten. Es gibt keinen geheimen, versteckten „zugrundeliegenden Prozess“, den man mit irgendeiner statistischen Methode herauskitzeln kann und der die „echten Daten“ zeigen wird. Wir kennen die Daten bereits und sie sind da. Wir glätten sie nicht, um uns zu sagen, was es „wirklich ist“, weil wir bereits wissen, was es „wirklich ist“.

● Es gibt also nur zwei Gründe (abgesehen von Messfehlern), jemals Zeitreihendaten zu modellieren:

1. Um die Zeitreihe mit externen Faktoren in Verbindung zu bringen. Dies ist das Standard-Paradigma für 99 % aller statistischen Analysen. Man nehme mehrere Variablen und versuche, die Korrelation usw. zu quantifizieren, aber nur mit dem Gedanken, den nächsten Schritt zu tun.

2. Um zukünftige Daten vorherzusagen. Wir brauchen die Daten, die wir bereits haben, nicht vorherzusagen. Wir können nur vorhersagen, was wir nicht wissen, nämlich zukünftige Daten. So brauchen wir die Baumring-Proxydaten nicht vorherzusagen, weil wir sie bereits kennen.

Die Baumringdaten sind nicht die Temperatur! Deshalb werden sie Proxy-Daten genannt. Ist es ein perfekter Proxy? War die letzte Frage eine rhetorische Frage? War das auch eine? Weil es ein Proxy ist, muss die Unsicherheit seiner Fähigkeit, die Temperatur vorherzusagen, in den Endergebnissen berücksichtigt werden. Hat Mann das getan? Und was genau ist eine rhetorische Frage?

Es gibt Hunderte von Zeitreihen-Analysemethoden, die meisten mit dem Ziel, die Unsicherheit des Prozesses zu verstehen, damit zukünftige Daten vorhergesagt werden können und die Unsicherheit dieser Vorhersagen quantifiziert werden kann (dies ist aus gutem Grund ein riesiges Studiengebiet, z. B. auf den Finanzmärkten). Dies ist eine legitime Verwendung von Glättung und Modellierung.

Wir sollten sicherlich die Beziehung zwischen dem Proxy und der Temperatur modellieren und dabei die sich im Laufe der Zeit verändernde Natur des Proxys berücksichtigen, die unterschiedlichen physikalischen Prozesse, die dazu führen, dass sich der Proxy unabhängig von der Temperatur verändert, oder wie die Temperatur diese Prozesse verstärkt oder auslöscht, und so weiter und so fort. Aber wir sollten nicht damit aufhören, wie es alle getan haben, etwas über die Parameter der Wahrscheinlichkeitsmodelle zu sagen, die zur Quantifizierung dieser Beziehungen verwendet werden. Dadurch wird man sich der Endergebnisse wieder einmal viel zu sicher. Uns interessiert nicht, wie der Proxy die mittlere Temperatur vorhersagt, uns interessiert, wie der Proxy die Temperatur vorhersagt.

Wir brauchen keinen statistischen Test, um zu sagen, ob eine bestimmte Zeitreihe seit einem bestimmten Zeitpunkt gestiegen ist. Warum? Wenn man es nicht weiß, gehe man zurück und lese diese Punkte von Anfang an. Es liegt daran, dass wir uns nur die Daten ansehen müssen: wenn sie einen Anstieg zeigen, dürfen wir sagen: „Sie [die Zeitreihe] hat zugenommen.“ Wenn sie nicht gestiegen sind oder gar abgenommen haben, dann dürfen wir nicht sagen: „sie hat zugenommen.“ So einfach ist es wirklich.

Man kann mir jetzt sagen: „OK, Herr Neunmalklug. Was wäre, wenn wir mehrere verschiedene Zeitreihen von verschiedenen Orten hätten? Wie können wir feststellen, ob es einen generellen Anstieg bei allen gibt? Wir brauchen sicherlich Statistiken und p-Werte und Monte-Carlo-Berechnungen, um uns zu sagen, dass sie zugenommen haben oder dass die ‚Nullhypothese‘ von keiner Zunahme wahr ist.“ Erstens hat mich niemand schon lange „Herr Neunmalklug“ genannt, also sollten Sie sich Ihre Sprache besser überlegen. Zweitens: Haben Sie nicht aufgepasst? Wenn Sie sagen wollen, dass 52 von 413 Zeitreihen seit einem bestimmten Zeitpunkt gestiegen sind, dann schauen Sie sich die Zeitreihen an und zählen Sie! Wenn 52 von 413 Zeitreihen gestiegen sind, dann können Sie sagen „52 von 413 Zeitreihen sind gestiegen.“ Wenn mehr oder weniger als 52 von 413 Zeitreihen gestiegen sind, dann können Sie nicht sagen, dass „52 von 413 Zeitreihen gestiegen sind.“ Sie können es zwar sagen, aber Sie würden lügen. Es gibt absolut keinen Grund, über Nullhypothesen usw. zu schwätzen.

Wenn Ihnen die Punkte – es ist wirklich nur ein Punkt – die ich anspreche, langweilig erscheinen, dann habe ich es geschafft. Die einzige faire Art, über vergangene, bekannte Daten in der Statistik zu sprechen, ist, sie einfach zu betrachten. Es ist wahr, dass das Betrachten von massiven Datensätzen schwierig ist und immer noch eine Art Kunst darstellt. Aber Schauen ist Schauen und es ist völlig gleichberechtigt. Wenn Sie sagen wollen, wie Ihre Daten mit anderen Daten in Beziehung standen, dann müssen Sie wiederum nur schauen.

Der einzige Grund, ein statistisches Modell zu erstellen, ist die Vorhersage von Daten, die man nicht gesehen hat. Im Fall der Proxy-/Temperaturdaten haben wir die Proxies, aber wir haben nicht die Temperatur, so dass wir sicherlich ein Wahrscheinlichkeitsmodell verwenden können, um unsere Unsicherheit in Bezug auf die nicht gesehenen Temperaturen zu quantifizieren. Aber wir können diese Modelle nur erstellen, wenn wir gleichzeitige Messungen der Proxies und der Temperatur haben. Nachdem diese Modelle erstellt sind, gehen wir wieder zu dem Punkt zurück, an dem wir die Temperatur nicht haben, und können sie vorhersagen (wobei wir daran denken müssen, dass wir nicht ihren Mittelwert, sondern die tatsächlichen Werte vorhersagen müssen; außerdem müssen wir berücksichtigen, wie die Beziehung zwischen Temperatur und Proxy in der Vergangenheit anders gewesen sein könnte, und wie die anderen vorhandenen Bedingungen diese Beziehung verändert haben könnten, und so weiter und so fort).

Was man nicht tun kann oder sollte ist, zuerst die Proxydaten zu modellieren/glätten, um fiktive Daten zu erzeugen und dann zu versuchen, die fiktiven Daten und die Temperatur zu modellieren. Dieser Trick wird einen immer – einfach immer – zu sicher machen und in die Irre führen. Man beachte, wie die gelesenen fiktiven Daten viel strukturierter aussehen als die realen Daten und es wird verständlich.

Der nächste Schritt ist, mit den Proxydaten selbst zu spielen und zu sehen, was zu sehen ist. Sobald mir der Wunsch erfüllt wird, jeden Tag mit 48 Stunden zu füllen, werde ich das tun können.

Link: https://wmbriggs.com/post/195/

Übersetzt von Chris Frey EIKE

 




Abschätzung der CO2-Klimasensivität auf Basis des GLOBAL TEMPERATURE REPORTS (GTR)

Abb 1: Links: Zollstock und digitaler Mess-Schieber. Unterschied der Genauigkeit Rechts: Bearbeitung einer Welle an einer Drehbank. Quelle: Jeweils Pixabay

Zur Verdeutlichung dieser Diskrepanz ein Vergleich aus einem Bereich der Technik, der leicht verständlich ist. Um die Kupfer-Welle (Abb.1, rechts) auf der Drehbank exakt zu messen bzw. zu bearbeiten, benötigt der Arbeiter einen Mess-Schieber. Ein Zollstock ist für ihn unbrauchbar. Genau diesen Widerspruch sehen wir jedoch in der Welt der Klimaforscher. Sie verwenden sprichwörtlich den Zollstock, um die Bauteile einer hoch präzisen Maschine zu fertigen. Die ungenauen Temperatur-Daten dienen als Basis für die komplizierten Simulationen auf Groß-Computern. Zu allem Überfluss postulieren die Klimaforscher ihre Methodik als die einzig gültige Wahrheit (IPCC). Welch eine unglaubliche Farce. Der Autor hat Erfahrung im Bereich „Computational Chemistry“, ein Hilfsmittel zur theoretischen Voraussage bzw. Bestätigung von Eigenschaften unterschiedlichster Moleküle, z. B. die 3D-Struktur, Reaktivität oder innere Beweglichkeit. Bei den Anwendern von Computer-Simulationen gibt es den geflügelten Satz für eine Ausgangs-Basis mit schlechten Anfangsdaten: „Shit in, shit out.

  1. GLOBAL TEMPERATURE REPORT (GTR)

Der GLOBAL TEMPERATURE REPORT [2] zeigt in monatlicher Abfolge die berechnete globale Temperatur der unteren Atmosphäre (s. Abb.2). Verantwortlicher Wissenschaftler hinter diesen Daten ist der bekannte Klimatologe Dr. John R. Christy von der University of Alabama in Huntsville. Seit 2013 werden satelliten-basierende Temperatur-Messungen zusammengeführt, verarbeitet und auf der Homepage veröffentlicht. Christy hat zusätzlich die ab 1979 verfügbaren Satelliten-Messungen nachträglich verarbeitet. Ergebnis ist ein Säulen-Diagramm (Abb.2) mit den monatlichen Temperatur Abweichungen zur Referenz-Linie (0-Linie). Diese wird als Durchschnitts-Temperatur von 1981 bis 2010 3 errechnet. Zusätzlich wird auch eine Karten-Darstellung der Erde mit farblich gekennzeichneten Bereichen zur Verfügung gestellt. Auch für den November 2020 schön zu erkennen, die leichte Erderwärmung findet tendenziell mehr auf der Nordhalbkugel statt. Besonders in Antarktis-Nähe kühlt es eher ab. Diese These ist in vielen Veröffentlichungen bestätigt worden.

Abb 2: GLOBAL TEMPERATURE REPORT von November 2020 [2]
Abb 3: GLOBAL TEMPERATURE REPORT von November 2020. Darstellung als Karte [2]

  1. Vorteile der Satelliten-Daten

Im bereits erwähnten Vorgänger-Artikel [1] zu diesem Aufsatz wird im Kapitel 5.1.) Zuverlässigkeit der Proxy-Daten auf die Vorteile von in sich konsistenten Datensätzen eingegangen. Die GTR-Daten wurden im gesamten Erfassungs-Zeitraum vom gleichen Messgerät ermittelt, die Methodik und die Randbedingungen bleiben konstant. Systematische Fehler können daher nahezu ausgeschlossen werden. Wie auch bei den Proxy-Daten liegt in der guten Genauigkeit der relativen Änderungen innerhalb der Messreihen. Wie oft in der Naturwissenschaft ist es nicht nötig, die absoluten Daten, hier die Temperaturen, zu ermitteln. Ob zum Beispiel die mittlere Temperatur für Deutschland im Jahr 2017 14,2 °C betrug, spielt für eine mathematisch physikalische Auswertung keine Rolle. Entscheidend ist die in sich geschlossene und verlässliche Messreihe und deren korrekte Auswertung.

  1. Bearbeitung der GTR-Daten und erster Überblick

4.1.) Erster Überblick und Erkenntnisse aus den GTR-Daten

Das von Dr. Christy veröffentlichte Balken-Diagramm (Abb.2) ist extrem detailreich und folglich wenig übersichtlich. Was ist relativ schnell zu ermitteln? Die relativen Temperatur-Daten sind in den 80er und 90er Jahren überwiegend blau (negative Abweichung) und in den 2000er Jahren überwiegend rot (positive Abweichung). Im Betrachtungs-Zeitraum von 40 Jahren wurde es grob geschätzt 0,7 K wärmer. Auffallend sind die beiden extremen Temperatur-Spitzen um die Jahre 1998 und 2016. Dazu später noch mehr. Wegen der starken Schwankungen fällt es schwer, noch weitere Erkenntnisse aus dem Diagramm zu ermitteln.

4.2.) Glättung und Bearbeitung der Koordinaten-Achsen

Die monatliche Auflösung auf der X-Achse und die Darstellung des betrachteten Zeitraums von 40 Jahren sind nicht optimal. Andererseits ist die Y-Achse mit Y(min.)= -1,0K und Y(max.) = +1,0K zu wenig aufgelöst. Als besten Kompromiss fand der Autor eine Darstellung, bei der die X-Achse gestaucht, die Y-Achse gestreckt und die „zappelnden“ Messwerte geglättet sind. Das Ergebnis ist in Abb.4 dargestellt. Tatsächlich ist es nun leichter möglich, zusätzliche Erkenntnisse aus dem Graphen zu erhalten.

4.3.) El Nino und langzeit-konstante Temperaturen

Beginnen wir mit den bereits erwähnten Warm-Peaks von 1998 und 2016. Klimatologen und andere Fachleute kennen die Ursache der beiden Temperatur-Spitzen. Beide Male ist ein extrem starker „El Nino“ schuld, eine Meeresströmungs-Umkehr im Pazifik. Dieses Phänomen tritt unregelmäßig in einem Durchschnitts-Abstand von 4 Jahren auf und hat Auswirkung auf die Temperaturen der gesamten Erde. Von Anfang 1979 bis Ende 1997 (19 Jahre) blieb die mittlere Erdtemperatur erstaunlich konstant. Ausgehend von einem Mittelwert -0,1 K schwankte die Temperatur nur ca. 0,2 K nach oben oder unten. Das gleiche Bild im Zeitraum von Anfang 1999 bis Mitte 2015 (16,5 Jahre). Nach dem El Nino von 1998 ist der Level der konstanten Temperatur um ca. 0,2K angestiegen. Schließlich begann nach dem
El Nino von 2016 eine 3. Phase konstanter Temperatur, die bis heute (4,5 Jahre) anhält. Der Anstieg des Levels beträgt diesmal knapp 0,4K.

Abb 4: Bearbeitete GTR-Daten. X-Achse gestaucht, Y-Achse gestreckt, Werte geglättet.

Schließlich hilft eine lineare Regression, die Temperaturanstiegs-Tendenz grob abzuschätzen. Die Gerade hat eine Steigung von 0,0132 K/Jahr, oder etwas greifbarer 0,26 K auf 20Jahre. Noch einfacher: Ein Temperatur-Anstieg von etwa einem Kelvin auf 80 Jahre, d. h. 1 K bis zum Jahr 2100!

4.4.) Interpretation der Ergebnisse

Es darf nicht außer Acht gelassen werden, dass der Betrachtungszeitraum von 40 Jahren für die Klimatologie ein sehr kurzer Zeitraum ist. Nach Definition handelt es sich nur um 1 1/3 aufeinander folgende 30-jährige Klima-Zeiträume. Deshalb muss bei der Interpretation der Ergebnisse eine vorsichtige und kritische halbquantitative Herangehensweise im Vordergrund stehen, nicht die blanken Zahlen-Werte.

Erstaunlich sind die relativ konstanten Temperaturen in den 3 angegebenen Zeiträumen. Der Autor sieht sich nicht in der Lage, dazu eine fundierte Interpretation abzugeben. Ein Vergleich kann trotzdem angestellt werden. Die Klimaforscher (IPCC) vertreten seit 2016 die These, das anthropogen verursachte CO2 sei die alleinige Ursache des Temperatur-Anstiegs der letzten 170 Jahre. Wie erklären diese Leute die Zeiträume von 16,5 Jahren und 19 Jahren, in denen das anthropogene CO2 einerseits massiv angestiegen ist, andererseits die Temperatur nahezu konstant blieb? Kaum zu beantworten für die Klima-Alarmisten. Nun zur ermittelten Steigung von etwa einem Kelvin auf 80 Jahre. Bitte unbedingt beachten! Dieser großzügig geschätzte Anstieg von 1 K ermittelt sich unter der Annahme eines unge-bremsten anthropogenen CO2-Ausstoßes bis zum Jahr 2100! Selbst ohne CO2-Reduzierungs-Maßnahmen, ohne regenerativen Strom und ohne Elektro-Autos entsteht daraus kein Weltuntergangs-Szenario.

  1. Abschätzung der CO2-Klimasensivität mit Hilfe bearbeiteten GTR-Daten

Durch die erstaunlichen Ergebnisse bei der Auswertung der GTR-Daten war es nahezu die zwangsmäßige Folgerung, auch die CO2-Klimasensivität aus den Rohdaten zu ermitteln. Wie bereits unter 4.4.) deutlich gemacht, soll hier keine exakte Berechnung durchgeführt werden. Vielmehr eine Abschätzung der Größenordnung der CO2-Klimasensivität.

5.1.) Was ist die CO2-Klimasensivität?

Die CO2-Klimasensivität ist einfach definiert: Der Anstieg der mittleren Erdtemperatur bei Verdoppelung der CO2-Konzentration in der Atmosphäre.

Das IPCC behauptet seit ca. 30 Jahren, die CO2-Klimasensivität liegt mit 95% Wahrscheinlichkeit zwischen 1,5 K und 4,5 K, mit größerer Wahrscheinlichkeit im Bereich zwischen 3 K und 4,5 K. Inzwischen tauchen im Umfeld des IPCC Computer-Modelle auf, die von einer CO2-Klimasensivität über 6 K ausgehen. Warten wir auf den neuen IPCC-Bericht, der für das Jahr 2021 angekündigt ist.

5.2.) CO2-Klimasensivität, die zentrale Größe im Klima-Streit

Seit Greta Thunberg und „Fridays For Future“ ist die Klima-Diskussion im Bewusstsein der breiten Öffentlichkeit angekommen. Vereinfacht ausgedrückt, der angenommene Wert der CO2-Klimasensivität ist der zentrale und wichtigste Punkt der gesamten Diskussion und Auseinandersetzung zwischen den Klima-Alarmisten und Klima-Skeptikern. Sollte der wahre Wert der CO2-Klimasensivität bei 2 K oder darunter sein, erübrigt sich jeglicher Streit. Die Auswirkung des anthropogenen CO2 auf die mittlere Erdtemperatur wäre zu gering, um katastrophale Auswirkungen zu erwarten (siehe 4.4.).

5.3.) Keeling-Kurve: CO2-Konzentration der Atmosphäre seit 1958

Dr. Ralph Keeling hat 1958 begonnen an der meteorologischen Wetterstation auf dem hawaiianischen Vulkan Mauna Loa kontinuierlich die CO2-Konzentration der Atmosphäre zu messen. Deshalb wurde das Diagramm in Abb.5 auch nach ihm als Keeling-Kurve benannt. Seit 1958 steigt die CO2-Konzentration in der Atmosphäre an, hauptsächlich verursacht durch anthropogenen Ausstoß. Hauptverursacher sind Industrie (Prozess-Wärme), Heizen und Verkehr.
5.4.) Zusammenhang von CO2-Konzentration und Temperatur

Der mathematische Zusammenhang zwischen CO2-Konzentration und der Temperatur ist den Physikern und Meteorologen bereits lange bekannt. Deshalb wurde auch der Terminus „CO2-Klimasensivität“ eingeführt. Nur bei einer logarithmischen Funktion vergrößert sich der Y-Wert um einen festen Betrag, wenn der X-Wert jeweils verdoppelt wird. Der große Vorteil einer logarithmischen Funktion ist die Unabhängigkeit der Betrachtung, egal wo ein Referenzpunkt auf der X-Achse gesetzt wird. Die ideale Voraussetzung zur Auswertung der relativen GTR-Werte.
Der Zusammenhang zwischen CO
2-Konzentration und Relativ-Temperatur ist somit eine

Logarithmische CO2-Funktion F(GTR) *

Abb 5: Keeling-Kurve. CO2-Konzentration der Atmosphäre seit 1958

Dabei ist die Temperatur-Änderung, F(GTR) ein Proportionalitäts-Faktor, im vorliegenden Fall die Konstante für die GTR-Daten, die CO2-Konzentration und eine Bezugs-CO2-Konzentration.

Die Keeling-Kurve weist für das Jahr 1980 eine CO2-Konzentration von ca. 337 ppm und für das Jahr 2020 eine CO2-Konzentration von 410 ppm aus. Die Temperatur-Differenz zwischen diesen Jahren beträgt ca. 0,60 Kelvin. Somit folgt:

Mit dem ermittelten Proportionalitäts-Faktor lässt sich nun sehr einfach die zugehörige CO2-Klimasensivität berechnen.

Abb 6: Ermittelte logarithmische Funktion der CO2-Konzentration anhand der GTR-Daten Y-Achse: in Kelvin

  1. Abschätzung der CO2-Klimasensivität

Die aus den GTR-Daten ermittelte rechnerische CO2-Klimasensivität beträgt somit
2 Kelvin. Was sagt dieser Wert aus? Die Voraussetzungen für die gerade ausgeführte Berechnung müssen unbedingt beachtet und angewendet werden.

Der logarithmische Graph, der sich aus der Berechnung ergibt, ist nur dann richtig, wenn ausschließlich das anthropogene CO2 die Erderwärmung bewirkt.

Unter Klimatologen wird weltweit diskutiert und spekuliert. Realistisch betrachtet, sollten maximal 50% der Erderwärmung 4 durch Einbringung großer Mengen an anthropogenem CO2 in die Atmosphäre mit der Erwärmung in Zusammenhang stehen. Die meisten Klimatologen und Klimaskeptiker postulieren niedrigere Werte (10-40%). Somit wird basierend auf den GTR-Daten die CO2-Klimasensivität auf einen Maximal-Wert von etwa 1 Kelvin geschätzt.

7.) Schlussfolgerungen

Die Abschätzung der CO2-Klimasensivität auf Basis der satellitengestützten GTR-Daten liefert ein Ergebnis in einer sinnvollen Größenordnung. Schwäche dieser Untersuchung ist der für Klimatologen kurze Betrachtungszeitraum von 40 Jahren. Der Autor hat sich bewusst darauf beschränkt, nur die in sich konsistenten Messdaten einer einzigen Mess-Quelle zu verwenden, um den im Vorgänger-Artikel [1] ausgearbeiteten Unwägbarkeiten der konventionell gewonnenen Global-Temperaturen aus dem Weg zu gehen.

Im Vergleich zu neuen Fach-Publikationen über das Thema CO2-Klimasensivität, die 2017 von Hans Penner 6 in einem Übersichts-Artikel zusammengefasst wurden, bewegt sich das Resultat in guter Gesellschaft. Abgesehen von den Verweisen auf die Werte des IPCC und des PIK-Mitarbeiters Stefan Rahmstorff liegen die Ergebnisse für die CO2-Klimasensivität im Bereich von 0,2 Kelvin bis 1,0 Kelvin. Die vorliegende Arbeit kommt auf einen Maximalwert von etwa 1 Kelvin.

Bereits 2014 veröffentlichte Koelle eine Übersicht der Forschungs-Ergebnisse zur

CO2-Klimasensivität und den zeitlich immer kleiner werdenden Ergebnissen [7].

Abb 7: Übersicht zur Entwicklung der ermittelten CO2-Klimasensivität. Scafetta 2017 [7]
Zum Schluss ein Zitat aus der Zusammenfassung der Arbeit von Hans Penner [6]:Aus diesen Befunden wird ersichtlich, dass nach dem heutigen Stand der Wissenschaft technische Kohlendioxid-Emissionen keinen schädlichen Einfluss auf das Klima ausüben.Dem ist nichts mehr hinzuzufügen!

Literatur-Verzeichnis

[1] https://kaltesonne.de/wie-zuverlaessig-sind-die-ermittelten-globaltemperaturen-der-letzten-170-jahre/

[2] https://www.nsstc.uah.edu/climate/

[3] https://www.nsstc.uah.edu/data/msu/v6.0beta/tlt/uahncdc_lt_6.0beta5.txt

[4] https://kaltesonne.de/schweizer-klimaszenarien-ch2018-bis-zur-halfte-der-beobachteten-erwarmung-der-letzte-50-100-jahre-hat-naturliche-ursachen/

[5] https://kaltesonne.de/zwei-weitere-studien-finden-eine-stark-reduzierte-co2-klimawirkung-von-13-grad-pro-co2-verdopplung/

[6] https://www.fachinfo.eu/fi036.pdf (Dr. Hans Penner)

[7] Scafetta et al., International Journal of Heat and Technology, Sept. 2017, Vol. 35, S.18-26

 




Klimaschutz und Virenhysterie: Instrumente des kommenden Machtmodells – Teil 2

Etwas später (1979) startete George Soros die Open Society Foundations, unter der er noch heute seine Aktivitäten zur Vertiefung der Globalisierung bündelt. Diese und viele andere private und staatliche Institutionen arbeiten seit Jahrzehnten an einem neuen Herrschaftsmodell, das die im Nationalstaat gegründete, rechtstaatlich-repräsentative Demokratie ablösen soll. Was ist die Agenda dieser Vordenker, die das reichste Promille der Eigentumspyramide vertreten? [1]

Einerseits hat das bisherige Modell die Entstehung der heutigen globalen Eigentumselite ermöglicht. Andererseits erkennen deren Vordenker, dass das Modell ökonomisch wegen der ohne Staatsbankrotte nicht mehr aufzulösenden Überschuldung am Ende ist und dass es Alternativen gibt, die ihre Vorherrschaft noch deutlich besser absichern.

Das neue Herrschaftsmodell soll die Trennung von Eigentum und politischer Macht, die mit dem Ende des Absolutismus zumindest formell und teilweise auch de facto erfolgte, rückgängig machen, und Oligopoleigentum wieder mit der vollständigen politischen Macht vereinigen – wie zur Zeit des Feudalismus, aber mit besseren Herrschaftstechniken. Das Modell hat folgende essenzielle Komponenten:

  1. Eine Schwächung des Nationalstaats mit dem mittelfristigen Ziel seiner Ablösung durch supranationale Regierungsformen ohne wirksame Gewaltenteilung und effektive demokratische Kontrolle – ein Verzicht auf die „veraltete“, aufklärerische Fiktion der Volkssouveränität.
  2. Eine Ablösung der traditionellen Rechtsstaatlichkeit des Common Law (USA, Commomwealth) und des römischen Rechtsprinzips (Kontinentaleuropa und Einflussgebiete) durch politisiertes Recht in Form einer Modifikation des klassischen Rechts mit Aufhebung der Isonomie und der Einführung eines Zuteilungsrechts.
  3. Eine möglichst umfassend Kontrolle von Medien, Kultur und politischer Willensbildung. Insbesondere eine hoheitliche Definition der Realität – was real ist, soll von den Eliten gesetzt werden.
  4. Eine Verwendung der großen Mehrheit derjenigen, die kein Eigentum an Produktionsmitteln haben, als passive Angestellte und Konsumenten der möglichst globalen Unternehmen.
  5. Eine umfassende Überwachung der Bevölkerung über die Nutzung des Internets.

Dabei wird der dekonstruktivistische Westmarxismus eingesetzt, um die Reste des noch bestehenden, legitimen Modells zu diskreditieren, wie etwa bei Derrida oder Butler. Der aufklärerisch-liberale Westmarxismus wird hingegen verwendet, um das neue Herrschaftsmodell als Gipfel der Aufklärung zu idealisieren. So, wie es sich etwa in den politischen Schriften von Jürgen Habermas findet, wo er sich für den Europäischen Zentralstaat einsetzt. Die ideologische Begleitung der Herrschaftskomponenten ist ubiquitär und penetrant. Sie beruft sich nur scheinbar auf die Werte der Aufklärung.

Die optimale Verwaltung

Was sind die Motive für diese Hauptkomponenten und wie sollen sie durchgesetzt werden? Die Schwächung des Nationalstaats ist in der Europäischen Union am weitesten fortgeschritten. Das Ziel ist ein Supranationalstaat, der die optimale Verwaltung einer von der Partizipation weitgehend ausgeschlossenen Bevölkerung erlaubt. Die nicht oder nur scheinbar gewählten, von der Elite bestimmten Politiker sollen die Interessen der Eigentumseliten möglichst reibungslos durchsetzen, deutlich effektiver als im Nationalstaat.

Dabei sollen Besteuerung und Steuermittelverwendung willkürlich festgelegt werden, es soll wieder das Prinzip der „taxation without representation“ (eine Abkehr vom Bill of Rights von 1688) gelten. Dies ist in der Eurozone dank der EZB bereits partiell gelungen. Die EZB-Bilanz wird durch Gelddrucken und den Kauf von Schrott-Assets Mitte nächsten Jahres wohl das Volumen des Bruttosozialproduktes der Eurozone erreichen, was bedeutet, dass dort gewaltige zukünftige Verpflichtungen des Staates angehäuft werden. Für diese wird der Steuerzahler oder, im Fall des Staatsbankrotts, jeder Immobilienbesitzer, aufkommen müssen. Bei anderen Zentralbanken ist das Legitimitätsdefizit zwar nicht ganz so groß wie bei der EZB, weil die Institutionen national sind, doch auch diese handeln nicht im Interesse der Bürger, sondern verwerten zukünftige Steuereinnahmen. In beiden Fällen fließen die Erträge der Geldschöpfung den Reichsten und den Politikern zu. Letztere nutzen sie zum Legitimitätskauf über Staatskonsum in Form von Sozialausgaben. Die nächste Stufe des Vorgangs ist die Abschaffung des Bargeldes und die Einführung einer internationalen Fiktivwährung, die von einem demokratisch nicht legitimierten Zentralkomitee verwaltet werden könnte, wie dies etwa von Facebook, aber auch von staatlichen Akteuren und NGOs vorgeschlagen wird.

Der Umbau des klassischen abendländischen römischen Rechts und des Common Law in ein neues Willkürrecht soll es ermöglichen, gesellschaftliche Normen nicht durch spontane Herausbildung oder politische Willensbildung zu verrechtlichen, sondern Normen beliebig zu setzen. Entscheidend für die Eliten des neuen Modells ist dabei die Aufhebung der Isonomie, aber ein vollständiger Ersatz wäre nicht zielführend, da ohne Rechtsrahmen keine moderne Wirtschaft funktionieren kann. Ein wichtiges Beispiel dafür sind die (medizinisch sinnlosen) Corona-Gesetze, die fast überall im Westen ohne Beteiligung der Parlamente von den Regierungen durchgesetzt wurden. Andere Beispiele sind Energiewende, Atomausstieg oder die willkürliche Bekämpfung des Individualverkehrs durch technisch nicht umsetzbare Abgasverordnungen. An der chaotischen und widersprüchlichen Ausformulierung solcher Vorhaben lässt sich schon ablesen, welche Folgen diese Art der Normensetzung hat.

Doch insbesondere ist die Corona-Politik nicht nur Symptom des neuen Herrschaftsmodells, sondern, nachdem die Errichtung globaler Herrschaftsstrukturen mit Hilfe der Klimapanik nicht recht gelungen ist, derzeit auch deren wichtigstes Durchsetzungsmittel. Denn diese Politik beschleunigt die globale Eigentumskonzentration gewaltig, da sie große Unternehmen schützt, gleichzeitig aber kleine und mittlere, oft eigentümergeführte oder zumindest im kleinteiligen Eigentum befindliche Unternehmen zerstört. Damit geht noch mehr Eigentum an den Finanzsektor und dessen Eigentümer über. Hier nutzt der Globalismus die klassische Rechtsordnung des Westens (Schuldeintreibung statt Erlass), um die Eigentumskonzentration so lange voranzutreiben, bis man sich wesentlicher Elemente des Rechtsmodells entledigen zu können glaubt.

Gestaltete Alarmrealität

Die Kontrolle der Medien ist ein weiteres wichtiges Herrschaftsinstrument, dessen Ausbau bereits weit fortgeschritten ist. In Deutschland ist der Marktanteil von Facebook, das die hier geschilderte Herrschaftsagenda vorbildlich vertritt, an Selbstdarstellungsplattformen nahe 100 Prozent. Das Internetoligopol aus Facebook, Google, Netflix, Amazon und wenigen anderen bedient in der Wahl der Inhalte und der Art, wie Suchergebnisse angezeigt und Produkte empfohlen oder beworben werden, ebenfalls diese Ideologie. Klassische private Medien, wie die traditionellen Zeitungen und Zeitschriften, private Radio- und Fernsehsender, sind unter dem hohen Druck des dekonstruktivistischen Westmarxismus (Rassismus- und Genderkampagnen, Kampf-gegen-Rechts, Kontaktschuldkampagnen) weitgehend eingeknickt und mehrheitlich sogar begeisterte Verbreiter dieses nihilistischen Kulturmarxismus; von den staatlichen Medien ganz zu schweigen. Alle beteiligen sich an der propagandistischen Diffamierung und Diskreditierung von Kritikern des Herrschaftsgeschehens als „Rechtsextremisten“. Doch die Propaganda erreicht ein neues Niveau, wenn Tatsachen der Realität verfälscht werden, um die Subjekte besser zu kontrollieren. Orwell beschreibt es in „1984“ überdeutlich: Geschichte, Gegenwart und die Aussicht auf die Zukunft werden nach Belieben der Partei beschrieben, und die Ideologie entscheidet alleine über die Wahrnehmung der Wirklichkeit. Es wird ein Framing über die Realität gelegt, wie man neuerdings sagt. Schon heute wird die Realität des endemischen Virus SARS-CoV-X, eines medizinisch in seiner Gefährlichkeit unter der von Influenza liegenden Erregers grippaler Infekte [11], von NGOs und Regierungen zur Pandemie erklärt. Sie setzen damit die eigentliche Realität außer Kraft und ersetzen sie durch eine gestaltete Alarmrealität, die die Journalisten und Bürger dann wahrnehmen und verbreiten. Entsprechend reagieren die Bürger mit Panik und befürworten totalitäre Maßnahmen – das Herrschaftsnarrativ ist bisher erfolgreich, die Herrschaft wird stabilisiert.

Besonders radikale Befürworter des neuen Herrschaftsmodells setzen sich für weitere Migration von Menschenmassen aus Gegenden mit geringem Zivilisationsniveau in die OECD-Staaten ein. Diese Menschen, die im Westen nach Wohlstand und Frieden suchen, aber lediglich Sozialität in Form der Vergemeinschaftung kennen und nicht in der Lage sind, sich in moderne Vergesellschaftungsstrukturen einzugliedern, sollen die Zusammengehörigkeit unterminieren und dadurch die zivilgesellschaftliche Willensbildung zur Abwehr der Herrschaftsagenda verhindern.

Eine weitere Komponente des neuen Modells ist die Überwachung. Jede Aktivität im Internet, ob durch Surfen oder der Nutzung von Gegenständen, die mit dem Internet verbunden sind (Autos, Zahlungsmittel, Wearables, Haushaltsgegenstände) erzeugt Spuren, die zur Überwachung von Individuen genutzt werden können. In einer Gesellschaftsordnung ohne Repräsentation und durchgehende Rechtsstaatlichkeit ist Überwachung essenziell, um Widerstand aufzuspüren und zu brechen.

Die führenden politischen Parteien in Westeuropa und Nordamerika, die die Prinzipien der repräsentativen politischen Willensbildung und der Amtstreue im Wesentlichen im Parteienstaat ausgelöscht haben, tragen diese Herrschaftsagenda weitgehend mit [1]; die einzige echte Ausnahme ist Donald Trump, dessen Wirkungsradius allerdings beschränkt blieb.

Es handelt sich allerdings nicht um eine Verschwörung, und dieser Aufsatz skizziert keine Theorie einer solchen, sondern Vertreter von Machtinteressen und ihre Vordenker erkennen Möglichkeiten und nutzen diese.

Die Probleme des neuen Modells

Was sind die Probleme dieses Herrschaftsmodells?

Erstens Widerstand der Bürger der Nationalstaaten, die das etablierte Legitimitätsmodell behalten wollen. Dazu könnten auch die Ordnungskräfte gehören. Der dauerhafte Wechsel von einem legitimen zu einem illegitimen Modell ist schwierig. Russland und China sind keine Gegenbeispiele, denn in beiden Ländern stehen totalitärer Zentralismus und lokale Patronatsstrukturen in langer Tradition der absolutistischen Vorgängerstaaten. Zwar wurden die Eliten ausgetauscht, aber nicht die Strukturen.

Zweitens eine Erosion der ökonomischen Produktivität infolge der Effekte der Migration und der aktiven (kulturmarxistischen) Normenzerstörung im Bildungswesen, aber auch in der parlamentarischen Normengestaltung und deren exekutiver Durchsetzung. Doch ohne die hohe Produktivität der voll ausgebauten Industriegesellschaft verfällt die wichtigste Legitimitätsgrundlage der Herrschaft. So kann es von der raschen Wohlstandserosion, deren Zeugen wir gerade werden, bis zur Versorgungskrise kommen.

Drittens die mangelnde machttechnische Absicherung des Modells. Wenn es zu der Versorgungskrise kommt, auf die wir uns gerade zubewegen, werden westliche Staaten mit datensetzender, instrumenteller und autoritativer Macht und Machtmitteln wie Propaganda, Sprachkontrolle und Diffamierung nicht mehr auskommen, sondern auf die Urform der Herrschaftssicherung, die Aktionsmacht [7], zurückgreifen müssen. Wo werden dann die bewaffneten Ordnungskräfte stehen?

Teil 1 finden Sie hier.

Zuerst erschienen bei der Achse, mit freundlicher Genehmigung.

Literaturhinweise

  1. Hans Herbert von Arnim. Staat ohne Diener: was schert die Politiker das Wohl des Volkes? Rowohlt Verlag GmbH, 2018.
  2. Egon Flaig. Die Niederlage der politischen Vernunft: wie wir die Errungenschaften der Aufklärung verspielen. zu Klampen Verlag GbR, 2017.
  3. Friedrich A von Hayek. Denationalisation of money: The argument refined. Ludwig von Mises Institute, 2009.
  4. Gertrude Himmelfarb. On looking into the abyss: Untimely thoughts on culture and society. Knopf New York, 1994.
  5. Bernard Manin. The principles of representative government. Cambridge University Press, 1997.
  6. Thomas Piketty. “About capital in the twenty-first century”. In: American Economic Review 105.5 (2015), S. 48–53.
  7. Heinrich Popitz. Phänomene der Macht. Tübingen: Mohr Siebeck, 1992.
  8. Guido Preparata. The Ideology of Tyranny: Bataille, Foucault, and the Postmodern Corruption of Political Dissent. Springer, 2007.
  9. Richard Rorty. Achieving our country: Leftist thought in twentieth-century America. Harvard University Press Cambridge, MA, 1998.
  10. Murray N Rothbard. Man, economy, and state. Ludwig von Mises Institute, 2009
  11. John P. A. Ioannidis: Global perspective of COVID‐19 epidemiology for a full‐cycle pandemic, E J Clin Invest, 10/2020. https://doi.org/10.1111/eci.13423



Steigt der Meeresspiegel immer schneller? (T2/2)

<span style=“ font-size: 12pt;“>

Was zeigen Pegeldaten?

Der Vergleich wird nicht global vorgenommen, sondern exemplarisch anhand von Daten des Süd-Pazifik (grob die im Bild schwarz umrandete Region), einer laut unseren Medien und erschütternden Berichten von Regierungsvertretern dortiger Inselrepubliken auf vielen Klimagipfeln besonders schwer vom Klimawandel betroffenen Region, wie es ja auch die Satellitendaten mit der tiefroten Einfärbung ausweisen.

Bild 1 Karte der Änderungsraten der Meeresoberflächenhöhe (geozentrischer Meeresspiegel) für den Zeitraum 1993–2012 aus Satellitenaltimetriedaten. Quelle: Deutsches Klima-Konsortium: KLIMA-FAQ 13.1 | MEERESSPIEGELANSTIEG. Bild vom Autor ergänzt

Zusammengefasst wurde diese erste Sichtung (ein weiteres Kapitel mit einer zweiten folgt) anhand der Pegeldaten der Inselgruppen: Cook Islands; Fiji; Kiribaty; Marshall Islands; Tuvalu; Vanuatu; Samoa
Entnommen sind die Pegeldaten dem Australischen Pazifik-Monitoringprogramm.

Bild 2 Die verwendeten original-Pegeldaten des Australischen Pazifik-Monitoringprogrammes von 1993 – 2019 (6 Atolle). Grafik vom Autor erstellt

Anbei das Übersichtsbild der auf den Endwert normierten Pegelverläufe von Bild 2. Der Pegelanstieg über den Zeitraum 1993 – 2020 beträgt laut Regressionsgeraden 3,27 mm/pa. Falls der Verlauf so bleibt, wären das bis zum Jahr 2100 ca. 26 cm zusätzlicher Pegel.

Bild 3 Pegeldaten des Australischen Pazifik-Monitoringprogrammes von 1993 – 2019 (Datenauszug 6 Atolle und Mittelwert mit Trendgeraden). Grafik vom Autor erstellt

Eine grobe Analyse dieses Pegelverlaufs zeigt das folgende Bild. Es zeigt, dass die über den gesamten Zeitraum gelegte Regressionsgerade einen zu hohen Wert liefert. Der wirkliche Pegeltrend ergibt sich aus den Einhüllenden. Und danach wäre der Tiden-Pegelanstieg in dieser (angeblich) besonders schlimm vom Meerespegelanstieg betroffenen Region nur ca. ca. 2,1 mm/pa, bis zum Jahr 2100 also noch +16,80 cm zusätzlicher Pegel (und meilenweit entfernt von den im Bild 1 durch die Einfärbung angegebenen Pegel-Steigungsraten).

Bild 4 Pegeldaten (Mittelwert) des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019. Grafik vom Autor erstellt

Stellt man diesem Tidenpegelverlauf die Satellitendaten gegenüber, sieht man, dass die einzelnen Satelliten immer grob einen Trend-Beschleunigungszyklus überstreichen. Nimmt man den Verlauf eines Satelliten, lässt sich „herrlich“ ein hoher Trend ableiten, wie es Prof. Rahmstorf in seiner Aussage für den Spiegel gemacht hat (siehe Teil 1). Wenn man dazu skrupellos verheimlicht, dass eine solche Aussage mit ziemlicher Sicherheit als Globalwert-“Feststellung“ falsch ist, gelingt die Pegel-Alarmmeldung perfekt.

Bild 5 Pegeldaten (Mittelwert) des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019 und Satellitenpegel im gleichen Zeitmaßstab gegenübergestellt. Grafik vom Autor erstellt

In den Grafiken (des Autors) steht immer „ohne Samoa“. Der Grund anbei:
Alle Südseeatolle liegen auf einer seismisch hoch aktiven Bruchkannte (Pazifischer Feuerring). Ein latentes, regelmäßig sich wiederholendes Problem sind dort Erdbeben mit als Folge auch vertikalen Landbewegungen. Und Samoa wurde durch solche seit 1993 um ca. 25 cm „gesenkt“, also weit, weit mehr, als der Meerespegel seitdem anstieg.

Bild 6 Pegeldaten Samoa und Teil-Mittelwert des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019. Grafik vom Autor erstellt

Solche Pegelverfälschungen durch Erdbeben sind in vielen Pegeldaten (nicht nur aus) dieser Weltgegend enthalten, da die Tidenpegeldaten grundsätzlich die originalen Messwerte sind und nicht berichtigt werden (im gezeigten Mittelwertverlauf sind Erdbebeneinflüsse auch erkennbar). Dies zum Unterschied gegenüber den weltweiten Temperaturmesswerten, welche oft mit Nachbearbeitungen (auf die „richtigen Werte“ geändert) hinterlegt sind.

Bild 7 Beispiel von Erdbeben im Tidenpegelverlauf. Quelle: PSMSL-Viewer

Anmerkung: Ein nicht vernachlässigbarer, zusätzlicher Pegeldaten-Verfälschungseinfluss (oft um mehrere Zentimeter pro Jahr, Tokyo soll dadurch gar um ganze 4 m gesunken sein [7]) sind auch die vom Menschen verursachten Landsenkungen vieler (im Küstensumpf) gebauten Küstenstädte:
[Link] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[7]
) … Viele Megastädte, besonders in Asien, sind gefährdet – zum Beispiel Jakarta, Ho-Chi-Minh-Stadt und Bangkok … Tokio ist nach Jahrzehnten der Grundwasserentnahme vier Meter abgesunken. Erst als diese beendet wurde, konnte das Absinken in den 1970er-Jahren gestoppt werden. Indonesien hingegen will die Hauptstadt von Jakarta nach Borneo verlegen, unter anderem, da die Stadt zu versinken droht.

Langfristverlauf anhand von PSMSL-Pegeldaten

Die Pegeldaten des australischen Pegel-Monitoringprogrammes haben den großen Vorteil, lückenlos, gepflegt, aktuell und damit vertrauenswürdig zu sein. Leider beginnen aber alle erst mit dem Jahr 1993 und sie sind regional begrenzt.

Zeitlich längere Daten und dazu noch rund um den Globus liefert PSMSL. Allerdings sind dessen Pegeldaten eher ein Beispiel, wie wenig Wert – und das gilt besonders für die (angeblich) besonders schlimm betroffenen Gegenden – auf diese gelegt wird, denn viele Datensätze sind ganz einfach nur Datenmüll. Man muss schon gezielt nach brauchbaren suchen, um realistische Auswertungen zu erhalten.

Mit den folgenden Pegelhinterlegungen: Honolulu; Johnston Island; Christmas Island II; Rikitea; Midway Island; Wake Island (Marshall-Inseln); Malakal-B; Bundabreg, Burnett heads Austr.; Brisbane (west inner bar),
fanden sich über einen längeren Zeitraum verlaufende, leidlich konsistente und vor allem auch bis mindestens 2018 reichende Datensätze.

Informativ daraus der längste Datensatz, Honolulu:

Bild 8 Pegelverlauf Honolulu von 1905 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Alleine dieser Verlauf zeigt wieder, dass selbst in der „schlimm betroffenen“ Pazifikregion nicht entfernt von einem Pegelalarm aufgrund eines „schlimmen, sich ständig erhöhenden Pegelanstiegs“ gesprochen werden kann. Zusätzlich bestätigt wird dies durch die Pegel-Änderungs-Auswertung (äquivalent zu Bild 7 in Teil 1).
Die von Herrn Prof. Rahmstorf gemeldete, schlimme Pegelanstiegsrate von 4,8 mm/pa gibt es auch in dieser Gegend ab und zu, allerdings mit sich in Summe auf Null ausmittelndem Gesamtwert.

Bild 9 Honolulu. Pegel-Änderungsrate (Residuals) der 5Jahre-Zeitspanne als Absolutwerte und als Steigungswerte der Regessionsgeraden von 1905 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Folgendes Pegelbild veranschaulicht ein Problem der kurzen Datensätze im australischen Monitoringprogramm (diese beginnen alle mit dem Jahr 1993).

Bild 10 Pegeldaten Brisbane (Australien Ostküste) ab ca. 1965. Pegel auf das Jahr 2018 normiert. Datenquelle: PSMSL. Grafik vom Autor erstellt

Nun die Darstellung mit allen Pegeldaten:

Bild 11 Pegeldaten der zuvor gelisteten PSMSL-Datensätze mit Mittelwert und Regressionsgeraden 1947 – 2019. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Herausgehoben sieht der Mittelwertverlauf wie folgt aus:

Bild 12 PSMSL-Datensätze: Mittelwert und Regressionsgeraden ab 1947. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Die Änderungsraten wiederholen mit ihrer Zyklik den schon bekannten – unspektakulären – Verlauf des Mittelwertes um Null:

Bild 13 PSMSL-Datensätze Mittelwert: Pegel-Änderungsrate (Residuals) als Absolutwerte und als Steigungswerte der Regessionsgeraden von 1947 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Als Abschluss zur Darstellung der „Bedrohungslage“ im Pazifikraum durch den Pegelanstieg das folgende Pegelbild. Vergleichend muss man dazu berücksichtigen, dass die seit Jahrtausenden sich jährlich wiederholenden Hurricans Flutwellen von 3 … 5 m Höhe erzeugen (neben den zusätzlich erscheinenden, ebenfalls recht regelmäßigen Tsunamis).
Anmerkung: Warum die Minimalpegel so gestuft ansteigen, ist dem Autor ein Rätsel. Vielleicht kann irgend ein kenntnissreicherer Leser*in im Kommentarblock dazu etwas mitteilen.

Bild 14 PSMSL-Datensätze: Mittelwert und Regressionsgeraden ab 1947. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Der Pegelanstieg soll aber das Hauptproblem sein und der reiche Westen als angeblich daran Schuldiger bezahlt vorsorglich dafür noch Billionen (zum Start jährlich ca. 100 Milliarden Dollar) „Ablass“ an die „betroffenen“ Länder (die auf den Klimakongressen so werbewirksam – und unwidersprochen – weinen können). Mehr Irrsinn erscheint kaum möglich (wird mit Sicherheit aber noch kommen, nachdem die von den Laien als „Fachkraft“ im Verbrennen von Geld in der EU so erfolgreich „platziert“ wurde).

Fazit

Auch die Nachschau der Tidenpegeldaten belegt eher, dass die Aussage des hohen Pegelanstiegs von Herrn Rahmstorf viel eher falsch als richtig ist. Zudem werden die Küsten nicht durch den aus 1.320 km Höhe nach endlosen Korrektur(versuchen) „gemessenen“ Satellitenpegel, sondern weiterhin nur durch den an den Küsten wirklich vorhandenen beeinflusst.

Zufügung

Der Autor sichtet seit vielen Jahren auf der immer verzweifelteren Suche nach den viel berichteten, erschütternd schlimmen Pegelanstiegen und untergegangenen Inseln recht konsequent Pegelverläufe (und berichtet die Ergebnisse auf EIKE).
Die bisherige, leider auch hier wieder zu 100 Prozent zutreffende Feststellung bleibt: Es handelt sich bei solchen Meldungen immer um betrügerische nicht der wirklichen Faktenlage entsprechenden Aussagen.

In Deutschland darf man solche aber jederzeit wiederholen und beliebig publizieren. Denn kein Fachinstitut würde es wagen, öffentlich zu widersprechen (dann wären im Merkeldeutschland Karriere und Forschungsmittel dahin):
STERN, 26.12.2020: [3] Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen
… Das CEBR (Anm.: Center for Business and Economic Research) nimmt an, dass Umweltfragen in den nächsten 15 Jahren einen ernsthaften Einfluss auf die Form der Weltwirtschaft haben werden. „Es wird erwartet, dass der Meeresspiegel bis zum Jahr 2035 um 45 cm gegenüber dem Basisjahr 2000 steigen wird. Dies steht im Vergleich zu dem geringeren Anstieg von 20 cm bis 2030, der vor zwei Jahren vorhergesagt wurde“ …
Anmerkung: Das wäre ein Pegelanstieg von 12,86 mm/pa für die berichteten 35 Jahre. Da davon schon 20 Jahre mit nur maximal 2 mm/pa vergangen sind, müsste der Pegel nun spontan mit 27 mm/pa steigen. Man würde erwarten, dass das sogar einem STERN-Redakteur auffällt. Dann hätte er den erforderlichen Alarmartikel aber nicht schreiben können, und das hat eine höhere Priorität.

Dem STEN-Artikel gegenüber ist Herr Prof. Rahmstorf mit „seinem“ Pegelanstieg wirklich noch moderat. Ein Kollege von ihm im PIK macht das aber wieder wett. Prof. Levermann hält in einer Studie mit seiner Beteiligung „denkbare“ 8,9 m Pegelanstieg bis zum Jahr 2100 für möglich (das wären ab sofort ca. 100 mm/pa nötiger Pegelanstieg):
[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

Bild 15 [6] Vorhersagen, „möglicher“ Meerespegel zum Jahr 2100. Die 8,9 m (mit Tolerierung stammen aus einer Studie unter Beteiligung von Herrn Prof. Levermann)
 

Die „Botschaft“ ist aber angekommen und ausschließlich darauf kommt es diesen Protagonisten an.

In der Frankenprawda (Nordbayerische Nachrichten) wird fast täglich in irgend einem Kommentar auch auf den schlimmen Klimawandel hingewiesen. Fehlt der Kommentar, erfolgt es in einem Artikel, Beispiel 02.01.2021, Nicole Quint (Reisereporterin, Ausbildung unbekannt): Artikel „Die Welt zu Tode liegen“, Zitat: „ … Mittel- bis Langfristig nützt eine Stelle als Zimmermädchen in einem Ressort auf den Malediven wenig, denn der Archipel droht in Folge des steigenden Meeresspiegels unterzugehen … “.
Gegendarstellung: Auf den Malediven scheint vielmehr etwas Anderes unterzugehen: EIKE 29.12.2020: Alarmismus geht auf den Malediven unter
… 97% der 186 Inseln haben entweder an Fläche zugelegt (59%) oder blieben in der Fläche unverändert (38%) …
Einfach immer das Gleiche, sowohl in der Politik wie auch bei unseren Medien: Keine Ahnung, dafür aber ein gefestigter Glaube, der sich in reinem Nachplappern äußert, was aber als (angebliche) Bildung ausgewiesen wird.

Quellen

[1] SPIEGEL Wissenschaft, Rahmstorf 15.12.2020: Klimakrise Warum der Meeresspiegel immer schneller steigt

[2] kaltesonne 23.12.2020: Die Welt säuft ab…wirklich?

[3] STERN, 26.12.2020: Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen

[4] RAHMSTORF 22. Feb 2016. SciLogs > KlimaLounge > Allgemein > Meeresspiegel über die Jahrtausende

[5] H. Bâkiİz* and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era

[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

[7] DKK, Schrift: Zukunft der Meeresspiegel




Warum zeigen die Wassertem­peraturen von HadSST einen Abkühlungs­trend?

Zunächst ein Blick auf die fragliche Graphik in Abbildung 1 aus dem vorigen Beitrag:

Abbildung 1. Dieser Beitrag zeigt die globale Durchschnittstemperatur für den von HadSST abgedeckten Teil des Ozeans in diesem Jahr. Es werden sowohl die HadSST-Temperaturen als auch die ERSST-Temperaturen gezeigt, aber die ERSST-Gitterwerte sind auf den von HadSST abgedeckten Bereich zugeschnitten.

Wie wir in unseren vorherigen Beiträgen besprochen hatten, haben die mit Werten besetzten HadSST-Gitterzellen die besten Daten. Die Zellen sind 5° Breitengrad- und Längengrad-Boxen. Am Äquator sind diese Zellen über 300.000 qkm groß, größer als der Staat Colorado. Wenn Nicks Idee richtig wäre, würden wir erwarten, dass die Wertemenge in den Zellen an beiden Polen zunimmt. Abbildung 2 zeigt den prozentualen Anteil des globalen Gitters (einschließlich der 29% mit Land), der mit besiedelten SST-Zellen (Meeresoberflächentemperatur) bedeckt ist, nach Jahr. Die Anzahl der fehlenden Zellen variiert nicht sehr stark, das Minimum liegt bei 44% und das Maximum bei 48%. Es gibt zwar einen Abwärtstrend von 2001-2008, aber keinen Trend danach. Abbildung 1 flacht nach 2008 zwar ab, aber man muss sich schon anstrengen, um einen Anstieg von 2008 bis 2018 zu sehen.

Abbildung 2. Die Anzahl der monatlichen Nullzellen im HadSST-Datensatz, als Prozentsatz der gesamten globalen monatlichen Zellen pro Jahr (72x36x12=31.104).

Also, keine eindeutige Aussage aus diesem Diagramm. Schauen wir uns die Null-Zellen nach Jahr und Breitengrad in Abbildung 3 an.

Abbildung 3. Die Anzahl der monatlichen Null-Zellen, nach Jahr und Breitengrad.

Abbildung 3 zeigt, dass die Null-Zellen in den Polarregionen über den Zeitraum von 2001 bis 2018 ziemlich konstant sind. Ich habe 2018 zu einer dicken schwarzen Linie und 2001 zu einer dicken roten Linie gemacht, damit man den Anfang und das Ende der Reihe deutlicher sehen kann. Die wirkliche Variabilität liegt im südlichen Indischen, Pazifischen und Atlantischen Ozean von 55°S bis 30°S. Dies sind mittlere Breiten, nicht polare Breiten. Weder 2018 noch 2001 sind Ausreißer.

Das gleiche Muster ist zu erkennen, wenn wir uns einen Film der sich verändernden Nullzellen von 2001 bis 2018 ansehen. Klicken Sie auf die Karte unten, um den Film zu sehen.

Abbildung 4. Karte mit der Anzahl der monatlichen Nullzellen im HadSST-Datensatz für das Jahr 2001. Um zu sehen, wo die Nullzellen in allen Jahren bis 2018 sind, klicken Sie auf die Karte und ein Film wird abgespielt. Wie zuvor haben die weißen Bereiche keine Nullmonate in dem jeweiligen Jahr, die blaue Farbe ist entweder ein oder zwei Nullmonate und die anderen Farben sind mehr als zwei Nullmonate. Rot bedeutet, dass die gesamte Zelle null ist. [Sollte das mit dem Film nicht funktionieren, schaue man bitte im Original. Anm. d. Übers.]
Schlussfolgerungen

Die Anzahl der Nullzellen in den Polarregionen scheint sich von 2001 bis 2018 nicht wesentlich zu ändern. Die Änderungen treten in den südlichen mittleren Breiten auf. Die Anzahl der Nullzellen, als Prozentsatz des Globus, geht von 2001 bis 2008 etwas zurück, aber nur von 48 % auf 44 %, nicht genug, um einen Trend umzukehren. Nach 2008 gibt es keinen Trend bei den Nullzellen. Von 2008 bis 2018 ist der Temperaturtrend flach und nicht abnehmend, aber angesichts der Tatsache, wo sich die Anzahl der Zellen ändert, ist es schwer zu sagen, dass dies auf die Anzahl der besiedelten Zellen in den Polarregionen zurückzuführen ist.

Der Leser kann sich seine eigene Meinung bilden, aber meiner Meinung nach haben wir immer noch keine Ahnung, was die globale Ozeanoberflächentemperatur ist, oder ob sie steigt oder sinkt.

Link: https://wattsupwiththat.com/2020/12/26/why-do-the-hadsst-sea-surface-temperatures-trend-down/

Übersetzt von Chris Frey EIKE