1

Deutschland – ein Wintermärchen

Ab 2021 gilt eine neue Klima-Normalperiode, die von 1991 bis 2020

Auch wenn es Klima-Erwärmungsgläubigen schwerfällt – ab sofort wird auf Beschluss der Weltorganisation für Meteorologie (WMO) die alte, kalte und schon reichlich angestaubte Normalperiode von 1991 bis 1990 durch die aktuelle, wärmere von 1991 bis 2020 ersetzt. Das hat Konsequenzen – künftig liegt die Messlatte für warme Jahre und Jahreszeiten viel höher. Für den Winter im Deutschland-Mittel bedeutet es Folgendes: Von 1961 bis 1990 (Abkühlungsphase) betrug das Vergleichs-Wintermittel +0,3°C, von 1981 bis 2010 +0,9°C, 1991 bis 2020 aber +1,4°C. Betrachtet man nun aber die Entwicklung der Winter-Temperaturen im Deutschland-Mittel seit dem „Klimasprung“ von 1987/88, als es letztmalig plötzlich im Winter merklich wärmer wurde, so zeigt sich fast Stagnation; die weitere Erwärmung war gering und nicht signifikant. Der aktuelle Winter wurde dabei vom Verfasser dieses Beitrages eher optimistisch auf +2,0°C geschätzt, diese muss er erst einmal erreichen:

Abbildung 1: Seit Anfang 1987/88 erwärmte sich der Winter in Deutschland kaum noch; auch der aktuelle, recht milde wird wohl etwas kühler ausfallen, als die Winter von 1988 bis 1990. Der extrem milde Rekordwinter von 2006/07 mit fast +4,4°C liegt nun auch schon fast anderthalb Jahrzehnte zurück.

Immer weniger Arktisches Meereis im Winter?

Auch den flächen- und volumenmäßigen Rückgang des arktischen Meereises bestreitet niemand, doch sieht dieser weitaus dramatischer aus, als er tatsächlich ist, denn eine quantitative, kontinuierliche, relativ zuverlässige Erfassung war erst mit der Weiterentwicklung der Satelliten-Technik ab dem Jahre 1979 möglich – aber damals war gerade der Höhepunkt einer Abkühlungsphase erreicht; es wurden schon Wetten abgeschlossen, ob man bald über das Eis von Grönland nach Island laufen könne – und es kam dann ganz anders: Wegen der um 1990 einsetzenden AMO-Warmphase wurde viel Wärme in die Arktis eingetragen; das Eis zog sich zurück. Allerdings gab es derartige Rückzugsperioden auch schon während der AMO-Warmphase um 1930, und wie hätten die Wikinger im frühen Mittelalter Island, Grönland und Neufundland erreichen können, wenn es damals viel Eis gegeben hätte? So zeigt sich auch die aktuelle, winterliche Entwicklung der Meereisbedeckung nur leicht unterdurchschnittlich und keineswegs dramatisch:

Abbildung 2: Flächenentwicklung des Arktischen Meereises bis zum 4. Januar 2021 (hellblaue Linie). Noch im Oktober gab es, gemessen am Mittelwert von 1981 bis 2010, viel zu wenig Eis, doch in den vergangenen 10 Wochen verringerte sich dieses Defizit merklich. Bildquelle

Mehr Schneebedeckung in Eurasien?

In den vergangenen zwei Wintern hatten Schneefans in Mitteleuropa wenig Freude; die „weiße Pracht“ war, wenn überhaupt, nur im höheren Bergland zu bewundern. Doch Europa ist nur das bedeutungslose Anhängsel des Riesen-Kontinents Eurasien. Betrachtet man dessen Ausdehnung der Schneebedeckung zu verschiedenen Jahreszeiten, so zeigt sich folgendes Bild:

Abbildung 3: Seit 1978, dem Beginn der regelmäßigen Erfassung, hat sich die von Schnee bedeckte Fläche in Eurasien im Herbst deutlich und im Winter leicht vergrößert; im Frühling nahm sie, vermutlich durch längere und intensivere Besonnung, ab.

Beeinflusst die AMO die Wintertemperaturen in Deutschland?

Die Atlantische Multidekaden-Oszillation (Abkürzung AMO; engl. atlantic multidecadal oscillation) ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird. Gegenwärtig befinden wir uns in einer AMO-Warmphase, die um 1990 begann und möglicherweise bald enden wird. Doch während für die Jahreszeiten Sommer und Herbst sowie für den April eindeutige, positive Einflüsse bestehen (in AMO-Warmphasen sind diese in Deutschland tendenziell wärmer), konnten für den Winter keine eindeutigen Zusammenhänge gefunden werden:

Abbildung 4: Fast Gleichlauf zwischen der schwarzen Kurve (NAO) und der violetten (Westlagen-Häufigkeit) im meteorologischen Winter. Deren langfristige Entwicklung erklärt recht gut die Entwicklung der Deutschen Wintertemperaturen (hellblau). Zur grünen Kurve (AMO) besteht mit r= 0,146 nur ein geringer, nicht signifikanter positiver Zusammenhang. Weil die vier Größen sehr unterschiedliche Werte haben, wurden sie zur besseren Veranschaulichung in einer Grafik in Indexwerte umgerechnet.

Tendenziell treten in AMO-Phasen mehr Süd- und Südwestlagen auf; doch bringen gerade Südlagen im Winter nicht immer deutlich übernormale Temperaturen. Trotzdem könnte es bei sehr hohen AMO-Werten, wie gegenwärtig, im Einzelfall zu verstärkten, gebietsweisen Warmluft-Einbrüchen im Winter kommen. Der sehr milde Dezember 2020, in dem Westlagen aber eher selten waren, deutet in diese Richtung. Er wies am Monatsanfang und am Monatsende zwei markante Troglagen über West- und Mitteleuropa auf. Dabei standen sich zeitweise ein Tief über dem südlichen Mitteleuropa und ein Russland-Hoch gegenüber; zwischen beiden strömte über Westpolen extrem milde Mittelmeer-Luft nordwärts, während in West-und Mitteleuropa sonst nasskaltes Wetter mit gebietsweisen Schneefällen in den Mittelgebirgen und extrem starken Schneefällen in den Alpen herrschte:

Abbildung 5: Winterlicher, räumlich eng begrenzter Warmlufteinbruch über den Balkan, Böhmen und Westpolen am 6. Dezember 2020. Dort wurden noch abends zweistellige Plusgrade gemessen, während es über Südrussland schon frostig kalt und in Mittel- und Westeuropa nasskalt war. Bildquelle

Winter und Energiewende – das passt nicht gut zusammen

Der Dezember 2020 zeichnete sich, ganz anders als seine beiden Vorgänger, durch viele Flauten aus; auch die Sonnenscheindauer blieb gering:

Abbildung 6: Während die Solarenergie im Dezember 2020 praktisch keinen nennenswerten Strom lieferte, war auch Windstrom bis zur Monatsmitte und am Monatsende Mangelware. Braun- und Steinkohle, Kernkraft und zunehmend Erdgas verhinderten, dass in Deutschland die Lichter ausgingen.

Und in den ersten Januartagen sah es für die „Erneuerbaren“ Energien auch alles andere als rosig aus:

Abbildung 7: Fehlstart der „Erneuerbaren“ bis zum 5. Januar 2021: An den ersten zwei Januartagen kaum Wind, auch danach unterdurchschnittliche Windausbeute. Und die Sonne lieferte praktisch Nichts – zum Glück gibt es (noch) Kohle- und Kernkraftwerke; bei deren Abschaltung werden wir wohl künftige Winter in Kälte und Dunkelheit verbringen müssen.

Im Winter steigt der Stromverbrauch tendenziell an, weil mehr Licht benötigt und die meisten Heizungsanlagen zwar mit Erdgas oder Öl befeuert, aber mit Strom gesteuert werden. Anders als in den übrigen Jahreszeiten, nahm im Winter die Anzahl der unbestimmten, schwachwindigen XX-Lagen nur geringfügig zu; dennoch sind die Produktionsergebnisse des Windstroms trotz weiteren Ausbaus gerade der Offshore-Anlagen unbefriedigend. Sollte sich der Trend zu mehr schwachwindigen Wetterlagen künftig auch im Winter beschleunigen, was durchaus zu erwarten ist, so dürfte das endgültige Scheitern der Energiewende nicht mehr zu verhindern sein.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 05. 01. 2021




RKI zu PCR-Tests: Corona-Inzidenz unter 100 nicht erreichbar

Am 5. Januar haben die Ministerpräsidenten über eine Verlängerung und Verschärfung der Ausgangsbeschränkungen beraten. Als Grenzwert soll künftig eine Inzidenz von 100 Coronafällen pro 100.000 Einwohnern dienen.

Nicht nur betreffen derartige Einschränkungen damit „faktisch fast ganz Deutschland„, wie es aus den Ländern heißt. Die Maßnahmen könnten noch dazu nie wieder aufgehoben werden. Denn dieser Wert könne selbst von einer nachweislich gesunden, vollständig durchgetesteten Bevölkerung nicht unterschritten werden.

So schreibt das RKI: „Ein negatives PCR-Ergebnis schließt die Möglichkeit einer Infektion mit SARS-CoV-2 nicht aus“ und spricht von einer Spezifität von „nahezu 100 Prozent“. Beides lässt vermuten, dass PCR-Tests nicht fehlerfrei sind. An anderer Stelle schreibt das RKI:

Wie bei allen Testverfahren mit einer Spezifität < 100 % ist – insbesondere bei einer geringen [Verbreitung] in der Bevölkerung – ein gewisser Anteil falsch positiver Testergebnisse unvermeidbar.“

Letzteres lässt darauf schließen, dass insbesondere bei einer kleinen Anzahl tatsächlich Erkrankter die Aussagekraft der Tests nachlässt. Das bedeutet im Umkehrschluss: Je mehr Menschen tatsächlich infiziert sind, desto zuverlässiger sind die Ergebnisse.

Bereits eine Fehlerquote von 0,1 Prozent – bei einer angenommen Test-Genauigkeit von 99,9 Prozent – führt jedoch dazu, dass unter 100.000 nachweislich gesunden Menschen 100 falsch-positive Testergebnisse zu erwarten sind. Eine Lockerung der beschlossenen Maßnahmen wie Ausgangssperren, Beschränkung des Mobilitätsradius und der Zeit im Freien, wäre daher unmöglich.

Auch der kleinste Fehler ist ein Fehler

Entscheidend für die (statistische) Qualität eines Tests sind zwei Größen: Die Sensitivität und die Spezifität. Sucht man mit einem Test in einer Bevölkerung nach einer Erkrankung oder einem Erreger, gibt es zwei Ziele:

    • Der Test sollte zuverlässig alle finden, die wirklich krank sind, also niemanden übersehen – daraus ergibt sich die Sensitivität.
    • Der Test sollte zuverlässig nur die finden, die wirklich krank sind, also bei niemandem positiv ausfallen, der nicht krank/infiziert ist – das ergibt die Spezifität.

Die Sensitivität gibt an, bei wie viel Prozent der Tests das untersuchte Merkmal (COVID-19) korrekt erkannt wird, also ein „richtig-positives“ Testresultat auftritt. Die Spezifität hingegen gibt die Wahrscheinlichkeit an, mit der tatsächlich Gesunde richtigerweise als gesund beziehungsweise „richtig-negativ“ erkannt werden. Je größer diese Werte liegen, desto besser ist der Test. Dennoch übersieht jeder Test mit einer noch so kleinen Fehlerrate einen Teil der tatsächlich Kranken oder Infizierten.

Das heißt, der Test zeigt negative Testergebnisse bei Menschen, die eigentlich hätten positiv ausfallen müssen, sogenannte „falsch-negative Ergebnisse“. Außerdem kann der Test positive Testergebnisse bei Menschen anzeigen, die eigentlich hätten negativ ausfallen müssen, weil diese Menschen nicht krank/infiziert sind, sogenannte „falsch-positive Ergebnisse“.

Antigen- und PCR-Tests: Fehlerquote 0,1 bis 30 Prozent

Das Robert Koch-Institut (RKI) gibt für PCR-Tests weder für Spezifität noch Sensitivität exakte Werte an. In den Antworten auf Häufig gestellte Fragen hießt es:

Aufgrund des Funktionsprinzips von PCR-Tests und hohen Qualitätsanforderungen liegt die analytische Spezifität bei korrekter Durchführung und Bewertung bei nahezu 100 %.“

Nahezu 100 Prozent kann 99,9 Prozent oder 95 Prozent bedeuten – beides ergibt mathematisch korrekt gerundet 100 Prozent. Eine im April 2020 erfolgte Qualitätskontrolle unter der Leitung von Prof. Zeichhardt vom Institut für Qualitätssicherung in der Virusdiagnostik gab die durchschnittliche Spezifität der PCR-Tests (Untersuchung des Rachenabstrichs auf Coronaviren) mit 99,3 Prozent an. Unabhängig davon bezifferte eine Studie der Johns Hopkins School of Medicine die Sensitivität dieses Testverfahrens unter realen Bedingungen und den Testkriterien in Deutschland auf etwa 70 Prozent.

Für Antigen- oder Schnelltests nennt das RKI in einem Eckdaten-Papier des lokalen Corona-Monitorings für Straubing exakte Zahlen. Hierbei liegt die Sensitivität bei 88,3 Prozent. Die Spezifität gibt das RKI mit 99,4 Prozent an.

Sowohl für PCR- als auch Schnelltests gilt jedoch, dass die unsachgemäße Anwendung zu Fehlern führen kann. Das hat auch die WHO erkannt und warnt ausdrücklich: PCR-Anwender „sollten [die] Gebrauchsanweisungen sorgfältig lesen“. Je nach Hersteller steht dort, dass der Test für Patienten bestimmt ist, „die Symptome der COVID-­19 aufweisen“. Im Umkehrschluss bedeutet das, PCR-Tests sind nicht für die Untersuchung asymptomatischer Personen vorgesehen. Die angegebenen Fehlerquoten können daher nur für symptomatische Patienten gelten.

Sofern nicht anders angegeben, werden für die nachfolgende Betrachtung sowohl Spezifität als auch Sensitivität für PCR-Tests von 99,9 Prozent angenommen.

19 von 20 „positiv Getesteten“ sind gesund

Aus Sensitivität und Spezifität ergeben sich zwei weitere statistische Größen, die die Genauigkeit der Testergebnisse veranschaulichen. Der positive Vorhersagewert (positive predictive value, PPV) gibt die Wahrscheinlichkeit an, mit der ein positiv erhobenes Testergebnis tatsächlich auf eine COVID-19-Erkrankung hinweist. Der negative Vorhersagewert (NPV) gibt analog die Wahrscheinlichkeit an, mit der ein negatives Testergebnis richtig ist.

Die mathematischer Herleitung erfolgt anhand einer Vierfeldertafel mit den Merkmalen „infiziert/nicht infiziert“ und „positiv/negativ getestet“. Darüber hinaus bietet das Internet Werkzeuge zur Ermittlung der beiden statistischen Kenngrößen. [Hinweis der Redaktion zur richtigen Rechenweise: Beim Online-Tool besteht die virtuelle Testgruppe aus zehntausend statt einhunderttausend Personen, sodass die täglich veröffentlichten Inzidenz-Werte durch zehn geteilt werden müssen, um ein realistisches Bild zu erhalten.]

Für die angenommenen Werte für Sensitivität und Spezifität von je 99,9 Prozent sowie der aktuellen (9. Januar 2021) bundesweiten Corona-Inzidenz von 154 Fällen pro 100.000 Einwohnern – vorausgesetzt alle gemeldeten Fälle (0,15 Prozent der Bevölkerung) sind tatsächlich infiziert – ergibt sich ein PPV von 60,98 Prozent. Das heißt, 60 Prozent der positiven Tests liegt tatsächlich eine Corona-Infektion zugrunde. Gleichzeitig bedeutet dieser Wert jedoch auch, dass 40 Prozent oder etwa jedes zweite positive Testergebnis falsch ist.

Mit den Werten von Prof. Zeichhardt und der Johns Hopkins School of Medicine sinkt der PPV für PCR-Tests auf 13,7 Prozent oder „nur jeder Achte Positive ist infiziert“. Ein Antigen-(Schnell-)Test zeigt unter Annahme praxisnaher Werte von 80 Prozent Sensitivität und 98 Prozent Spezifität nur in 5,7 Prozent der Fälle ein richtig-positives Ergebnis an. Das heißt, 19 von 20 positiv Getesteten sind gesund.

Corona-Inzidenz unter 100 mit PCR-Tests nicht erreichbar

Für den niedersächsischen Landkreis Friesland registrierte das RKI am 10. Januar 42 Corona-Positive pro 100.000 Einwohner (7-Tage-Inzidenz). Wiederum unter der Voraussetzung, dass alle Positiven tatsächlich infiziert sind, ergibt sich dort ein PPV (für 99,9 Prozent genaue PCR-Tests) von 29,0 Prozent. Das heißt: Nur einer von vier positiv Getesteten ist tatsächlich infiziert. Der Schnelltest-PPV liegt bei etwa 1,5 Prozent.

Im sächsischen Landkreis Bautzen betrug die 7-Tage-Inzidenz 545,4 (RKI-Dashboard, 10.1., 12:50 Uhr). Der dazugehörige PPV liegt bei 85,1 Prozent: Fünf von sechs PCR-Positiven sind tatsächlich infiziert. Der PPV für Schnelltests liegt unter diesen Umständen bei 18,2 Prozent.

Steigt die Prävalenz – die Zahl der tatsächlich Infizierten –, steigt auch die Genauigkeit der Tests. Andererseits zeigt auch ein zu 99,9 Prozent zuverlässiger Test 0,1 Prozent Fehler an. In einer vollständig Corona-verseuchten Bevölkerungsgruppe von 100.000 Personen sind daher immer noch 100 falsch-negative Testergebnisse zu erwarten – und in einer nachweislich gesunden Bevölkerung 100 falsch-positive Ergebnisse und damit eine Corona-Inzidenz von 100.

Mit den von Prof. Zeichhardt und der Johns Hopkins School of Medicine ermittelten Werten, könnte die Inzidenz – in einer vollständig durchgetesteten, gesunden Bevölkerungsgruppe – nicht unter 700 sinken.

Die aktuellen Werte zwischen 42 und 545 ergeben sich, wenn beispielsweise nur ein Teil der Bevölkerung getestet wird und aus dieser Stichprobe auf die Gesamtheit geschlossen wird. So registrierte das RKI binnen der letzten sieben Tage in Bautzen 1.635 Corona-Positive (RKI-Dashboard, 10.1., 12:50 Uhr) – von denen rechnerisch jeder sechste falsch positiv ist. Bezogen auf die Gesamtbevölkerung des Landkreises von etwa 300.000 Einwohnern, errechnet sich die aktuelle Inzidenz von 545,4 pro 100.000.

Update 11. Januar

Eine frühere Version dieses Artikels verwies auf eine ungeprüfte Quelle, die Aussage des Artikels war davon nicht betroffen. Seit Veröffentlichung des Artikels wurden die eingangs erwähnten Maßnahmen beschlossen, außerdem erfolgte eine Aktualisierung der Zahlen anhand des COVID-19-Dashboards (zuletzt aufgerufen 10.1., 12:50 Uhr) des RKIs.

Dieser Beitrag stellt ausschließlich die Meinung des Verfassers dar. Er muss nicht zwangsläufig die Sichtweise der Epoch Times Deutschland wiedergeben.



Steigt der Meeresspiegel immer schneller? (T1/2)

Leider allerdings nur wieder ein Beispiel, wie angebliche „Wissenschaftler“ gemeinsam mit unseren Medien den Bürger bewusst belügen bzw. ihm nicht die ganze Wahrheit sagen. Auf kaltesonne wurde es thematisiert [2]. Da die Info dort etwas kurz geraten ist und den Sachverhalt nur anreißt, anbei eine etwas längere Ausführung.

Der Meeresspiegel steigt. Und nicht nur das: Er steigt immer schneller…

…verkündete Prof. Rahmstorf (PIK) im Spiegel [1]. Und er wusste dazu zu erzählen, dass man auch wisse, warum das so ist: „[1] Wie stark der Klimawandel diesen Effekt treibt, ist inzwischen weitgehend entschlüsselt … “. Dazu erzählt er auch, dass die Satelliten den Meerespegel aus einer Bahnhöhe von ca. 1.320 km auf einen Millimeter genau ausmessen könnten: „Die Laufzeit der Wellen erlaubt es, den mittleren globalen Meerespegel auf einen Millimeter genau zu bestimmen“.

Um dann mit der Hiobsbotschaft zu ergänzen: „Seit 1992 ist der globale Meeresspiegel um neun Zentimeter gestiegen. Die Anstiegsgeschwindigkeit hat sich in dieser Zeit mehr als verdoppelt, von 2,1 auf 4,8 Millimeter pro Jahr ... „

Bild 1 [1] Meerespegelverlauf. Darstellung von Prof. Rahmstorf
Dazu passt auch die Wiederholung der Information, wonach der Meerespegel die letzten 2.000 Jahre fast unverändert blieb, nun aber ebenfalls so etwas wie einen „Hockeyschläger-Verlauf“ ausbildet:
[1] Doch schon dieser Anstieg ist einzigartig mindestens seit der Geburt Christi: Sedimentdaten zeigen, dass es seither in keinem Jahrhundert mehr als fünf Zentimeter Anstieg gegeben hat, und Jahrhunderte mit steigendem und fallendem Pegel hielten sich in etwa die Waage

Bild 2 [4] historischer und aktueller Meerespegelverlauf
Wenn irgend jemand vom PIK „spricht“, ist eine Erwähnung der Kipppunkte „unvermeidbar“, schließlich hat diese im Wesentlichen ihr ehemaliger Chef, Herr Schellnhuber, simuliert und propagiert:
[1] Die Eismassen haben seit Jahrzehnten bekannte Kipppunkte durch die Eis-Höhen-Rückkopplung in Grönland und die marine Eisschildinstabilität in der Antarktis. Der Kipppunkt für Grönland (genug für sieben Meter Meeresspiegel) liegt wahrscheinlich irgendwo zwischen einem und drei Grad globaler Erwärmung – nach der besten Abschätzung bei 1,6 Grad. Der Kipppunkt für die Westantarktis (genug für drei Meter Meeresspiegel) ist wahrscheinlich sogar schon überschritten …

Eine aktuelle Studie liest aus den gleichen Daten etwas anderes heraus

Beim Klimawandel bleibt und ist nichts im „Konsens“ oder gar wie oft behauptet „settled“. Wie immer gibt es Wissenschaftler, die zum genau gleichen Datensatz ganz anderes berichten. So auch wieder in diesem Fall:
[5] H. Bâkiİz and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era
Abstract: Recent studies reported a uniform global sea level acceleration during the satellite altimetry era (1993– 2017) by analyzing globally averaged satellite altimetry measurements. Here, we discuss potential omission errors that were not thoroughly addressed in detecting and estimating the reported global sea level acceleration in these studies. Our analyses results demonstrate that the declared acceleration in recent studies can also be explained equally well by alternative kinematic models based on previously well-established multi-decadal global mean sea level variations of various origins, which suggests prudence before declaring the presence of an accelerating global mean sea level with conidence during the satellite altimetry era.
(Leicht angepasste) deepl-Übersetzung: Zusammenfassung: Jüngste Studien berichteten über eine einheitliche globale Meeresspiegel-Beschleunigung während der Satellitenaltimetrie-Ära (1993- 2017) durch die Analyse von global gemittelten Satellitenaltimetrie-Messungen.
Hier diskutieren wir mögliche Auslassungsfehler die bei der Erkennung und Schätzung der berichteten globalen Meeresspiegelbeschleunigung in diesen Studien nicht gründlich behandelt wurden.
Unsere Analyseergebnisse zeigen, dass die angegebene Beschleunigung in den jüngsten Studien ebenso gut auch durch alternative kinematische Modelle erklärt werden kann, die auf gut etablierten multidekadischen globalen mittleren Meeresspiegelschwankungen unterschiedlicher Herkunft basieren. Was zur Vorsicht mahnt, bevor man Erklärungen vertraut, welchen das Vorhandensein eines sich beschleunigenden globalen mittleren Meeresspiegels während der Satelliten Altimetrie-Ära postulieren.
Dem Abstrakt setzten die zwei Studienautoren noch ein Zitat nach: “Nothing is always absolutely so” Sturgeon, The Claustrophile, 1956

In der Studie werden zuerst Daten verschiedener Studien, welche Beschleunigungen im Anstieg der Meerespegel- berichten gelistet und dazu, dass darin (fast immer) keine stichhaltigen Belege enthalten sind. Dann kommt eine eigene Analyse der Satellitendaten:
[5]We analyzed monthly and globally averaged satellite altimetry, SA, global sea level time series to demonstrate that one of the most important approaches to earliest possible detection of a signicant GMSL acceleration lies in recognizing and separating the eect of natural internal forcing of the oceans compounded with the variability of astronomical origin that are not limited to the SA era. We also quanti- ed unusually highly autocorrelated noise in the SA time series, which were not rigorously addressed in recent studies …
(Leicht angepasste) deepl-Übersetzung: ... Wir analysierten monatliche und global gemittelte Zeitreihen der Satellitenaltimetrie SA, (und) des globalen Meeresspiegels, um zu zeigen, dass einer der wichtigsten Ansätze zur frühestmöglichen Erkennung einer signifikanten GMSL-Beschleunigung in der Erkennung und Trennung des Effekts natürlicher interner Antriebe der Ozeane zusammen mit der Variabilität astronomischen Ursprungs (Einfügung. Bsp. Sonnenvariabilität) liegt, die nicht auf die Satelliten-Ära beschränkt sind.
Wir quantifizierten auch ungewöhnlich stark autokorreliertes Rauschen in den SA-Zeitreihen, das in den aktuellen Studien nicht konsequent behandelt wurde …

Dann kommt eine Übersichtsgrafik der Satelliten-Pegelreihe (Bild 3). Eigentlich zeigt dieses Bild schon (fast) alles über die alarmistische Aussage von Herrn Rahmstorf und was dieser bewusst dazu nicht gesagt hat: Dass die Pegel-Änderungsrate vom Messbeginn an zyklisch um +- diesen Wert pendelt und aktuell wieder bei Null angekommen ist.

Bildtext: Fig. 1. Globally and monthly averaged sea level anomalies as observed by Satellite Altimetry (Blue), superimposed with the residuals of the OLS. – Bild 3 [5] Satelliten-Pegelreihe (Anomalie) mit der Pegel-Änderungsrate (Residuals). Grafik vom Autor ergänzt
Beim Vergleich der erkennbaren Zyklen zeigt sich (was „Kaltesonne“ auch erwähnt), ein mehr als signifikanter Einfluss von Klimazyklen:

Fig. 3. MEI and Solution I monthly OLS residuals (mm) during the SA period. – Bild 4 [5] Korrelation der Pegel-Residuen (Bild 3) mit den ENSO-Zyklen

Schlussfolgerung

Was Herr Rahmstorf wie üblich als eine „gesicherte Kenntnis“ publiziert, zeigt sich beim näheren Betrachten (wieder) als höchst spekulativ:
[5] ... Conclusion
Recent analyses of SA time series by Nerem at al., (2018) and Ablain et al., (2019) and others declaring a GMSL acceleration are far from exhaustive for such an important topic. Uncertainty is one of the essential components in assessing variability in global sea level in the context of GMSL budget to ascertain anthropogenic contributions. The omission of the eect of potential confounders including a potential jerk or multidecadal sea level variations (Ablain at al., 2019), or using a conjecture that they will average out because of the superior global coverage of SA by Nerem at al. (2018) is a leap of faith without evidence in quantifying a GMSL acceleration and its uncertainty using globally averaged SA time series. Moreover, conducting projections as in Nerem at al. (2018) without ascribing proper uncertainties to the model estimates have no meaning. Until the uncertainty of a recent GMSL acceleration is established in the context of “total evidence”, i.e. in the light of systematic global sea level variations during the 20th century revealed by TG measurements together with the available SA time series, any prediction of a GMSL rise ought to be made with extreme prudence.

(Leicht angepasste) deepl-Übersetzung: Schlussfolgerung
Die jüngsten Analysen der SA-Zeitreihen von Nerem at al. (2018) und Ablain et al. (2019) und anderen, die eine GMSL-Beschleunigung erklären, sind bei weitem nicht erschöpfend für ein so wichtiges Thema.
Die Unsicherheit ist eine der wesentlichen Komponenten bei der Bewertung der Variabilität des globalen Meeresspiegels im Rahmen des GMSL-Budgets, um die anthropogenen Beiträge zu ermitteln. Die Auslassung des Einflusses potenzieller Störfaktoren, einschließlich eines potenziellen Rucks oder multidekadischer Meeresspiegelschwankungen (Ablain at al., 2019), oder die Verwendung einer Vermutung, dass sie sich aufgrund der überlegenen globalen Abdeckung von SA durch Nerem at al. (2018) ausmitteln werden, ist ein Vertrauensvorschuss ohne Beweise bei der Quantifizierung einer GMSL-Beschleunigung und ihrer Unsicherheit unter Verwendung global gemittelter SA-Zeitreihen. Darüber hinaus ist die Durchführung von Projektionen wie in Nerem at al. (2018), ohne den Modellschätzungen angemessene Unsicherheiten zuzuschreiben, sinnlos.
Solange die Unsicherheit einer rezenten GMSL-Beschleunigung nicht im Kontext der „Gesamtevidenz“, d. h. im Lichte systematischer globaler Meeresspiegelschwankungen während des 20. Jahrhunderts, die durch TG-Messungen zusammen mit den verfügbaren SA-Zeitreihen aufgedeckt wurden, ermittelt ist,
sollte jede Vorhersage eines GMSL-Anstiegs mit äußerster Vorsicht erfolgen.

Satellitepegel

Anbei anhand der Originaldaten eine Plausibilitätssichtung.
Die Satellitendaten werden gängig wie in Bild 5 dargestellt. Der quadratische, stetig schlimmer steigende Regressions-Fit erscheint in dieser Darstellung plausibel und „zwingend“:

Bild 5 Pegeldaten der verschiedenen Messsatelliten mit der quadratischen Pegel-Anstiegskurve

Im WEB sind die Satellitendaten hinterlegt und lassen sich laden. Daraus ergibt sich Bild 6, welches dem Bild 5 in höherer Auflösung entspricht.
Trägt man darin Verlaufsbegrenzungslinien ein, zeigt sich, dass der quadratisch – stetig schlimmer ansteigende – Fit überhaupt nicht zwingend ist. Ein bisheriger – und weiterhin – linearer Anstieg hat genau so gut seine „Berechtigung“ (wie es die Studie [5] auch feststellt).
Der quadratisch steigende Fit zeigt sich demnach lediglich als eine Hypothese und ist durch nichts (außer, dass der Verlauf mathematisch hineinpasst) begründet.

Man muss sich klar machen, dass die Satelliten aus ca. 1.320 km Entfernung den Meeres-Pegel auf den Millimeter genau messen können sollen (was auf Meereshöhe und direkt daneben angeblich nur ungenau erfolgt). Das mag theoretisch stimmen, wenn man alleine die Laufzeit-Messgenauigkeit betrachtet. In Wirklichkeit wird die Laufzeit das Messsignal jedoch durch externe Einflüsse verfälscht, teils driften die Messapparaturen und die Satelliten selbst „taumeln“ mit den Änderungen des Erd-Schwerefeldes. Den Pegelwert bekommt man erst nach vielen, vielen Korrekturen und Anpassungen. Teils werden diese sogar noch nach Jahren nachträglich korrigiert. Es ist also gar nicht sicher, dass die Satelliten-Pegelmesskurve wirklich mit der angegebenen Genauigkeit stimmt.

Herr Rahmstorf ist allerdings überzeugt – zumindest sagt er es -, dass die Satelliten es auf den Millimeter genau könnten. Allerdings ist immer noch ungeklärt, warum die ja weiterhin durchgeführten Tidenpegelmessungen und die Satellitenpegel eine große Abweichung im Pegeltrend aufweisen (Tidenpegel: 1,5 … 2 mm/pa, Satellitenpegel 3,3 mm/pa).
Anmerkung: Diese Abweichung ist der Grund, warum im Pegel-Verlaufsbild (Bild 1) mit den angefügten Satellitendaten so ein großer Beschleunigungsanstieg erfolgt. Es ist der gleiche „Datenbetrug“ wie beim Hockeystick, wo ebenfalls zwei unterschiedliche Messarten mit systembedingt unterschiedlichen Messergebnissen gekoppelt wurden.

Bild 6 Original-Satellitendaten (3,4 mm/pa). Grafik vom Autor erstellt

Aus diesen Originaldaten lässt sich auch der Verlauf der Pegel-Änderungsrate ermittelt (zum Vergleich mit Bild 3). Die von Rahmstorf genannten, 4,8 mm/pa mit steigender Tendenz erscheinen nun unplausibel und nur eine kurzfristige Momentaufnahme.

Bild 7 Satelliten-Pegel-Änderungsrate (Residuals) als Absolutwerte und als Steigungswerte der Regressionsgeraden. Grafik vom Autor erstellt

Fazit

Der von Prof. Rahmstorf dem Spiegel erzählte, hohe und beschleunigte Meerespegelanstieg ist eher falsch als richtig. Und dies ist anhand der Daten so deutlich erkennbar, dass von einer bewussten Alarmisierung ausgegangen werden muss.
Der „Spiegel“ macht sich dabei eindeutig einer „Mittäterschaft“ schuldig, da zumindest „er“ als unabhängige Institution auch auf die vorliegenden, der Aussage von Herrn Rahmstorf entgegenstehenden Studien und Daten hätte hinweisen müssen.

Damit endet Teil 1. Im zweiten Teil wird der aktuelle Meerespegel-Änderungszustand anhand von Pegeldaten in der (angeblich) am meisten davon betroffenen Region – der Südsee – gezeigt.

Quellen

[1] SPIEGEL Wissenschaft, Rahmstorf 15.12.2020: Klimakrise Warum der Meeresspiegel immer schneller steigt

[2] kaltesonne 23.12.2020: Die Welt säuft ab…wirklich?

[3] STERN, 26.12.2020: Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen

[4] RAHMSTORF 22. Feb 2016. SciLogs > KlimaLounge > Allgemein > Meeresspiegel über die Jahrtausende

[5] H. Bâkiİz* and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era

[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

[7] DKK, Schrift: Zukunft der Meeresspiegel

 




Klimaschau 5 – die Tagesschau von Sebastian Lüning

Vorschau nicht zu sehen? HIER KLICKEN?




Wärme und Kälte

Teilweise entspricht dies meinen Erwartungen. Aber ich habe keinesfalls erwartet, dass der größte Teil Südamerikas zu den sich am stärksten abkühlenden Gebieten der Erde gehört.

Hier ist das hervor stechende Phänomen, dass sich fast der gesamte Nordatlantik abkühlt … das habe ich nicht kommen sehen. Gleiches gilt für den zentralen Indischen Ozean.

Dadurch aufmerksam geworden wollte ich nun auch einen Blick auf die Hot Spots werfen. Hier also die gleichen Ansichten, nur diesmal mit den Gebieten, welche sich stärker als 0,25°C pro Dekade erwärmen:

Der gesamte östliche Pazifik erwärmt sich rasch … ebenso wie der zentrale Südliche Indische Ozean. In Australien ist das teilweise der Fall:

Einige Gebiete im östlichen Brasilien erwärmen sich rasch … während im westlichen Brasilien das Gegenteil der Fall ist. In Nordafrika wird es wärmer, in Südafrika kälter. Und in ganz Sibirien wird es wärmer … so etwas!

Ich ziehe jetzt keine übermäßigen Schlussfolgerungen aus all dem … außer dass ich überrascht war, dass rund ein Viertel der Welt sich abkühlt…

Link: https://wattsupwiththat.com/2020/12/28/blowing-hot-and-cold/

Übersetzt von Chris Frey EIKE




Neu entdeckter Lavadom unter Grönland treibt thermische Aktivitäten in der Arktis

„Das Wissen über den Lavadom unter Grönland wird unser Verständnis der vulkanischen Aktivitäten in diesen Regionen und der problematischen Frage des globalen Meeresspiegelanstiegs durch das Abschmelzen des grönländischen Eisschildes verbessern“, sagt Dr. Genti Toyokuni, Mitautor der Studien.

Die nordatlantische Region ist voll von geothermischer Aktivität. Auf Island und Jan Mayen gibt es aktive Vulkane mit ihren eigenen ausgeprägten Mantelplumes, während Spitzbergen – eine norwegische Inselgruppe im Arktischen Ozean – ein geothermisches Gebiet ist. Der Ursprung dieser Aktivitäten und ihre Verflechtung sind jedoch weitgehend unerforscht.

Das Forscherteam entdeckte, dass der Grönland-Dom von der Kern-Mantel-Grenze zur Mantelübergangszone unter Grönland aufstieg. Er hat außerdem zwei Verzweigungen im unteren Mantel, die in andere Plumes in der Region münden und aktive Regionen in Island und Jan Mayen sowie das geothermische Gebiet in Spitzbergen mit Wärme versorgen.

Abbildung: Ein schematisches Diagramm, das die wichtigsten tektonischen Merkmale und Mantelplumes unter Grönland und den umliegenden Regionen zeigt. Vp = P-Wellen-Geschwindigkeit; MAR = der Mittelatlantische Rücken; MTZ = die Mantelübergangszone (410-660 km Tiefe); CMB = die Kern-Mantel-Grenze in 2889 km Tiefe. ©Tohoku University

Ihre Erkenntnisse basierten auf Messungen der seismischen 3-D-Geschwindigkeitsstruktur der Kruste und des gesamten Mantels unter diesen Regionen. Um die Ergebnisse zu erhalten, nutzten sie die seismische Tomographie. Zahlreiche Ankunftszeiten seismischer Wellen wurden invertiert, um 3-D-Bilder der Untergrundstruktur zu erhalten. Die Methode funktioniert ähnlich wie ein CT-Scan des menschlichen Körpers.

Toyokuni konnte dabei Seismographen nutzen, die er im Rahmen des Greenland Ice Sheet Monitoring Network auf dem grönländischen Eisschild installiert hat. An diesem im Jahre 2009 ins Leben gerufenen Projekt arbeiten Forscher aus 11 Ländern zusammen. Das US-amerikanisch-japanische Team ist vor allem für den Bau und die Wartung der drei seismischen Stationen auf dem Eisschild verantwortlich.

Die ganze Presseerklärung steht hier. Links zu den entsprechenden Studien:

Title: P wave tomography beneath Greenland and surrounding regions: 1. Crust and upper mantle
Authors: Genti Toyokuni, Takaya Matsuno, Dapeng Zhao
Journal: Journal of Geophysical Research: Solid Earth
DOI: 10.1029/2020JB019837

Title: P wave tomography beneath Greenland and surrounding regions: 2. Lower mantle
Authors: Genti Toyokuni, Takaya Matsuno, Dapeng Zhao
Journal: Journal of Geophysical Research: Solid Earth
DOI: 10.1029/2020JB019839

Link: https://wattsupwiththat.com/2020/12/29/newly-discovered-greenland-plume-drives-thermal-activities-in-the-arctic/

Übersetzt von Chris Frey EIKE




Wassertemperatur der Ozeane – was wissen wir wirklich?

Der nächste Beitrag [auf Deutsch hier] behandelt die Mischschicht, die eine Schicht mit gleichmäßiger Temperatur direkt unter der Hautschicht ist. Die gemischte Schicht sitzt oberhalb der Sprungschicht, wo die Wassertemperatur schnell zu fallen beginnt. Der nächste Beitrag [auf Deutsch hier] behandelte die Unterschiede zwischen verschiedenen Schätzungen der SST, die verwendeten Daten und die Probleme mit den Messungen und den Korrekturen. Der Schwerpunkt lag dabei auf den beiden Hauptdatensätzen, HadSST und NOAAs ERSST [auf Deutsch hier]. Der letzte Beitrag diskutiert SST-Anomalien [auf Deutsch hier] war die Logik, wenn alle Messungen von knapp unter der Meeresoberfläche stammen, warum werden dann Anomalien benötigt? Warum können wir nicht einfach die Messungen verwenden, korrigiert auf eine nützliche Tiefe, wie 20 cm?

Hintergrund aller Beiträge ist es, die Analyse so nah wie möglich an den Messungen auszurichten. Zu viele Korrekturen und Datenmanipulationen verwirren die Interpretation, entfernen uns von den Messungen und homogenisieren die Messungen in einem solchen Ausmaß, dass wir ein falsches Gefühl von Vertrauen in das Ergebnis bekommen. Diese durch die Überarbeitung von Daten entstehende Illusion von Genauigkeit wird von William Brigg hier diskutiert. Sein Beitrag befasst sich mit der Glättung von Daten, aber die Argumente gelten auch für die Homogenisierung von Temperaturen, die Erzeugung von Anomalien vom Mittelwert und die Korrektur von Messungen durch statistische Verfahren. All diese Prozesse lassen „die Daten besser aussehen“ und geben uns ein falsches Gefühl von Vertrauen. Wir wissen nicht, wie viel von den resultierenden Diagrammen und Karten auf die Korrekturen und Datenmanipulationen zurückzuführen ist und wie viel auf die zugrunde liegenden Messungen. Wir sind Schritt für Schritt durch alle möglichen Verarbeitungen gegangen und haben bei jedem Schritt untersucht, wie die Temperaturen wirklich aussahen.

Wichtung nach Gebieten

Die in all diesen Beiträgen verwendeten Daten mit Ausnahme der frühesten Beiträge zu den Landmessungen im Hauptgebiet der USA stammen alle aus Breiten- und Längengrad-Gittern. Die Rasterung der Messungen ist global erforderlich, da die Messungen hauptsächlich auf der Nordhalbkugel konzentriert sind und anderswo nebst den beiden Polarregionen sehr spärlich. Wie wir bereits gezeigt haben, sind die Temperaturen der nördlichen Hemisphäre anomal, der Rest der Welt ist viel weniger variabel in seiner Oberflächentemperatur. Siehe hier eine Diskussion hierüber und einige Grafiken. Siehe diesen Beitrag von Renee Hannon und diesen vom gleichen Autor, für weitere Details zu den hemisphärischen Variationen in den Temperaturtrends.

Während eine Rasterung wahrscheinlich nicht notwendig ist und irreführend sein kann, müssen wir in Gebieten wie den USA, die gut mit guten Wetterstationen abgedeckt sind, die verfügbaren Daten rastern, um einen globalen SST-Durchschnitt zu erstellen. Das soll nicht heißen, dass die Rasterung gute Messungen ersetzt oder die Messungen verbessert, sondern nur, dass sie mit den uns zur Verfügung stehenden Daten notwendig ist.

Jede Gitterzelle repräsentiert einen anderen Bereich des Ozeans. Der Unterschied ist nur eine Funktion des Breitengrades. Jeder Breitengrad ist 111 km vom nächsten entfernt. Der Abstand de Längengrade am Äquator beträgt ebenfalls 111 km, nimmt aber an den Polen auf Null ab. Um also die Fläche jeder Gitterzelle zu berechnen, müssen wir nur den Breitengrad der Zelle und die Größe der Gitterzellen in Breiten- und Längengraden kennen. Die Lösung wird von Dr. Math (National Council of Teachers of Mathematics) bereitgestellt und abgeleitet, hier. Ich werde die Erzählung nicht mit einer Gleichung unterbrechen, aber der am Ende des Beitrags verlinkte R-Code zeigt die Gleichung und wie sie verwendet wurde.

Es mag seltsam erscheinen, eine so offensichtliche Korrektur an den Daten als letztes vorzunehmen, aber ich wollte ehrlich gesagt sehen, ob es einen großen Unterschied macht. Es stellt sich heraus, dass es einen erheblichen Unterschied in der berechneten Durchschnittstemperatur macht, aber wenig Unterschied in den Trends. Unten in Abbildung 1 ist die ursprüngliche Abbildung aus dem Beitrag über die gemischte Schicht zu sehen, die verschiedene Schätzungen der SST und der globalen Durchschnittstemperatur der gemischten Schicht vergleicht. Normalerweise, vor allem in der Nacht, liegen die gemischte Schicht und die SST sehr nahe beieinander, so dass man sie alle zusammen plotten kann.

Abbildung 1. Der Vergleich der globalen Temperaturschätzungen für die gemischte Schicht und die SST aus dem Beitrag über die gemischte Schicht. Für eine Erklärung des Plots siehe diesen Beitrag.

Die Kurven in Abbildung 1 sind alle auf eine Tiefe zwischen 20 cm und einem Meter korrigiert. Sie sind Gittermittelwerte, d.h. Mittelwerte von gerasterten Werten, aber sie sind nicht für das Gebiet korrigiert, das durch jeden Gitterwert repräsentiert wird. Abbildung 2 zeigt das gleiche Diagramm, ist aber mit flächengewichteten Gitterzellenwerten konstruiert worden. Wir haben auch eine neue Kurve hinzugefügt, die NOAA ERSST-Kurve, nachdem wir die ERSST-Werte gelöscht haben, die den Nullwerten im HadSST-Datensatz entsprechen. Auf diese Weise vergleichen wir ERSST und HadSST über die gleichen globalen Ozeanbereiche. Der normale ERSST-Datensatz (die untere grüne Linie in Abbildung 1 und die untere braune Linie in Abbildung 2) verwendet Interpolation und Extrapolation, um Gitterzellen zu füllen, die unzureichende Daten haben; diese Zellen sind in HadSST null.

Auf den ersten Blick sehen die beiden Diagramme sehr ähnlich aus, aber man beachte, dass sich die vertikale Skala geändert hat. Alles ist um zwei bis vier Grad nach oben verschoben, da die Polarregionen Zellen mit kleineren Flächen haben. Die NOAA ICOADS SST-Linie befindet sich an der gleichen Stelle, da sie bereits flächenkorrigiert wurde. Es ist auch die Linie, die den Messungen am nächsten kommt. Die Prozesse, die zur Erstellung dieser Linie verwendet werden, sind viel einfacher und weniger kompliziert als die von HadSST und ERSST verwendeten. Der Unterschied zwischen HadSST und ERSST ist immer noch da, aber kleiner. Diese beiden Temperaturaufzeichnungen verwenden ähnliche Daten, aber, wie oben beschrieben, ist ihre Rasterung unterschiedlich und sie decken verschiedene Gebiete ab. Sobald das ERSST-Gitter „maskiert“ ist, um mit HadSST übereinzustimmen, steigt es von 18,2 auf 22 Grad an.

Abbildung 2: Dies ist das gleiche Diagramm wie in Abbildung 1, mit dem Unterschied, dass alle Gitterwerte in den Datensätzen nach den Gitterzellenbereichen gewichtet sind, die sie darstellen. Man beachte, dass sich die vertikale Skala geändert hat.

Die mehrjährigen Gittermittelwerte von NOAA MIMOC und der Universität Hamburg liegen in beiden Diagrammen über dem NOAA ERSST-Datensatz, sind aber nach Anwendung des Algorithmus zur Flächengewichtung um etwa 4,5°C wärmer. NOAA MIMOC und die Universität Hamburg erstellen ihre Gitter unter Verwendung von mehr als 12 Jahre alten Daten, so dass sie viel mehr ihres Gitters bevölkern als die Einjahres-Datensätze. Sie wichten auch die Argo- und Bojendaten stark, genau wie NOAA ERSST.

Wie wir mit den ungewichteten Daten im letzten Beitrag [auf Deutsch hier] gesehen haben, tendieren die gemessenen Temperaturen von HadSST nach unten. Wenn das ERSST-Gitter mit den HadSST-Nullwerten maskiert wird, tendiert es ebenfalls nach unten. Dies ist in Abbildung 3 zu sehen.

Abbildung 3. Abnehmende SSTs über dem von HadSST abgedeckten Gebiet sind sowohl in den HadSST- als auch in den ERSST-Datensätzen erkennbar.

Der HadSST-Datensatz hat nur Gitterwerte aus Zellen, aus denen genügend Messungen vorhanden sind, um einen solchen Wert zu berechnen, sie extrapolieren keine Daten in angrenzende Gitterzellen wie ERSST. Somit repräsentieren die HadSST-Daten den Teil des Ozeans mit den besten Daten, und dieser Bereich nimmt eindeutig an Temperatur ab, wenn nur die Messungen verwendet werden. Die ERSST-Daten deuten auf einen Rückgang von 2,5 Grad/Jahrhundert hin. Der HadSST-Rückgang beträgt 1,6 Grad/Jahrhundert.

Die ERSST-Linie ohne Maske (Abbildung 2) zeigt einen steigenden Trend von 1,6 Grad/Jahrhundert. Die interpolierten und extrapolierten Bereiche zeigen also eine Erwärmung, die in den Zellen mit den besten Daten nicht zu sehen ist. Wie wir im letzten Beitrag gesehen haben und in diesem Beitrag als Abbildung 4 erneut zeigen, weisen die HadSST- und ERSST-Anomalien nichts von der Komplexität auf, für die wir sechs Beiträge gebraucht haben. Sie zeigen einen gemeinsamen Trend der Erwärmung, von etwa 1,7 Grad/Jahrhundert.

Abbildung 4. Die HadSST- und ERSST-Anomalien.

Schlussfolgerungen

Die beste Art und Weise, Daten zu analysieren, ist die Verwendung des absoluten Minimums an statistischer Manipulation, das erforderlich ist, um sie in einer brauchbaren Form zu präsentieren. Jede Korrektur, jede Berechnung, alle Glättungsoperationen, jeder Rasterungsschritt muss vollständig begründet werden. Es ist eine unglückliche Tatsache des heutigen wissenschaftlichen und technischen Lebens, dass unsere Kollegen ständig mit „das muss korrigiert werden“, „das muss korrigiert werden“ und so weiter kommen. Es wird wenig darüber nachgedacht, wie die Korrekturen unsere Wahrnehmung der resultierenden Diagramme und Karten beeinflussen. Mit genügend Korrekturen kann man einen Misthaufen in ein Schloss verwandeln, aber ist es wirklich ein Schloss?

Ich hatte einmal einen Chef, der sehr klug war. Er wurde schließlich CEO und Vorstandsvorsitzender der Firma, für die wir arbeiteten. Ich war damals viel jünger und gehörte zu den Wissenschaftlern auf der „Peanut Gallery“, die ständig fragten: „Was ist damit?“ „Was ist damit, haben Sie diese Dinge korrigiert?“ Mein Chef sagte dann: „Wir sollten uns nicht selbst übertreffen. Was sagen die Daten, so wie sie sind?“ Nachdem er CEO wurde, verkaufte er die Firma für das Fünffache des durchschnittlichen Basispreises meiner angesammelten Aktienoptionen. Ich war immer noch ein Wissenschaftler, wenn auch ein wohlhabender. Er hatte Recht, genau wie Dr. William Briggs. Studieren Sie die Rohdaten, behalten Sie sie in Ihrer Nähe, übertreffen Sie sich nicht selbst als Wissenschaftler.

——————————

Zu diesem Beitrag hat der Klima-Realist Marcel Crok von clintel.org eine Frage an den Autor gerichtet. Die Antwort desselben wird hier noch mit übersetzt. – Anm. d. Übers.:

Frage von Marcel Crok: Was schließen Sie aus Ihrer Abbildung 3? Wollen Sie damit sagen, dass die besten verfügbaren Daten darauf hindeuten, dass die Ozean-Temperatur abnimmt?

Antwort von Andy May:

Die allerbesten Daten sind in dieser Abbildung dargestellt. Aber sie repräsentiert nur einen Teil des Weltozeans, und das dargestellte Gebiet ändert sich ständig. Dieser sich ständig verändernde Bereich zeigt sinkende gemessene Temperaturen. Die Schiffe, Schwimmer und Bojen, die die Temperatur messen, sind ständig in Bewegung und verändern sich in jeder Zelle. Die Zellen mit Messungen ändern sich ständig. Die „Referenz“-Periode, zwischen 1961-2000, hat sehr schlechte Daten.

Die einzige Möglichkeit, mit diesen miserablen Daten eine positive Anomalie zu erhalten, besteht darin, monatliche Anomalien aus den Zellen mit vielen Messpunkten in diesem Monat zu erstellen und sie dann als einen Datensatz zu präsentieren. Aber es ist eine Aufzeichnung eines sich ständig ändernden Bereichs, was nützt das?

Weniger als die Hälfte des Ozeans hat gute Daten und diese Hälfte ändert sich ständig, da sich die Instrumente und Schiffe bewegen. Ich habe nur einen Jahresdurchschnitt gebildet, um saisonale Anomalien zu vermeiden. So ist die jährliche Durchschnittstemperatur der Zellen mit den besten Daten (wo auch immer sie sind) in den letzten 20 Jahren gesunken. Dies wurde in den letzten Stunden von Nick Stokes, einem australischen Klimatologen bei den WUWT-Kommentaren bestätigt.

Das Erzeugen von Anomalien, insbesondere die Art und Weise, wie HadSST und ERSST es getan haben, entfernt die gesamte zugrundeliegende Komplexität in den Daten und präsentiert eine irreführende Grafik, die auf sehr, sehr schlechten und nicht repräsentativen Daten basiert.

Meine persönliche Schlussfolgerung nach all dieser Arbeit? Wir haben keine Ahnung, was die durchschnittliche Temperatur des Weltozeans ist, noch wissen wir, ob er sich erwärmt oder abkühlt.

[Hervorhebung vom Übersetzer]

Link: https://andymaypetrophysicist.com/2020/12/23/ocean-sst-temperatures-what-do-we-really-know/

Übersetzt von Chris Frey EIKE




Klimaschutz und Virenhysterie: Instrumente des kommenden Machtmodells – Teil 1

Zahlreiche Autoren haben in den letzten Jahren gezeigt, dass wir derzeit in den westlichen OECD-Staaten, also in Europa und seinen ehemaligen Siedlerkolonien, eine Erosion des gesellschaftlichen Legitimitätsmodells der Nachkriegsära und die Herausbildung eines neuen, usurpatorischen (nicht legitimen) Herrschaftsmodells beobachten.

Ich betrachte im Folgenden die Eigenschaften des alten Modells, die Ursachen für den Übergang, sowie die Herrschaftstechniken und -probleme des neuen Machtmodells.

Jede urbane Gesellschaft benötigt ein Gewaltmonopol, weil Gesellschaften – anders als Gemeinschaften – mit ihren nicht nur auf persönlichen, sondern auch auf rechtlichen Normen beruhenden, anonymen sozialen Beziehungen zur Prävention von Gewalt darauf angewiesen sind [7]. Die Amtsträger, die dieses Monopol ausüben, neigen stets dazu, es für eigene Zwecke zu missbrauchen und ihre Stellung zu perpetuieren. Dies gilt für alle Staatsformen von den ersten Städten bis zur Demokratie der Nachkriegszeit, wobei die Arten des Missbrauchs um die Hauptthemen des Eigentums und der Gestaltungsmacht variieren. Das Ausmaß dieses Missbrauchs ist die Summe des illegitimen Herrschaftsertrages.

Mißbrauch des Gewaltmonopols ist immer an Eigentumskonzentration gebunden. Im extremsten Fall ist das Eigentum nahezu vollständig in den Händen des Herrschers konzentriert, der in traditionellen Gesellschaften dann den Status eines Gottes erhält. In Gesellschaften mit moderater Eigentumskonzentration ist die Tendenz zum Machtmissbrauch schwächer. Im Übergang vom Absolutismus des 17. und 18. Jahrhunderts zur konstitutionellen Monarchie und zur Republik im 19. Jahrhundert erfolgte eine deutliche Verbreiterung der Eigentumsbasis auf das Bürgertum, der Trägerschicht des neuen Herrschaftsmodells. Daher wurde der Eigentumsbegriff in den bürgerlichen Verfassungen seit 1776, anders als im Sozialismus, der Ideologie der Eigentumslosen, nicht problematisiert.

Die Nachkriegsordnung des Westens hatte folgende wesentliche tragende Strukturen: funktionstüchtige und verlässliche Rechtsstaatlichkeit mit einem historisch fast nie anzutreffenden Ausmaß an Isonomie wie im frühen römischen Prinzipat, repräsentative Demokratie mit einem geringen Ausmaß an Partizipation [5], homogene Bevölkerungsstruktur mit einem kleinen Anteil an Migranten, hohes Maß an innerer Sicherheit, außenpolitische Sicherheitsarchitektur unter der Hegemonie der USA, relativ breite Eigentumsverteilung und Goldbindung der Papierwährung.

Der Anteil der Bürger, die von der Nutzung des eigenen Besitzes lebten – sei es als Händler, Landwirte, Dienstleister oder Industrielle – lag bei etwa 15 bis 20 Prozent der Bevölkerung. Die überwältigende Mehrheit der unselbstständigen Angestellten arbeiteten in kleinen oder mittleren Betrieben mit einer persönlichen Beziehung zum Unternehmer. Insgesamt war die Legitimität dieser Ordnung bis in die 1970er Jahre hinein überwältigend, auch wenn die marxistische Studentenrevolte seit 1968 das Herrschaftsparadigma infrage zu stellen begann.

Die Voraussetzungen des neuen Herrschaftsmodells

Das heutige, illegitim-usurpatorische Modell hat Voraussetzungen, die in den 1970er Jahren zu finden sind und dann, nach einem langen Vorlauf, Ende der 1990er Jahre voll zu wirken begannen, um sich zum derzeitigen Zustand zu entfalten. Es handelt sich um drei wesentliche Gruppen.

Westmarxismus

Der wichtigste kulturelle Voraussetzung war der Westmarxismus mit zwei Varianten, einer aufklärerisch-idealistischen und einer Heidegger’sch-dekonstruktivistischen. Die erste Variante findet man beispielsweise in der Frankfurter Schule bei Max Horkheimer, Theodor W. Adorno und Jürgen Habermas sowie bei John Rawls, die zweite vor allem bei Michel Foucault, Jacques Derrida, François Lyotard, Richard Rorty, Paul de Man, oder Judith Butler. Beide Strömungen sind sehr gut untersucht [4, 8] – sogar am Ende seines Lebens von Richard Rorty selbst, der zu merken begann, dass etwas nicht stimmte [9].

Sehr verkürzt gesagt, dient diese Ideologie besonders in der dekonstruktivistischen Ausprägung dazu, dem Westen Selbstbewusstsein und Stolz auf die Errungenschaften der Zivilisation zu nehmen und diese als Geschichte von Unterdrückung und Ausbeutung im Inneren und nach Außen (Kolonialismus) umzudeuten, um so der freiheitlichen Gesellschaft das Substrat zu nehmen und eine kollektivistische Gesellschaftsform zu bahnen [2]. Beide Varianten sind in den 1980er Jahren eine Symbiose mit dem globalen Liberalismus eingegangen, viele der Vertreter beider Ideologien haben dessen Ideen aufgegriffen.

Fiktivwährung

Die Schaffung einer reinen Fiktivwährung war ein weiterer entscheidender ökonomischer Faktor. Als US-Präsident Richard Nixon 1971 die Goldbindung des Dollars, der Weltleitwährung im Bretton-Woods-System, aufhob, entstand schlagartig weltweit in allen bedeutenden Wirtschaftsnationen ein System der ungedeckten Papiergeldwährung – in Kombination mit dem Teilreservesystem der Banken (was bedeutet, dass Banken ein Vielfaches ihres Eigenkapitals als Kredite vergeben und Geld aus dem Nichts schöpfen können). Wie Rothbard [10], Hayek [3] und andere Vertreter der Österreichischen Schule gezeigt haben, führt diese Kombination zu einer unkontrollierten Ausweitung der Geldmenge, chronischer Inflation, massiv verschärften Konjunkturzyklen („boom and bust“), galoppierender Staatsverschuldung mit regelmäßigen Staatsbankrotten und vor allem zu einer radikalen Konzentration des Privateigentums auf einen sehr kleinen Teil der Bevölkerung.

Es seien hier zumindest kurz die wichtigsten Ursachen der Eigentumskonzentration genannt. Im System der Fiktivwährung mit Teilreserve wird ständig neues Geld geschaffen, und zwar deutlich schneller, als die Realwirtschaft wächst. Dadurch steigen die Preise, und zwar in einem Umfeld zunehmender Rationalisierung und Auslagerung von Arbeit in das Ausland vor allem die Preise für hochwertige Realgüter: Immobilien, Unternehmen, Edelmetalle und -steine sowie Kunstwerke und andere Sammlerstücke – zunächst nicht aber die Preise des alltäglichen Warenkorbes.

Dadurch werden Eigentümer dieser Güter im Verhältnis zu denen, die nur ihr Einkommen haben, automatisch wohlhabender. Außerdem erhalten diejenigen Akteure, die als erstes das frisch erschaffene Geld empfangen, einen höheren Wert als die Letztempfänger – wie Angestellte und Sozialhilfeempfänger. Insbesondere Anleger, die seit den 1970er Jahren am Finanzsektor beteiligt waren, konnten sich durch die Kombination dieser Effekte massiv bereichern. Die Verzinsung ihrer Vermögen war viel höher als die Einkommenszuwächse der abhängigen Angestellten, weshalb sie den überwiegenden Teil des Wirtschaftswachstums der letzten 50 Jahre vereinnahmt haben; ohne Veränderung der fundamentalen Faktoren wird sich dieser Trend weiter beschleunigen [6].

Skaleneffekte, Privatisierung, Globalisierung

Der technische Fortschritt ermöglichte nach dem zweiten Weltkrieg eine schnell fortschreitende Konzentration der Produktionsmittel des Primär- und Sekundärsektors mit Hilfe massiver Skaleneffekte. Der Investitionsbedarf in vielen Branchen wurde so enorm, dass nur noch große Einheiten ihn bewältigen konnten. Gleichzeitig ermöglichten globale Produktion, Vertrieb und Konsum eine bisher nie dagewesene Skalierung von Unternehmensideen und Branchen.

So wurde es beispielsweise möglich, Agrarkonzerne zulasten selbstständiger Landwirte zu schaffen und diese von nicht-vermehrungsfähigem Saatgut großer Biokonzerne abhängig zu machen. Der kleinbürgerliche Einzelhandel wurde weitgehend abgeschafft und durch Handelskonzerne ersetzt, bis hin zum virtualisierten Handel per Internet (wie etwa Amazon oder Zalando). Kleine Pharmaunternehmen gibt es kaum noch; fast alle Branchen sind von diesem Konzentrationstrend betroffen. Gleichzeitig sank der Anteil selbstständig geführter Unternehmen an der volkswirtschaftlichen Leistung, der Anteil der Konzerne daran nahm zu.

Insgesamt hat sich die Wertschöpfung in den letzten 50 Jahren auf deutlich weniger Akteure konzentriert; immer mehr Berufsgruppen werden in das Angestelltenverhältnis gedrängt, neuerdings auch „Trägerberufe der bürgerlichen Gesellschaft“ (John Dewey) wie Ärzte oder Apotheker. Die Haupteigentümer der großen Unternehmen oder der Ketten abhängiger Angestellter oder Franchise-Nehmer sind sehr reiche Familien mit vielfachem Millionen- oder Milliardenvermögen (die oberen 0,5 bis 1 Prozent der globalen Eigentumspyramide).

Durch die Privatisierungspolitik ab den 1980er Jahren wurde Staatseigentum an Infrastruktur, Immobilien und Dienstleistungskonzernen im Wesentlichen direkt dieser kleinen Schicht verkauft, was zu einer weiteren Eigentumskonzentration geführt hat. Die Globalisierung hat ebenfalls dazu beigetragen, Nutznießer waren die Finanzindustrie, die wohlhabenden Eigentumsschichten und die Exportwirtschaft im Westen und in Asien (erst Japan, dann China und andere) sowie die asiatischen Arbeitnehmer. Verlierer sind die Arbeiter und Angestellten im Westen.

Zwischen Papierwährung, Teilreservesystem, technischen Skalierungsmöglichkeiten, Globalisierung und weiteren Faktoren sind zahlreiche sich gegenseitig verstärkende Interaktionseffekte entstanden. Dadurch hat sich das globale Privateigentum in den letzten 50 Jahren derartig konzentriert, dass nun deutlich weniger als 1 Prozent der Weltbevölkerung zwischen 40 und 50 Prozent und die oberen 10 Prozent etwa 85 Prozent des globalen Privateigentums besitzen, wobei das Tempo der Konzentration laufend zunimmt (Global Wealth Report der Crédit Suisse, 2019). Die Konzentration könnte noch deutlich höher sein, was aber sehr schwer abzuschätzen ist.

Literaturhinweise

  1. Hans Herbert von Arnim. Staat ohne Diener: was schert die Politiker das Wohl des Volkes? Rowohlt Verlag GmbH, 2018.
  2. Egon Flaig. Die Niederlage der politischen Vernunft: wie wir die Errungenschaften der Aufklärung verspielen. zu Klampen Verlag GbR, 2017.
  3. Friedrich A. von Hayek. Denationalisation of money: The argument refined. Ludwig von Mises Institute, 2009.
  4. Gertrude Himmelfarb. On looking into the abyss: Untimely thoughts on culture and society. Knopf New York, 1994.
  5. Bernard Manin. The principles of representative government. Cambridge University Press, 1997.
  6. Thomas Piketty. “About capital in the twenty-first century”. In: American Economic Review 105.5 (2015), S. 48–53.
  7. Heinrich Popitz. Phänomene der Macht. Tübingen: Mohr Siebeck, 1992.
  8. Guido Preparata. The Ideology of Tyranny: Bataille, Foucault, and the Postmodern Corruption of Political Dissent. Springer, 2007.
  9. Richard Rorty. Achieving our country: Leftist thought in twentieth-century America. Harvard University Press Cambridge, MA, 1998.
  10. Murray N Rothbard. Man, economy, and state. Ludwig von Mises Institute, 2009
  11. John P. A. Ioannidis: Global perspective of COVID‐19 epidemiology for a full‐cycle pandemic, E J Clin Invest, 10/2020. https://doi.org/10.1111/eci.13423

 




AGW-Skeptiker Marc Morano erhält Todesdrohung vom E-Mail-Konto eines Professors der Universität Sorbonne

Email Konto “geklaut”? –  von einem Professor an der Sorbonne Universität

Die Morddrohung kam von einem E – Mail – Konto von Prof. Jean-Luc Mělice , ein angesehener Forscher für Klimamodellierung  und Direktor am Pierre-Simon Laplace – Institut,  Universität Sorbonne in Paris, Frankreich an Climate Depot.com.

Diese Drohung ist die Neueste aus einer Reihe, die sich gegen Marc Morano von Climate Depot richten. Sehen Sie dazu den Beitrag vom 26.12.2020 .

Was folgt, ist der Inhalt der neuesten E-Mail-Bedrohung, übersetzt ins Englische [Deutsche] (Warnung: anstößige Sprache):

Von: Anonymous
Email:
jlmelice@hotmail.fr
Message: Also, du kleiner Scheißer von Morano dem Idioten, dem Neger aus Afrika, du musst anfangen, in deine Hose zu scheißen. Mit deinem dreckigen Affenmund. Sobald Sie Europa betreten, werden wir mit einem Baseballschläger zertrümmern. Selbst in den USA warten Freunde darauf, Sie zu massakrieren. Sie finden keinen Platz mehr, um sich zu verstecken. Wir haben Ihre Adresse und folgen Ihnen Schritt für Schritt. Sie werden sich nie ausruhen können …  ein Mörder wird immer sehr nahe sein …

Natürlich, Arschloch, hast du nicht die intellektuelle Ebene und das Gehirn, um Französisch zu verstehen, was wiederum die Sprache eines jeden gebildeten Menschen ist…

Die Botschaft enthält nicht nur bildhafte Todesdrohungen, sondern auch Rassenhass.

Laut seinem LinkedIn-Account ist Prof. Jean-Luc Mélice Fakultätsmitglied der Universität Sorbonne.


Mail an  Prof. Mélice

Um die Angelegenheit zu klären, schickte No Tricks Zone, Pierre Gosselin eine E-Mail an Prof. Mélice, um zu fragen, ob ihm bekannt sei, dass sein E-Mail-Konto illegal missbraucht wurde:

Sehr geehrter Herr Prof. Mélice,

Bitte überprüfen Sie Ihr E-Mail-Konto, da es zum Versenden unzulässiger E-Mails und Nachrichten verwendet wird, insbesondere an Personen, die sich kritisch mit Klimawissenschaften befassen. Möglicherweise hat ein Hacker Ihr Konto gehackt  und verwendet es illegal.

Ich hoffe, dass Ihnen das hilft und dass es Ihnen gut geht.

Beste Wünsche für 2021,

Dipl.-Ing. Pierre Gosselin
https://notrickszone.com


Bisher ist keine Antwort eingegangen. In der Zwischenzeit sagte Marc Morano, er werde die Drohungen ernst nehmen und sich an die Behörden wenden.

[da obiger Vorfall sich während der Weihnachtsfeiertage abspielte und viele Leute – vor allem auch an einer Uni, Urlaub haben, nehme ich an, dass Herr Prof. dann erst nach den Feiertagen im neuen Jahr seine Mails liest. – Der Übersetzer]


No Tricks Zone erhielt dann ebenfalls einen unfreundlichen Kommentar

Am selben Tag, dem 30. Dezember, kam auf NoTricksZone.com dann auch  ein unfreundlicher Kommentar [in französich] von jemandem, der mit Jean-Luc Mélice abzeichnete:

In Deutsch: [mit Hilfe von Web- translate]

Also Pierre Gosselin,

Versuchen Sie auf klug zu spielen?

Ich denke, die einzige Lösung für Sie ist, schnell zum Altenheim zurückzukehren …

Ich würde mich freuen, wenn Sie mir Ihren Lebenslauf schicken, der mies sein muss… sowie Ihre wissenschaftlichen Veröffentlichungen.

Mit freundlichen Grüßen,

Jean-Luc Melice


 Cyber-crime

Natürlich ist nicht vorstellbar, dass die groben Bedrohungen für Marc Morano wirklich von Prof. Mélice stammen könnten. Eher von einem Hacker. Sicherlich hat Prof. Mélice die Mindestverpflichtung sicherzustellen, dass sein Konto nicht zur Begehung von Straftaten verwendet wird und er wird hoffentlich die Behörden benachrichtigen, um diese Situation unter Kontrolle zu bringen.

Und hoffentlich werden die Behörden handeln und Gerechtigkeit üben.

Schande

Insgesamt gesehen sind solche Bedrohungen, die vom E-Mail-Konto eines Professors ausgehen, eine Schande für die akademische Gemeinschaft und die in Paris ansässige Sorbonne-Universität.

Und es wäre eine noch größere Schande, wenn die Behörden nicht handeln würden.

 

Der Beitrag wurde übernommen von: https://notrickszone.com/2021/01/01/agw-skeptic-marc-morano-receives-death-threat-from-sorbonne-university-professors-email-account/

https://wattsupwiththat.com/2021/01/01/agw-skeptic-marc-morano-receives-death-threat-from-sorbonne-university-professors-email-account/

Übersetzt und zusammengestellt von Andreas Demmig

 




Auf Corona-Krise folgt Klima-Krise: Lauterbachs Plan

Karl Lauterbach macht sich bereits über seine Anschlussverwendung Gedanken, irgendwann wird das Corona-Thema politisch ein lahmer Gaul sein und nicht mehr für große Sprünge taugen. Laut Wikipedia war das Markenzeichen Lauterbachs  lange Zeit die Fliege, die er des Öfteren anstelle einer Krawatte trug. Und insofern ist es nachvollziehbar, dass er ein weiteres mal die Fliege machen möchte.

Und da kommt ihm selbstverständlich das Nächstliegende in den Sinn: Die „Klimakrise“, was auch immer man im Näheren darunter zu verstehen hat. Hauptsache Krise. Wobei die Corona-Krise einen kleinen Nachteil hat: Wenn die Endabrechung kommt, weilen die Verantwortlichen höchstwahrscheinlich noch unter den Lebenden, womöglich sogar in Ihren Ämtern, deshalb sind sie ja so nervös. Sie müssen damit rechnen, mit dem Erfolg oder Misserfolg, Risiken und Nebenwirkungen ihrer Massnahmen konfrontiert und je nach Ausgang sogar zur Verantwortung gezogen zu werden.

Das verhält sich beim Klima praktischerweise anders: Es handelt sich ja bislang um eine hypothetische Katastrophe, die unser Menschengeschlecht irgendwann in ferner Zukunft  heimsuchen soll. Die Erfolgs- respektive Misserfolgskontrolle erfolgt also erst, wenn die Protagonisten betriebssicher tot sind. Politisch ist die Klimakrise somit ein Perpetuum mobile.

Greta & Friends sind auch schon darauf gekommen, da muss Karl der Alarmierte auf den Zug aufspringen, bevor die erste Klasse besetzt ist. Im Interview mit „Die Welt“ vom 27. Dezember  lässt er schon mal wissen:

 „[…] Somit benötigen wir Maßnahmen zur Bewältigung des Klimawandels, die analog zu den Einschränkungen der persönlichen Freiheit in der Pandemie-Bekämpfung sind.“

In der Pandemie-Bekämpfung gibt es ja noch viel zu viele Freiräume, deren Beseitigung man virologisch eher schlecht begründen kann. Nehmen wir nur das Autofahren, das eine deutlich gesündere Art der Fortbewegung verspricht als Busse und Bahnen. In der Klimakrise wird deshalb die zweite Stufe des Ausgehverbotes verhängt, das Ausfahrverbot.

Ich könnte mir das als zentralen Punkt eines „Lauterbach-Planes“ vorstellen, genannt nach dem Mann aus der Corona-Hall of Fame und wie geschaffen für den ewigen Lockdown. Alles  unter 1.000 Jahren wäre eine Enttäuschung. Die Vorarbeiten sind ja längst  gemacht, die Ideen für einen Aktionsplan, der diesem großen Namen gerecht wird, muss man nur von der Staude pflücken wie eine reife Banane. Ich meine jetzt nicht den Morgenthau-Plan, der wies zwar in die richtige Richtung, verstand es aber irgendwie nicht, die Menschen „mitzunehmen“. Laut Wikipedia zeichnet Karl Lauterbach für 294 Publikationen und zehn Bücher verantwortlich, er ist somit prädestiniert seinem Schaffen einen weiteren Höhepunkt hinzuzufügen.

Als Erfolgsformel empfehle ich daher eine Wortschöpfung, die ja bereits Karriere gemacht hat: der ökologische Fußabdruck. Der ist umso größer, je mehr Ressourcen ein Land pro Kopf seiner Bewohner verbraucht. Wenn man beispielsweise den Energiekonsum betrachtet, haben die Amerikaner die größten Füße, Europäer und Japaner liegen im Mittelfeld. Die kleinsten Füße haben die Bewohner der Entwicklungsländer.

Doch das soll sich schon lange ändern: Künftig, so wird von Ökos aller Länder und Generationen gefordert, sollen alle Menschen auf der Welt gleich große Füße haben. Das nennt sich „Klimagerechtigkeit“, und schließt sich nahtlos an den 20. Parteitage der KPDSU  aus dem Jahre 1956 unter Nikita Chruschtschow an  („Wiederherstellung der Gerechtigkeit“).

Da der Energieverbrauch eng mit dem Ausstoß von Kohlendioxid zusammenhängt, verlangte beispielsweise Lutz Wicke, der ehemalige Präsident des Umweltbundesamtes: „Das demokratische ‚One man/one vote“-Prinzip wird auf den Klimaschutz übertragen. Das bedeutet zunächst fünf Tonnen Kohlendioxid pro Kopf der Weltbevölkerung. Mit diesem Verteilungsschlüssel erhalten die bevölkerungsreichen Entwicklungsländer Überschuss-Zertifikate, die sie verkaufen können“.

Armut verbessert die Kohlenstoffbilanz!

Das klingt bestechend einfach und äußerst gerecht. Doch drängen sich rasch Fragen auf: Menschen in kalten Ländern müssen heizen und haben deshalb einen viel höheren Energieverbrauch als die Bewohner warmer Regionen. Darf man Sibirien und die Südsee einfach gleichsetzen? Außerdem: Haben die Menschen in einem armen Land demokratischen Zugang zu Wohlstand und Ressourcen oder profitiert nur eine kleine Oberschicht? Denn jeder hinzukommende Mensch am Existenz-Minimum verbessert rein rechnerisch die Kohlenstoff-Bilanz eines Landes. Ist das tatsächlich im Sinne der Erfinder?  In jedem Falle schlägt die Stunde der Bürokraten. Wie man schon an den Absurditäten des Corona-Regimes erkennen kann, werden denen die absurden Einfälle nicht ausgehen.

Die Waren- und Energieströme einer globalisierten Welt entziehen sich ja zunächst mal einfachen Aufrechnungen. Die Ressourcen, die da in den reichen Nationen verbraucht und verfeuert werden, sind ja oft Rohstoffe, auf deren Export die Entwicklungsländer dringend angewiesen sind. Selbst Bananen, werden nicht zu uns gezaubert, sondern kommen mit Schiff und LKW. Verzichten die Europäer zugunsten des Apfels, bleiben die Produzenten in Südamerika oder Afrika auf ihren Bananen sitzen. Umgekehrt mag ein europäischer Pharmaforscher mit seiner Arbeit einen großen ökologischen Fußabdruck hinterlassen, das Ergebnis – etwa ein neues Medikament (oder ein Impfstoff ) – kommt aber Menschen in aller Welt zugute. Was nun?

Auch das Ende des Ferntourismus wäre für viele arme Länder eine Katastrophe, wie wir gerade beobachten können. Die afrikanischen Nationalparks beispielsweise verdanken ihre Existenz dem Ferntourismus. Fallen diese Einnahmen daraus weg, werden Wilderei und landwirtschaftliche Nutzung in diesen Gebieten sofort wieder zunehmen. Genau wie die vagabundierenden Kapitalströme gibt es auch immer mehr vagabundierende Energie, die sich nicht so ohne Weiteres einem Land zuordnen lässt. Das beste Beispiel ist der Flugverkehr. Nach dem Konzept des ökologischen Fußabdruckes schädigt ein indischer Geschäftsmann, der nach Deutschland fliegt, die Umwelt erheblich weniger als ein Deutscher Geschäftsmann, der nach Indien fliegt.

Wie immer alle gleich und ein paar noch gleicher

So wird der Kohlendioxidausstoß zur absoluten moralischen Leitgröße gemacht, der sich alle anderen gesellschaftlichen Ziele unterzuordnen haben. Es wird vielerorts ernsthaft in Erwägung gezogen, auch Privatpersonen ihr persönliches Kohlendioxid-Kontingent zuzuteilen – Lebensmittelmarken vergleichbar. Die Apologeten der Idee haben bereits Entwürfe für persönliche „Carbon-Cards“ in der Schublade, die jeder Bürger wie eine Geld- oder Kreditkarte etwa beim Tanken oder beim Buchen eines Fluges vorzeigen muss.

Sollen Reisen, Einkaufen und Wohnen demnächst nur noch unter Klimavorbehalt stehen? Der britische Supermarkt-Gigant Tesco hat in vorauseilendem Gehorsam angekündigt, keine Lebensmittel mehr aus weit entfernten Ländern zu importieren, was für Farmer in Kenia oder Bauern in Peru den Ruin bedeuten kann.

Auch in Deutschland werden von Medien schon mal „Klimakommissare“ und dergleichen Polizeikräfte losgeschickt, auf dass sie nach „Klimasünden“ fahnden, seit etlichen Jahren ein wiederkehrender Gag ökologisch bewegter Fernsehredakteure. Ich erinnere mich an eine Szene in einem Supermarkt in Sachsen.

Eine Familie erwirbt dort preiswerte Lebensmittel für vierzig Euro. Doch sie freuen sich zu früh über den günstigen Einkauf. Denn da kommt die Klimakommissarin und kontrolliert ihren Wagen. Spargel, Rindfleisch und Milch gefährden das Weltklima, belehrt sie die verdatterte Familie. „Was gleich ins Auge sticht ist der Spargel,“ erläutert ein Gutachter, „der ist aus Peru, der ist mit dem Flugzeug gekommen.“ Das fahrlässige Einkaufsverhalten entspricht einer CO2-Emission von 37 Kilo, was die Klimakommissarin mit einem Stapel aus 37 Tüten Mehl deutlich macht. Dennoch kommen die Missetäter noch mal ungeschoren davon, denn es sind ja keine echten Polizisten, die den Einkaufswagen kontrollieren, sondern nur Mitarbeiter der Sendung „exakt“ des Mitteldeutschen Rundfunks. Das war vor 15 Jahren, bald sind wir einen Schritt weiter.

Dann hätte der Staat die totale Kontrolle über das Leben des einzelnen Bürgers. Dabei würden – wie immer – alle gleich und ein paar noch gleicher sein. Bekommt ein Kind genauso viel Emissionsrechte wie ein Erwachsener? Ist ein Flug privat oder im Dienste der Allgemeinheit? Darf ein Landarzt mehr Auto fahren als ein Handelsvertreter? Sicher dürfte nur eins sein: Politiker und Bürokraten haben freie Fahrt, sie sind systemrelevant.

Welche Auswüchse die Sache treibt, mag ein Aufsatz verdeutlichen, den die Wissenschaftszeitschrift „Climatic Change“ schon vor 15 Jahren veröffentlichte. Darin ging es um die „externen Treibhaus-Kosten“ eines Neugeborenen. Jedes Baby, so die Forscher, werde Treibhausgase produzieren und damit zum Klimawandel und in der Folge zur Schädigung der Gesellschaft beitragen. Für Industrieländer taxieren sie den Schaden (!) eines neuen Erdenbürgers auf 28.200 Dollar, in einem Entwicklungsland auf 4.400 Dollar. Merke: Klimagerecht sollten also nur noch Kinder unterhalb der Armutsgrenze geboren werden.

Die Einkind-Familie haben wir ja schon. Andererseits hat sich inzwischen eine Bewegung etabliert, die aus Klimagründen ganz auf Kinder verzichten möchte. So berichtet die NZZ:

„Weil sie um die Zukunft des Planeten fürchten, entscheiden sich immer mehr Frauen, auf eigene Kinder zu verzichten. Zwei von ihnen erzählen, warum sie es für verantwortungslos halten, weitere Kinder in die Welt zu setzen“.

In der Tat wäre ein Kinderverbot eine sehr zuverlässige Art und Weise den Kohlendioxid-Ausstoß Deutschlands auf Null zu senken. Und übrigens auch, um das Virus zu besiegen. Egal welches.

Zuerst erschienen bei der Achse des Guten.

 




Den Bann der Angst durchbrechen

Das ist furchtbar. Niemand hier hat die Schwere der Krankheit oder gar ihre Existenz geleugnet. Aber die Wahrscheinlichkeit, sich als einer von 83 Millonen in Deutschland länger oder kürzer hier Lebenden überhaupt zu infizieren, liegt bei unter einem Prozent. Und diese Dimension respektive Verhältnismäßigkeit hat kaum jemand im Auge.

Wenn es denn jemals eine gab, war die Strategie der Politik jedenfalls nicht zielführend. Und das scheint nahezu ein weltweites Phänomen zu sein. Die Regierungen handeln kopflos und panisch. Angst regiert die Welt. Und ein schlechter Ratgeber laut Volkes Munde. Was muss man tun, damit sich derlei nicht wiederholt? Damit meine ich ausdrücklich nicht ein neues Virus, sondern die fast schon

n verantwortungslose, hektische Reaktion auf eine beherrschbare oder vermeintliche Notlage.

Wir haben es ja nicht nur in Sachen Corona mit diesem Phänomen zu tun. Wenn die bestenfalls pubertierende 16-jährige Greta Thunberg vor den Vereinten Nationen heraus schreit, “I want you to panic”, bringt sie das Konzept der Drohung mit dem modernen Fegefeuer auf den Punkt. Und der mittlerweile unvermeidliche Karl Lauterbach erklärt schon in DIE WELT, dass vergleichbare Einschränkungen zur Rettung des Klimas notwendig seien. Nicht nur bei der Pandemie.

Bei der Finanz- und Eurokrise hat Bundeskanzlerin Merkel das Thunberg-Prinzip vorweg genommen: “Scheitert der Euro, scheitert Europa”. Als ob wegen des Untergangs einer Währung ein Kontinent untergehen könnte. Das haben zwei Weltkriege nicht geschafft und auch wegen des “menschengemachten Klimawandels” wird er nicht absaufen. Die Politik agiert mit den Methoden des digitalen Mittelalters. Angst essen nicht nur Seele auf. sondern auch Verstand. Und das macht einen faktenbasierten Diskurs, der auf Emotionalisierung und Personalisierung verzichtet, unmöglich. Wenn wichtiger ist, wer etwas sagt und nicht was, läuft gehörig etwas schief. Mittlerweile sind Augenmaß und Verhältnismäßigkeit vollends verlorengegangen.

Das Erkenntnisproblem der selektiven Wahrnehmung

Arthur Schopenhauer hat sein Hauptwerk “Die Welt als Wille und Vorstellung” genannt und wurde damit zum Gründungsvater des Konstruktivismus. Dessen Protagonist Paul Watzlawick (“Anleitung zum Unglücklichsein”), österreichisch-amerikanischer Psychologe und Kommunikationsforscher, spricht davon, dass wir nur erkennen, was wir erwarten. Einen Widerspruch übersehen wir allzu leicht, weil er nicht in unser “Weltbild” passt. Man kann es aber auch mit Astrid Lindgrens Pippi Langstrumpf sagen: “Ich mach mir die Welt, wie sie mir gefällt.”

Der Schlüssel, sein Weltbild der Realität auszusetzen, sind Aufklärung und kritischer Rationalismus. “Aufklärung ist der Ausgang des Menschen aus einer selbstverschuldeten Unmündigkeit.” So beginnt Immanuel Kant sein Manifest und meint damit, dass wir denken müssen und nicht bloß glauben dürfen. Er ordnet die Verantwortung dafür dem Bürger zu und nicht dem Potentaten. Die Stürmer und Dränger und die Aufklärer haben den Absolutismus vertrieben und die Grundlagen für den freiheitlichen Rechtsstaat, die moderne Wissenschaft, den technologischen Fortschritt und den sukzessive wachsenden Wohlstand der Industriegesellschaft gelegt.

Wir müssen uns also an die eigene Nase fassen und fragen, warum wir nicht im Kleinen den Diskurs fördern, unter Freunden und Bekannten Stellung beziehen und unseren Zweifel äußern. Auf Wissenschaft, Politik und Medien alleine zu zeigen, ist nicht ausreichend.

Man kann es Greta Thunberg nicht übelnehmen, dass sie laut hinausposaunt: “Hört auf die Wissenschaft”. Was sie meint, bedeutet: Glaubt der und glaubt an die Wissenschaft”. Aber wer ist “die Wissenschaft”?

Wissenschaft ist der aktuelle Stand des Irrtums

Das kann keiner wissen, denn die Wissenschaft ist nicht als homogene Institution existent. Wer hier auf die Mehrheitsmeinung pocht, hat das Prinzip nicht verstanden. Wissenschaft ist Wettbewerb um die beste Erklärung. Und Naturwissenschaft ist genauso wenig vom Irrtum gefeit wie die Geisteswissenschaften oder die ökonomischen Wissenschaftler. Natürlich bis auf die physikalischen Gesetze wie das der Schwerkraft, dass sich jederzeit experimentell wiederholen lässt. Würde Wissenschaft konsensbasiert arbeiten, käme die Entdeckung neuen Wissens zum Erliegen.

Um mit Karl Popper zu sprechen: Nichts ist wahr. Alles darf nur solange als bewährt gelten, bis es widerlegt ist. Wenn wir heute also davon sprechen, dass wir die Durchschnittstemperatur auf der Erde im Jahre 2050 vorhersagen könnten, und ein Getriebe entwerfen, mit dessen Zahnrädern wir sie so einstellen könnten wie mit dem Thermostat im heimischen Wohnzimmer, unterliegen wir einem gewaltigen Irrtum und der Anmaßung, den wissenschaftlichen und technischen Fortschritt bis auf die erste Stelle hinter dem Komma prognostizieren zu können.

Ähnlich verhält es sich mit den Prognosen zur Pandemie. Der “R-Faktor” ist eine geschätzte Modellierung, die wie auch die ökonomischen Prognosen auf eine simple Formel zurückgehen, wenn man sie zu Ende differenziert hat. Und die heisst: Pi mal Daumen.

Die normative Kraft der Zahl

Würde man den „R-Faktor“ im Nachhinein mit dem tatsächlichen Infektionsgeschehen vergleichen, was eine komplexe mathematische Operation ausmacht, so wette ich, dass er mit der tatsächlichen Infektionsentwicklung nicht korrealiert. Anders gesagt: Die Modellierungen sind nicht mal für die Katz. Aber einmal von Professor Doktor Lothar H. Wieler auf einer Pressekonferenz vorgetragen und live über die Nachrichtenkanäle und die Social Media verbreitet, steht eine Zahl im Raum und sei sie noch so infiziert. Am 18. März hat der Mann verkündet, ohne Lockdown sei spätestens im Juni 2020 mit 10 Millionen Infizierten zu rechnen.  Nur in Deutschland.

Um bei der Bevölkerung Eindruck zu schinden, arbeitet die CORONA-Statistik bei Wieler, Funk und Fernsehen mit dem Instrument der Kumulation. Es wird nicht dargestellt, wie viele Menschen derzeit positiv getestet sind und als infiziert gelten, wie viele so schwer erkrankt sind, dass sie das Krankenhaus aufsuchen mussten, lediglich die Zahl derjenigen, die sich auf Intensivstation befinden oder dort beatmet werden, wird tagesaktuell kommuniziert. Auch die Zahl der täglich Verstorbenen wird als Addition zu den in den vergangenen 9 Monaten genannt. Das ist die Macht der hohen Zahl. Alles erscheint viel schrecklicher.

Steht die Zahl einmal im Raum, so verbreitet sie Angst und Schrecken. Das gleiche Prinzip funktioniert ja auch schon bei der globalen Durchschnittstemperatur oder den vermeintlichen CO2-Emissionen, die werden auch im Nachhinein nicht gemessen (wie sollte das funktionieren?), sondern geschätzt. Und das vom Bundesumweltamt.

Wie gut solche Vorhersagen funktionieren, kann man alljährlich an den Steuerschätzungen beobachten. Ähnlich wie bei den Voraussagen der Wahlergebnisse durch die Demoskopen lässt sich mit Sicherheit nur eins prognostizieren: Sie werden so nicht eintreffen. Entweder verschätzt man sich um ein paar Milliarden oder ein paar Prozent. Und je früher die Prognosen, desto diffuser das Bild. Aber das mit der Durchschnittstemperatur, bei der noch Milliarden weitere Parameter berücksichtigt werden müssen, das kriegen wir angeblich hin.

Wenn die Zahl allerdings zu positiv ausfällt und nicht in das jeweilige Schreckensszenario passt, wird sie nicht genannt. Deutschland wird Ende 2020 – und das wäre auch ohne Corona geschehen – im Vergleich zum Stand 1990 etwa 40 Prozent der Klimagase eingespart haben. 2019 waren es ja bereits schon mehr als 38 Prozent (da gibt es unnterschiedliche Aussagen – es handelt sich ja um Schätzzahlen). In Kyoto hatten wir uns zu 35 Prozent verpflichtet. Es besteht also kein Grund zur Panik.

Zahlen suggerieren eine Objektivität, die sie nicht haben. Es handelt sich nicht um das Ergebnis höherer Mathematik, sondern letztlich um Formeln, Modellierungen und Erklärungsmodelle, denen das unvollständige Wissen derjenigen zugrunde liegt, die sie formulieren und entwickeln. Ich bestreite gar nicht, dass solche Prognosen ihren Wert haben und sie einen Trend indizieren. Nur für bare Münze darf man sie nicht nehmen.

Die Macht der Bilder

Können Sie sich noch an die Bilder aus Bergamo erinnern? Kein Regisseur eines Katastrophenfilms hätte sich das besser ausdenken können. Martialische Militär-Lastwagen transportierten wie Lafetten jeweils einen Sarg, obwohl auch ein paar mehr auf die Pritsche gepasst hätten. Die Prozession der Fahrzeuge mit mindestens 7,5 Tonnen Transportgewicht wurde dabei abgelichtet, wie sie in angemessen langsamer Geschwindigkeit durch die menschenleeren Landstriche Norditaliens rollte. Was für ein Bild für eine Pandemie.

Es gab in Norditalien dramatische Verhältnisse und eine deutliche Übersterblichkeit (also mehr Sterbefälle als im üblichen Vergleichszeitraum). Aber die meisten leider Verstorbenen waren schon damals über 80 Jahre alt und hatten mindestens eine Vorerkrankung. Die Pandemie hat ihnen, wenn man das despektierlich ausdrücken möchte, den Rest gegeben. Und während die Ärzte auf den Intensivstationen in Bergamo und Mailand bis zum Umfallen kämpften, standen die Intensivbetten in Neapel leer. Wie wäre die Wahrnehmung der Pandemie wohl ohne die Bilder von den überfüllten Intensivstationen und die LKW-Kolonnen verlaufen? Und hätten die Regierungen europaweit genauso reagiert?

Die “Bilder” haben auch bei einem anderen Thema eine Rolle gespielt. Ich meine nicht den berühmten Satz des Moderators eines Nachrichtensenders auf den Unfall in Fukushima, der, um die Zuschauer über die Werbepause bei der Stange zu halten, sagte: “Und nach der Werbepause sehen Sie hier die Kernschmelze” (aus dem Gedächtnis zitiert).

Die Grenzen wurden nach Angaben des Welt-Journalisten Robin Alexander in seinem Buch im September 2015 nicht aus humanitären Gründen offen gehalten, sondern weil man die dabei entstehenden “Bilder”, für nicht “vermittelbar” hielt. Es ging also nicht um humanitäre Gründe, sondern um den Machterhalt.

Deshalb war das Abkommen mit der Türkei folgerichtig, das möglichst viele “Geflüchtete” zurückhalten sollte. Die haben da die Kamerateams und Fotografen unter Kontrolle. Und wovon es keine Bilder gibt, das passiert in der Wahrnehmung von Politik und Medien gar nicht. Ob die Menschen und Bürger das auch immer so sehen, lassen wir mal dahingestellt.

Der Schrecken des Todes

Sterben war bisher eine private Angelegenheit. Zwar taten die Angehörigen ihre Trauer in Anzeigen oder mittlerweile den sozialen Medien kund, luden zu Trauerfeier, Beerdigung und Leichenschmaus ein, aber eben doch nicht jedermann, sondern nur diejenigen, die am Tod des jeweiligen Menschen Anteil nahmen.

Die einzigen Zahlen von Todesopfern, die mir regelmäßig über den Weg liefen, sind die kolportierten der Verkehrstoten. Das sind bedauernswerte mehr als  3.000 Menschen zuviel. Aber wohl der Preis für unsere Mobilität.

In den deutschen Medien wird stets die Zahl aller jemals an oder im Zusammenhang mit dem Virus Verstorbenen genannt. Das sind seit März mehr als 30.000 Menschen. Auch hier war die absolute Mehrheit über 80 Jahre alt und litt unter einer oder mehreren Vorerkrankungen. Aber in Deutschland sterben jedes Jahr mehr als 900.000 Menschen. Eine Zahl, die vorher niemand kannte und von Lothar Wieler, dem Präsidenten des Robert-Koch-Instituts in seinen bedeutungsschwangeren Pressekonferenzen nie genannt wurde. Täglich sterben im Schnitt rund 2.572 Menschen (Wie gesagt beim Straßenverkehr sind das mehr als 3.000 im Jahr). Wenn am Tag 1.000 Menschen an oder mit dem CORONA-Virus sterben, sind das rund 39 Prozent der täglich Sterbenden. Wenn im Monat rund 77.500 Menschen sterben, sind das 697.500 von März bis April. Davon machen die bedauernswerten rund 30.000 Toten unter 5 Prozent aus.

Mit den vermeintlich offiziellen Zahlen wird Angst geschürt und Panik gemacht. Sie sollen die Ausrufung der “Pandemie von nationaler Tragweite”  begründen und damit den Zweck des vollständigen Entzug der Bürgerrechte rechtfertigen. Es ist nicht auszuschließen, dass ihre Erzeuger selber glauben, was sie verkünden.

Das Wort der Propheten

Wussten Sie vor einem Jahr, wer Prof. Dr. Christian Drosten ist? Heute wissen wir: Der Mann trägt schwer das vermeintliche Wissen der weltweiten Virologie auf seinen Schultern. Sein Ruf verhallt nicht ungehört. Schon gar nicht bei der Kanzlerin. Wenn es nötig wird, bestellt sie ihn in die Ministerpräsidentenrunden ein, um die unwilligen Landesfürsten mit einem Blick in den Corona-Abgrund zu disziplinieren. In einem eigenen von den Rundfunkgebühren finanzierten Podcast verbreitet er diesen Blick auch über den reichweitenstarken NDR ohne ausreichende journalistische und wissenschaftliche Kontrolle.

Statt auf die Corona-Propheterie zu vertrauen, hätten Kanzler wie Helmut Schmidt, Helmut Kohl oder auch Gerhard Schröder anders gehandelt. Schmidt hat etwa bei der Schleyer-Entführung einen Krisenstab einberufen, der über Wochen tagte und die Vielfalt der Argumente auf den Tisch des Bonner Kanzleramts brachte. Darin vertreten war auch der Oppositionsführer Helmut Kohl und die Fraktionsvorsitzenden, die nicht im Nachhinein vom Ergebnis obskurer Video-Konferenzen “unterrichtet” wurden.

Nicht anders ist es etwa mit Professor Hans Joachim Schellnhuber und dessen Potsdamer Institut für die Klimafolgenabschätzung. Zwar ist der Mann mittlerweile im Ruhestand, doch Propheten lassen sich nicht pensionieren. Man könnte diese Art von Wissenschaftlern wahlweise Propheten oder Hofalchemisten nennen, die scheinbar alleine im Besitz der allgemeingültigen Wahrheit zu sein scheinen. Die haben früher Gold versprochen und wenigstens Porzellan geliefert. Zweifelhafte Organisationen wie die Leopoldina, die vorher abseits des Lichtes der Öffentlichkeit operiert hatten, liefern Politik und Kanzlerin allzu gerne die Begründung für den ein oder anderen Lockdown. Das unterminiert Vertrauen.

Das multiple Organversagen der Medien

Aus falsch verstandenem Verantwortungsgefühl hat sich bei den Medien spätestens seit der  Finanzkrise ein vorauseilender Gehorsam eingeschlichen, der kontroverse Diskussionen und die Abbildung von Meinungspluralismus nur noch in Ausnahmefällen erlaubt. Daraus ergibt sich eine merkwürdige Konsistenz, die über die Bildschirme flackert und aus den Lautsprechern quillt. Gefangen sind die Medienmacher dabei in einer Hatz, die den meisten von ihnen die Chance zur Reflektion und Einordnung nimmt. Beim Nutzer wird diese Hektik durch den Algorithmus verschärft, eine Art mediales Schneeballsystem: Was viele sehen, bekommen noch mehr zu sehen. Dabei wird die mediale Fertigsoße immer gleichförmiger.

Medien stoßen kaum noch Kontroversen an und bilden sie auch nicht ausreichend ab. Außenseiter werden zu “Leugnern” erklärt und oft persönlich diskreditiert, statt ihre Auffassung sachlich zu widerlegen, wenn dies denn nötig und möglich ist. Das Unvermögen mit der Informationsflut der sozialen Netzwerke schafft Begriffe wie “Hatespeech” oder “Fakenews”, mit denen auch Argumente aussortiert werden, die tatsächlich bedenkenswert waren. Das über Jahrhunderte erkämpfte Prinzip der Meinungsfreiheit wird so geschleift. An die Stelle ordentlicher Gerichte sind Laien und Algorithmen getreten. Das Phänomen des vorauseilenden Gehorsams wird so manifestiert.

Natürlich brauchen Politiker, Wissenschaftler und Medienleute Vernunft im Kantschen Sinne. Und dafür braucht es Mut. Und der ist nötig, um ein mögliches Medientrommelfeuer durchzustehen. Betrachtet man den zarten Virologen Hendrik Streeck, dessen empirische Studien geeignet gewesen sind, die Lockdown-Strategen zu widerlegen und wie er angefeindet wurde, versteht man, wovon die Rede ist. Ein Wissenschaftler, der den möglichen menschlichen Einfluß auf das Klima nicht für bestimmmend hält, kann in den Augen der Meute, gar keiner sein. Aber es gibt diesen Mut der Vernunft.

Aber wir lassen ihn oft genug allein. Weil wir selber nicht besser sind als 709 Bundestags- und 1.886 Landtagsabgeordnete, über deren Linientreue wir uns so gern ereifern, und die Talk-Show-Unterhalter, über die wir uns bestenfalls auf der Couch mokieren. Vielleicht sollten die Bürger, egal ob liberal oder konservativ, darüber nachdenken, dass der Prozess, der zur Veränderung führt, unten beginnt. Und nicht von oben. Bevor man die Angst vertreibt, darf man selbst keine haben und sich auch keine machen lassen. Sich auf sein eigenes Urteil zu verlassen und das für recht und richtig Erkannte durchzusetzen, ist als guter Vorsatz womöglich weiterführender, als auf eine Impfung zu hoffen. Gegen die Vernunft sind schon zu viele immun. In diesem Sinne auf ein gutes Neues Jahr.

Der Beitrag erschien zuerst bei ACHGUT hier




Dezember­rückschau: Kaum langfristige Erwärmung im Christmond – …

Der DWD beginnt mit seinen Aufzeichnungen 1881, wobei der Bereich von 1850 bis 1900 eine letzte Kaltphase der „Kleinen Eiszeit“ war, auf dem Hohenpeißenberg sogar kälter als die 50 Jahre davor. Die Kleine Eiszeit war in Mitteleuropa eigentlich erst ab 1900 zu Ende. Deshalb beginnen wir die Dezemberbetrachtung im Jahre 1900 und lassen auch außer Betracht, dass an den damaligen Wetterstationen im Kaiserreich unter ganz anderen Bedingungen an meist ländlicheren Orten gemessen wurde: Unbeheizte Klosterkirchen, Forsthäuser am Waldrand, singulär stehende große Gutshöfe. Und ein damaliges Institut mit Wetterstation am Stadtrand ist heute Bestandteil einer viel größeren Stadt.

Beginnen wir mit den DWD-Dezembertemperaturen seit 1900 bis 2020:

Abb. 1: Die Trendlinie zeigt in den letzten 120 Jahren einen leichten Anstieg. Ist das eine Bestätigung des CO2-Treibhauseffektes? Für die CO2-Erwärmungsgläubigen schon.

Schaut man sich den Verlauf genauer an, dann sieht man sofort, dass erst die letzten 10 Dezember wärmer sind, deswegen zerlegen wir die Kurve nun in zwei Teile:

  1. Der Dezemberverlauf von 1900 bis 2010: 110 Jahre keine Erwärmung

Abb. 2: Laut den Daten des Deutschen Wetterdienstes ist die Trendlinie im abgelaufenen Zeitraum fast eine Horizontale. Der minimale „Erwärmungstrend“ ist bei weitem nicht signifikant. Es gab zwar wärmere oder kältere Jahrzehnte, aber insgesamt keine Erwärmung bis 2010, trotz stark steigender CO2-Konzentration in der Atmosphäre.

  1. Der Dezember ab 2011 bis 2020: Der Temperatursprung

Abb. 3a: 2011 setzte beim Monat Dezember ein plötzlicher Temperatursprung von 2,5 Kelvin ein. Es gab kein Dezembermittel unter +1°C mehr, und alle Dezember lagen über dem Langjährigen Mittelwert von 1900 bis 2010. (0,9 C)

Zur besseren Verdeutlichung in gleichen Maßstäben nebeneinander:

Abb. 3b: Zwei mal ebene Trendlinien, nur ab 2011 gab es einen Temperatursprung im Dezember. Auf diesem milderem Niveau bewegte sich auch der Dezember 2020. Wie lange noch?

Ganz im Gegensatz zum Temperatursprung verhielt sich die CO2-Zunahme der Atmosphäre. Es gab einen sich beschleunigenden Anstieg, welcher etwa um 1850 begann und derzeit mit über 2 ppm pro Jahr verläuft. Zwischen den Dezembertemperaturen in Deutschland und der Keeling-Kurve der steigenden CO2-Konzentration besteht kein eindeutiger Zusammenhang. Während aber die meisten Monate des Jahres zwei bis vier Klimasprünge aufwiesen, deren nachfolgende Klimaphasen eine Länge von mindestens 25 Jahren oder mehr aufwiesen, fehlen diese im Dezember. Der wärmere Zeitraum von 2011 bis 2020 ist noch viel zu kurz – erst, wenn das sehr hohe Temperaturniveau bis mindestens zum Jahre 2035 bestehen bleiben sollte, handelt es sich um einen wirklichen Klimasprung „nach oben“. Bisher ist es einfach nur ein wärmeres Jahrzehnt, das sich vom starken CO2-Anstieg seit 2011 – über 20 ppm – überhaupt nicht beeinflussen ließ: keinerlei Korrelation. Das wärmere Jahrzehnt könnte genauso wieder abrupt enden wie es plötzlich begann.

Abb. 4: Die CO2-Konzentration der Atmosphäre steigt stetig, besonders seit etwa 1970. Aber zwischen 1970 und 2010 kühlte sich das Deutsche Dezembermittel um gut 0,8°C ab – erst mit dem Jahre 2011 wurde es plötzlich wärmer, was im Rekord-Dezember von 2015 mit +6,5°C gipfelte. Der karminrote Balken markiert das Dezember-Mittel von 1881 bis 2010, welches +0,8°C beträgt.

Wir stellen fest: Zwischen der CO2-Anstiegskurve und den Dezembertemperaturen gibt es keinerlei Zusammenhang.

Kohlendioxid kann auch nicht für den Dezember-Temperatursprung von 2010 auf 2011 verantwortlich gemacht werden. Temperatursprünge haben natürliche Ursachen, des sich ständig ändernden Klimas.

Auch Wärmeinseleffekte lösen keine Temperatursprünge aus und so zeigt sich der Temperatursprung auch bei WI-armen Stationen in Mitteleuropa mit einem ähnlichen Verlauf.

Anmerkung: Wärmeinseleffekte sind in den Wintermonaten eh schwächer ausgeprägt als in den Sommermonaten. Der Grund der WI-Effekte ist die Sonne. Sie heizt die Außenhüllen der Gebäude und die Straßen in einer Siedlung wesentlich stärker auf als die Gebäudeheizung. Und die mit Sickerschläuchen und Entwässerungsgräben durchzogene freie Landschaft fällt nur in den Sommermonaten so richtig trocken.

Gründe der plötzlich wärmeren Dezember ab 2011 in Mitteleuropa

Versuch einer Ursachenfindung: Ein wesentlicher Einflussfaktor auf die Lufttemperaturen in Mitteleuropa ist die Häufigkeitsverteilung der Großwetterlagen. Diese bestimmen, welche Luftmassen herangeführt werden. Während Atlantikluft stets mehr oder weniger mild, wolkenreich und feucht ist, was dazu führt, dass sie sich auch unter Hochdruckeinfluss nur ganz langsam abkühlt, sind Luftmassen aus Nord oder Ost im Dezember schon bei ihrer Ankunft meist kalt, und weil sie oft klar sind und die Dezembersonne kaum Kraft hat, kühlen sie oft noch weiter aus. Es zeigte sich nun eine plötzliche, starke Häufigkeitsabnahme der Nord- und Ostlagen im Dezember nach 2010:

Abb. 5: Die Häufigkeit der Nord- und Ostlagen schwankte im Dezember enorm; aber nur zwischen 1981 und 1994 war ihre Anzahl noch geringer als seit 2011. Hierbei ist zu beachten, dass unter bestimmten Umständen auch andere Großwetterlagen, so alle Hochdrucklagen über Mitteleuropa, die Südliche Westlage, das Tief Britische Inseln und der Trog über Westeuropa, zu mehr oder weniger kalter Dezemberwitterung führen können. Diese sind in der Grafík nicht enthalten; südliche Westlagen waren für die Schneekatastrophe über Norddeutschland zum Jahresende 1978 und für den schneereichen Dezember 1981 verantwortlich.

Als wesentliche Ursache der Großwetterlagen-Häufigkeit seien die NAO und die Sonnenaktivität genannt. Positive NAO-Werte (im weitesten Sinne ein hohes Luftdruckgefälle zwischen Azorenhoch und Islandtief) begünstigen milde West- und Südwestlagen. Außerdem kann vermutet werden, dass die aktuelle AMO-Warmphase in Einzelfällen milde Dezember und Winter begünstigen könnte, obwohl ihr Temperatureinfluss nur im April und von Juni bis November signifikant positiv ist.

Fazit: Neutrale Klimaforscher können immer erst hinterher feststellen, welche Faktoren in Mitteleuropa in einzelnen Monaten das Wetter und über 30 Jahre das Klima bestimmten. Der Monat Dezember verhält sich allerdings etwas außergewöhnlich: Zuerst 110 Jahre lang eine ebene Trendlinie, dann plötzlich ein viel wärmeres Jahrzehnt. Von keinem CO2-Treibhausanhänger wurde der Dezember-Temperatursprung ab 2011 vorhergesagt. Die letzten 10 milden Dezembermonate sind neben den drei warmen Sommermonaten natürlich mitverantwortlich für die letzten 10 warmen Jahre in Deutschland. Warme Sommer werden weiterhin gemeldet werden, weil die WI-Effekte in Deutschland weiter zunehmen und andere Messungen nicht berücksichtigt werden. Da beim Dezember die WI-Effekte minimaler wirken, kann sich das Wetter auch schneller wieder ändern.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Klimaschau 4 – die Tagesschau von Sebastian Lüning

Keine Vorschau zu sehen? HIER KLICKEN




Hochwinter 2021 – etwas kälter als seine Vorgänger?

Ein Blick auf die Entwicklung der NAO (Nordatlantische Oszillation, ein Maß für das Luftdruckgefälle zwischen Azoren und Island) zeigt, dass sich im Dezember 2020 vorwiegend leicht negative NAO-Werte einstellten; die in den Vorjahren rege Westdrift fehlte:

Abbildung 1: Nach langer Positiv-Phase im Spätherbst herrschten von Anfang Dezember 2020 bis zum „Vorweihnachts-Tauwetter“ leicht negative NAO-Werte, „richtiges“ Winterwetter hatte das trotz der geschwächten Westdrift und der Meridionalisierung aber nicht zur Folge. Quelle: NOAA (Wetterdienst der USA)

Die NOAA-Vorhersagen gehen nun von rasch wieder fallenden NAO-Werten aus; was auch über den Jahreswechsel anhalten soll und ein wenig Hoffnung auf Winterwetter weckt.

Bauern- Regeln werden zwar oft als altmodisch belächelt; doch oftmals haben sie einen wahren Kern. Sie stellen oft (unbewusst) auf die Erhaltungsneigung der großräumigen Zirkulation ab, welche kurz nach der Wintersonnenwende besonders ausgeprägt ist. Die beiden Regeln „Dezember, wechselhaft und lind, der ganze Winter bleibt ein Kind.“ und „War bis Dreikönigstag kein (richtiger) Winter, so folgt (meist) keiner mehr dahinter“ machen den Winterfans wenig Mut, zumal auch fast alle Langfrist-Modelle eine sehr milde Witterung in den Monaten Januar und Februar erwarten, freilich mit großer Unsicherheit:

Abbildungen 2a und 2b: Momentan sieht das wichtigste experimentelle Langfristmodell, das CFSv2 des US- Wetterdienstes NOAA, einen zu milden Januar 2021 (oben) und einen sehr milden Februar vorher – fast so, wie vor dem Hochwinter 2020. Zur Beachtung: Diese Prognosen sind experimenteller Art und keinesfalls stets zutreffend; doch momentan erwarten auch die meisten anderen Institute einen mehr oder weniger deutlich zu milden Hochwinter 2021.

Nun ist es nicht so, dass wegen der angeblichen Klimaerwärmung keine großen Kaltluftmassen mehr im Nordwinter entstehen. Im Herbst 2020 wuchs die von Eis bedeckte Meeresoberfläche in der Arktis recht stark, aber die kälteste Luft sammelte sich, wie in den bei uns milden Vorwintern, über Nordostkanada und Grönland, nicht über Nordskandinavien/Nordwestrussland, was eine erste, wichtige Voraussetzung für einen Kaltwinter in Deutschland wäre. Anfang Januar 2021 könnte sich aber wegen einer starken Meridionalisierung zumindest die höhenkalte Luft, welche „zwischen den Jahren“ nach West- und Mitteleuropa gelangte, noch halten:

Abbildung 3 sieht nach Winter aus: Operativ-Prognose des GFS vom 26. 12. 2020 mittags für den 6. Januar 2021 mittags. Man erkennt eine Hochdruckbrücke Atlantik-Nordrussland und tiefen Luftdruck über dem südlichen Mitteleuropa, Südwesteuropa und dem nördlichen Mittelmeerraum. Mitteleuropa läge dabei unter mäßig-kalter Höhenluft – perfekt für gebietsweise Schneefälle und mindestens leichtem Frost bis ins Flachland. Aber das wird so nur mit mäßiger Wahrscheinlichkeit eintreten – die anderen 30 Modelle zeigen teils noch gänzlich andere Szenarien. Quelle der Abbildung: wetterzentrale.de .

Ein anderes, freilich ebenfalls nur experimentelles Prognoseverfahren basiert auf so genannten Analogfällen, das sind Jahre mit ähnlicher Luftdruckverteilung wie 2020 in den Vormonaten des zu prognostizierenden Winters. Eine solche fand sich in den Jahren 1948, 1955, 1966, 1970, 1971, 1973, 1975, 1988, 1999, 2007, 2008, 2010, 2017 und 2019. Berechnet man daraus die mittlere Luftdruckverteilung für Januar und Februar, so zeigt sich folgendes Bild:

Abbildungen 4a und 4b: Mögliche, aus den Analog-Fällen berechnete Abweichungen des Boden-Luftdrucks (umgerechnet auf Meeresspiegelhöhe) vom Langjährigen Mittel in hPa im Januar (oben, 4a) und im Februar. Rot bedeutet übernormalen, blau unternormalen Luftdruck. Man erkennt im Januar ein riesiges Gebiet übernormaler Abweichungen über fast ganz West-, Mittel-, Südost- und Osteuropa. Eine solche Verteilung begünstigt das Auftreten von Hochdruckgebieten über Süd- und Südosteuropa; keine guten Voraussetzungen für längere, sehr kalte Witterungsphasen. Im Februar sieht es wegen einer relativen Hochdruckzone vom Nordatlantik über Mittel- nach Osteuropa eher noch schlechter aus; doch sind diese Vorhersagen sehr unsicher. Quelle beider Abbildungen LARS THIEME

Wenn, wie auch 2020, im Jahresmittel ein deutlich zu hohes Geopotential über Deutschland herrschte, so erhöht das die Wahrscheinlichkeit für einen eher milden Folge-Januar:

Abbildung 5: Je höher die 500-hPa-Fläche über Deutschland im Vorjahr (Jahresmittel) lag, desto milder fällt tendenziell der folgende Januar in Deutschland aus; dies traf sehr gut auf die sehr milden Januare 1983, 1990, 2007, 2008 und 2020 zu. Freilich gilt aufgrund der hohen Streuung: Keine Regel ohne Ausnahme! So folgte dem recht niedrigen Geopotential 1974 ein extrem milder Januar 1975, und der Januar 1954 fiel trotz eines vorangehenden, relativ hohen Geopotentials deutlich zu kalt aus.

Die QBO wechselt aller Voraussicht nach erst weit nach dem Winter auch in den untersten Stratosphären-Schichten zur Ostwindphase. Etwas mehr Hoffnung macht der aktuell geschwächte, teils gar gesplittete Polarwirbel – ganz anders, als noch Anfang Dezember:

Abbildungen 6a und 6b: Für Anfang Dezember 2020 wurde noch ein fast ungestörter, extrem kalter Polarwirbel mit Zentrum über Grönland vorhergesagt (oben); für den 7. Januar hingegen ein „Polarwirbelsplitting“ mit zwei schwachen Kernen über Nordamerika und Westrussland (unten). Auch diese Prognosen sind aber sehr unsicher. Bildquelle meteociel.fr (Französischer Wetterdienst)

Fazit: Eindeutige, verlässliche Anzeichen für einen länger kalten Hochwinter 2021 in Deutschland fehlen zwar, manche Modell-Läufe, die NAO und der Polarwirbel machen aber deutlich mehr Hoffnung auf Winterwetter bis ins Flachland zumindest im Januar als in den Vorjahren; der Februar scheint nach jetzigem Stand mild bis sehr mild auszufallen; das wird sich aber erst zum Ende des Januars eindeutig zeigen.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 26.12. 2020




Das zur Bewertung des Corona Lockdown verwendete Modell ist fehlerhaft

Video: Drei Gründe, warum mathematische Modelle die Ausbreitung des Coronavirus nicht vorhersagen konnten –

Im Original angegebener Link für weitere Research News [EurekAlert!]

Die Ergebnisse von Imperial zeigten, dass es fast ausschließlich die vollständige gesellschaftliche Sperrung war, die die Infektionswelle in Europa im Frühjahr unterdrückte.

Die Studie schätzte die Auswirkungen verschiedener Maßnahmen wie soziale Distanzierung, Selbstisolierung, Schließung von Schulen, Verbot öffentlicher Veranstaltungen und die Sperrung selbst.

 „Da die Maßnahmen im März über einige Wochen ungefähr zur gleichen Zeit eingeführt wurden, enthalten die verwendeten Mortalitätsdaten einfach nicht genügend Informationen, um ihre individuellen Auswirkungen zu unterscheiden. Wir haben dies durch eine mathematische Analyse demonstriert. Auf dieser Grundlage haben wir dann Simulationen mit dem Originalcode des Imperial College durchgeführt, um zu veranschaulichen, wie die Empfindlichkeit des Modells zu unzuverlässigen Ergebnissen führt “, erklärt Kristian Soltesz, Associate Professor für automatische Steuerung an der Universität Lund und Erstautor des Artikels.

Das Interesse der Gruppe am Modell des Imperial College wurde durch die Tatsache geweckt, dass es fast die gesamte Verringerung der Virus-Übertragung während des Frühlings durch Sperren in zehn der elf modellierten Länder erklärte. Die Ausnahme war Schweden, das niemals eine Sperrung einführte.

„In Schweden bot das Modell eine völlig andere Maßnahme als Erklärung für die Reduzierung – eine Maßnahme, die in den anderen Ländern fast unwirksam erschien. Es schien fast zu schön, um wahr zu sein, dass in jedem Land außer einem, eine wirksame Sperrung eingeführt wurde, während eine andere Maßnahme in Schweden ungewöhnlich wirksam zu sein schien “, bemerkt Soltesz.

Soltesz weist sorgfältig darauf hin, dass es durchaus plausibel ist, dass einzelne Maßnahmen eine Wirkung hatten, jedoch kann nicht das Modell zur Bestimmung ihrer Wirksamkeit herangezogen werden.

„Die verschiedenen Interventionen scheinen nicht isoliert voneinander zu wirken, sondern sind oft voneinander abhängig. Eine Verhaltensänderung infolge einer Intervention beeinflusst die Wirkung anderer Interventionen. Wie viel und auf welche Weise ist schwieriger festzustellen und erfordert unterschiedliche Fähigkeiten und Zusammenarbeit “, sagt Anna Jöud, außerordentliche Professorin für Epidemiologie an der Universität Lund und Mitautorin der Studie.

Analysen von Modellen des Imperial College und anderer belegen, wie wichtig es ist, dass epidemiologische Modelle überprüft werden, so die Autoren.

„Das ist ein Schwerpunkt in der Debatte über Datenquellen und deren Zuverlässigkeit, aber es fehlt fast vollständig an einer systematischen Überprüfung der Sensitivität verschiedener Modelle in Bezug auf Parameter und Daten. Dies ist ebenso wichtig, insbesondere wenn Regierungen auf der ganzen Welt dynamische Modelle als Entscheidungsgrundlage verwenden “, betonen Soltesz und Jöud.

Der erste Schritt besteht darin, eine korrekte Analyse der Empfindlichkeiten des Modells durchzuführen. Wenn sie ein zu großes Problem darstellen, werden zuverlässigere Daten benötigt, oft kombiniert mit einer weniger komplexen Modellstruktur.

 „Wenn viel auf dem Spiel steht, ist es ratsam, angesichts grundlegender Einschränkungen [und Entscheidungen] demütig zu sein. Dynamische Modelle sind verwendbar, solange sie die Unsicherheit der Annahmen, auf denen sie basieren, und der Daten, von denen sie geleitet werden, berücksichtigen. Ist dies nicht der Fall, entsprechen die Ergebnisse den Annahmen oder Vermutungen“ [der Programmierer und deren Auftraggebern] schließt Soltesz.

https://wattsupwiththat.com/2020/12/29/model-used-to-evaluate-lockdowns-was-flawed/

Übersetzt durch Andreeas Demmig