1

Deutschland – ein Wintermärchen

Ab 2021 gilt eine neue Klima-Normalperiode, die von 1991 bis 2020

Auch wenn es Klima-Erwärmungsgläubigen schwerfällt – ab sofort wird auf Beschluss der Weltorganisation für Meteorologie (WMO) die alte, kalte und schon reichlich angestaubte Normalperiode von 1991 bis 1990 durch die aktuelle, wärmere von 1991 bis 2020 ersetzt. Das hat Konsequenzen – künftig liegt die Messlatte für warme Jahre und Jahreszeiten viel höher. Für den Winter im Deutschland-Mittel bedeutet es Folgendes: Von 1961 bis 1990 (Abkühlungsphase) betrug das Vergleichs-Wintermittel +0,3°C, von 1981 bis 2010 +0,9°C, 1991 bis 2020 aber +1,4°C. Betrachtet man nun aber die Entwicklung der Winter-Temperaturen im Deutschland-Mittel seit dem „Klimasprung“ von 1987/88, als es letztmalig plötzlich im Winter merklich wärmer wurde, so zeigt sich fast Stagnation; die weitere Erwärmung war gering und nicht signifikant. Der aktuelle Winter wurde dabei vom Verfasser dieses Beitrages eher optimistisch auf +2,0°C geschätzt, diese muss er erst einmal erreichen:

Abbildung 1: Seit Anfang 1987/88 erwärmte sich der Winter in Deutschland kaum noch; auch der aktuelle, recht milde wird wohl etwas kühler ausfallen, als die Winter von 1988 bis 1990. Der extrem milde Rekordwinter von 2006/07 mit fast +4,4°C liegt nun auch schon fast anderthalb Jahrzehnte zurück.

Immer weniger Arktisches Meereis im Winter?

Auch den flächen- und volumenmäßigen Rückgang des arktischen Meereises bestreitet niemand, doch sieht dieser weitaus dramatischer aus, als er tatsächlich ist, denn eine quantitative, kontinuierliche, relativ zuverlässige Erfassung war erst mit der Weiterentwicklung der Satelliten-Technik ab dem Jahre 1979 möglich – aber damals war gerade der Höhepunkt einer Abkühlungsphase erreicht; es wurden schon Wetten abgeschlossen, ob man bald über das Eis von Grönland nach Island laufen könne – und es kam dann ganz anders: Wegen der um 1990 einsetzenden AMO-Warmphase wurde viel Wärme in die Arktis eingetragen; das Eis zog sich zurück. Allerdings gab es derartige Rückzugsperioden auch schon während der AMO-Warmphase um 1930, und wie hätten die Wikinger im frühen Mittelalter Island, Grönland und Neufundland erreichen können, wenn es damals viel Eis gegeben hätte? So zeigt sich auch die aktuelle, winterliche Entwicklung der Meereisbedeckung nur leicht unterdurchschnittlich und keineswegs dramatisch:

Abbildung 2: Flächenentwicklung des Arktischen Meereises bis zum 4. Januar 2021 (hellblaue Linie). Noch im Oktober gab es, gemessen am Mittelwert von 1981 bis 2010, viel zu wenig Eis, doch in den vergangenen 10 Wochen verringerte sich dieses Defizit merklich. Bildquelle

Mehr Schneebedeckung in Eurasien?

In den vergangenen zwei Wintern hatten Schneefans in Mitteleuropa wenig Freude; die „weiße Pracht“ war, wenn überhaupt, nur im höheren Bergland zu bewundern. Doch Europa ist nur das bedeutungslose Anhängsel des Riesen-Kontinents Eurasien. Betrachtet man dessen Ausdehnung der Schneebedeckung zu verschiedenen Jahreszeiten, so zeigt sich folgendes Bild:

Abbildung 3: Seit 1978, dem Beginn der regelmäßigen Erfassung, hat sich die von Schnee bedeckte Fläche in Eurasien im Herbst deutlich und im Winter leicht vergrößert; im Frühling nahm sie, vermutlich durch längere und intensivere Besonnung, ab.

Beeinflusst die AMO die Wintertemperaturen in Deutschland?

Die Atlantische Multidekaden-Oszillation (Abkürzung AMO; engl. atlantic multidecadal oscillation) ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird. Gegenwärtig befinden wir uns in einer AMO-Warmphase, die um 1990 begann und möglicherweise bald enden wird. Doch während für die Jahreszeiten Sommer und Herbst sowie für den April eindeutige, positive Einflüsse bestehen (in AMO-Warmphasen sind diese in Deutschland tendenziell wärmer), konnten für den Winter keine eindeutigen Zusammenhänge gefunden werden:

Abbildung 4: Fast Gleichlauf zwischen der schwarzen Kurve (NAO) und der violetten (Westlagen-Häufigkeit) im meteorologischen Winter. Deren langfristige Entwicklung erklärt recht gut die Entwicklung der Deutschen Wintertemperaturen (hellblau). Zur grünen Kurve (AMO) besteht mit r= 0,146 nur ein geringer, nicht signifikanter positiver Zusammenhang. Weil die vier Größen sehr unterschiedliche Werte haben, wurden sie zur besseren Veranschaulichung in einer Grafik in Indexwerte umgerechnet.

Tendenziell treten in AMO-Phasen mehr Süd- und Südwestlagen auf; doch bringen gerade Südlagen im Winter nicht immer deutlich übernormale Temperaturen. Trotzdem könnte es bei sehr hohen AMO-Werten, wie gegenwärtig, im Einzelfall zu verstärkten, gebietsweisen Warmluft-Einbrüchen im Winter kommen. Der sehr milde Dezember 2020, in dem Westlagen aber eher selten waren, deutet in diese Richtung. Er wies am Monatsanfang und am Monatsende zwei markante Troglagen über West- und Mitteleuropa auf. Dabei standen sich zeitweise ein Tief über dem südlichen Mitteleuropa und ein Russland-Hoch gegenüber; zwischen beiden strömte über Westpolen extrem milde Mittelmeer-Luft nordwärts, während in West-und Mitteleuropa sonst nasskaltes Wetter mit gebietsweisen Schneefällen in den Mittelgebirgen und extrem starken Schneefällen in den Alpen herrschte:

Abbildung 5: Winterlicher, räumlich eng begrenzter Warmlufteinbruch über den Balkan, Böhmen und Westpolen am 6. Dezember 2020. Dort wurden noch abends zweistellige Plusgrade gemessen, während es über Südrussland schon frostig kalt und in Mittel- und Westeuropa nasskalt war. Bildquelle

Winter und Energiewende – das passt nicht gut zusammen

Der Dezember 2020 zeichnete sich, ganz anders als seine beiden Vorgänger, durch viele Flauten aus; auch die Sonnenscheindauer blieb gering:

Abbildung 6: Während die Solarenergie im Dezember 2020 praktisch keinen nennenswerten Strom lieferte, war auch Windstrom bis zur Monatsmitte und am Monatsende Mangelware. Braun- und Steinkohle, Kernkraft und zunehmend Erdgas verhinderten, dass in Deutschland die Lichter ausgingen.

Und in den ersten Januartagen sah es für die „Erneuerbaren“ Energien auch alles andere als rosig aus:

Abbildung 7: Fehlstart der „Erneuerbaren“ bis zum 5. Januar 2021: An den ersten zwei Januartagen kaum Wind, auch danach unterdurchschnittliche Windausbeute. Und die Sonne lieferte praktisch Nichts – zum Glück gibt es (noch) Kohle- und Kernkraftwerke; bei deren Abschaltung werden wir wohl künftige Winter in Kälte und Dunkelheit verbringen müssen.

Im Winter steigt der Stromverbrauch tendenziell an, weil mehr Licht benötigt und die meisten Heizungsanlagen zwar mit Erdgas oder Öl befeuert, aber mit Strom gesteuert werden. Anders als in den übrigen Jahreszeiten, nahm im Winter die Anzahl der unbestimmten, schwachwindigen XX-Lagen nur geringfügig zu; dennoch sind die Produktionsergebnisse des Windstroms trotz weiteren Ausbaus gerade der Offshore-Anlagen unbefriedigend. Sollte sich der Trend zu mehr schwachwindigen Wetterlagen künftig auch im Winter beschleunigen, was durchaus zu erwarten ist, so dürfte das endgültige Scheitern der Energiewende nicht mehr zu verhindern sein.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 05. 01. 2021




RKI zu PCR-Tests: Corona-Inzidenz unter 100 nicht erreichbar

Am 5. Januar haben die Ministerpräsidenten über eine Verlängerung und Verschärfung der Ausgangsbeschränkungen beraten. Als Grenzwert soll künftig eine Inzidenz von 100 Coronafällen pro 100.000 Einwohnern dienen.

Nicht nur betreffen derartige Einschränkungen damit „faktisch fast ganz Deutschland„, wie es aus den Ländern heißt. Die Maßnahmen könnten noch dazu nie wieder aufgehoben werden. Denn dieser Wert könne selbst von einer nachweislich gesunden, vollständig durchgetesteten Bevölkerung nicht unterschritten werden.

So schreibt das RKI: „Ein negatives PCR-Ergebnis schließt die Möglichkeit einer Infektion mit SARS-CoV-2 nicht aus“ und spricht von einer Spezifität von „nahezu 100 Prozent“. Beides lässt vermuten, dass PCR-Tests nicht fehlerfrei sind. An anderer Stelle schreibt das RKI:

Wie bei allen Testverfahren mit einer Spezifität < 100 % ist – insbesondere bei einer geringen [Verbreitung] in der Bevölkerung – ein gewisser Anteil falsch positiver Testergebnisse unvermeidbar.“

Letzteres lässt darauf schließen, dass insbesondere bei einer kleinen Anzahl tatsächlich Erkrankter die Aussagekraft der Tests nachlässt. Das bedeutet im Umkehrschluss: Je mehr Menschen tatsächlich infiziert sind, desto zuverlässiger sind die Ergebnisse.

Bereits eine Fehlerquote von 0,1 Prozent – bei einer angenommen Test-Genauigkeit von 99,9 Prozent – führt jedoch dazu, dass unter 100.000 nachweislich gesunden Menschen 100 falsch-positive Testergebnisse zu erwarten sind. Eine Lockerung der beschlossenen Maßnahmen wie Ausgangssperren, Beschränkung des Mobilitätsradius und der Zeit im Freien, wäre daher unmöglich.

Auch der kleinste Fehler ist ein Fehler

Entscheidend für die (statistische) Qualität eines Tests sind zwei Größen: Die Sensitivität und die Spezifität. Sucht man mit einem Test in einer Bevölkerung nach einer Erkrankung oder einem Erreger, gibt es zwei Ziele:

    • Der Test sollte zuverlässig alle finden, die wirklich krank sind, also niemanden übersehen – daraus ergibt sich die Sensitivität.
    • Der Test sollte zuverlässig nur die finden, die wirklich krank sind, also bei niemandem positiv ausfallen, der nicht krank/infiziert ist – das ergibt die Spezifität.

Die Sensitivität gibt an, bei wie viel Prozent der Tests das untersuchte Merkmal (COVID-19) korrekt erkannt wird, also ein „richtig-positives“ Testresultat auftritt. Die Spezifität hingegen gibt die Wahrscheinlichkeit an, mit der tatsächlich Gesunde richtigerweise als gesund beziehungsweise „richtig-negativ“ erkannt werden. Je größer diese Werte liegen, desto besser ist der Test. Dennoch übersieht jeder Test mit einer noch so kleinen Fehlerrate einen Teil der tatsächlich Kranken oder Infizierten.

Das heißt, der Test zeigt negative Testergebnisse bei Menschen, die eigentlich hätten positiv ausfallen müssen, sogenannte „falsch-negative Ergebnisse“. Außerdem kann der Test positive Testergebnisse bei Menschen anzeigen, die eigentlich hätten negativ ausfallen müssen, weil diese Menschen nicht krank/infiziert sind, sogenannte „falsch-positive Ergebnisse“.

Antigen- und PCR-Tests: Fehlerquote 0,1 bis 30 Prozent

Das Robert Koch-Institut (RKI) gibt für PCR-Tests weder für Spezifität noch Sensitivität exakte Werte an. In den Antworten auf Häufig gestellte Fragen hießt es:

Aufgrund des Funktionsprinzips von PCR-Tests und hohen Qualitätsanforderungen liegt die analytische Spezifität bei korrekter Durchführung und Bewertung bei nahezu 100 %.“

Nahezu 100 Prozent kann 99,9 Prozent oder 95 Prozent bedeuten – beides ergibt mathematisch korrekt gerundet 100 Prozent. Eine im April 2020 erfolgte Qualitätskontrolle unter der Leitung von Prof. Zeichhardt vom Institut für Qualitätssicherung in der Virusdiagnostik gab die durchschnittliche Spezifität der PCR-Tests (Untersuchung des Rachenabstrichs auf Coronaviren) mit 99,3 Prozent an. Unabhängig davon bezifferte eine Studie der Johns Hopkins School of Medicine die Sensitivität dieses Testverfahrens unter realen Bedingungen und den Testkriterien in Deutschland auf etwa 70 Prozent.

Für Antigen- oder Schnelltests nennt das RKI in einem Eckdaten-Papier des lokalen Corona-Monitorings für Straubing exakte Zahlen. Hierbei liegt die Sensitivität bei 88,3 Prozent. Die Spezifität gibt das RKI mit 99,4 Prozent an.

Sowohl für PCR- als auch Schnelltests gilt jedoch, dass die unsachgemäße Anwendung zu Fehlern führen kann. Das hat auch die WHO erkannt und warnt ausdrücklich: PCR-Anwender „sollten [die] Gebrauchsanweisungen sorgfältig lesen“. Je nach Hersteller steht dort, dass der Test für Patienten bestimmt ist, „die Symptome der COVID-­19 aufweisen“. Im Umkehrschluss bedeutet das, PCR-Tests sind nicht für die Untersuchung asymptomatischer Personen vorgesehen. Die angegebenen Fehlerquoten können daher nur für symptomatische Patienten gelten.

Sofern nicht anders angegeben, werden für die nachfolgende Betrachtung sowohl Spezifität als auch Sensitivität für PCR-Tests von 99,9 Prozent angenommen.

19 von 20 „positiv Getesteten“ sind gesund

Aus Sensitivität und Spezifität ergeben sich zwei weitere statistische Größen, die die Genauigkeit der Testergebnisse veranschaulichen. Der positive Vorhersagewert (positive predictive value, PPV) gibt die Wahrscheinlichkeit an, mit der ein positiv erhobenes Testergebnis tatsächlich auf eine COVID-19-Erkrankung hinweist. Der negative Vorhersagewert (NPV) gibt analog die Wahrscheinlichkeit an, mit der ein negatives Testergebnis richtig ist.

Die mathematischer Herleitung erfolgt anhand einer Vierfeldertafel mit den Merkmalen „infiziert/nicht infiziert“ und „positiv/negativ getestet“. Darüber hinaus bietet das Internet Werkzeuge zur Ermittlung der beiden statistischen Kenngrößen. [Hinweis der Redaktion zur richtigen Rechenweise: Beim Online-Tool besteht die virtuelle Testgruppe aus zehntausend statt einhunderttausend Personen, sodass die täglich veröffentlichten Inzidenz-Werte durch zehn geteilt werden müssen, um ein realistisches Bild zu erhalten.]

Für die angenommenen Werte für Sensitivität und Spezifität von je 99,9 Prozent sowie der aktuellen (9. Januar 2021) bundesweiten Corona-Inzidenz von 154 Fällen pro 100.000 Einwohnern – vorausgesetzt alle gemeldeten Fälle (0,15 Prozent der Bevölkerung) sind tatsächlich infiziert – ergibt sich ein PPV von 60,98 Prozent. Das heißt, 60 Prozent der positiven Tests liegt tatsächlich eine Corona-Infektion zugrunde. Gleichzeitig bedeutet dieser Wert jedoch auch, dass 40 Prozent oder etwa jedes zweite positive Testergebnis falsch ist.

Mit den Werten von Prof. Zeichhardt und der Johns Hopkins School of Medicine sinkt der PPV für PCR-Tests auf 13,7 Prozent oder „nur jeder Achte Positive ist infiziert“. Ein Antigen-(Schnell-)Test zeigt unter Annahme praxisnaher Werte von 80 Prozent Sensitivität und 98 Prozent Spezifität nur in 5,7 Prozent der Fälle ein richtig-positives Ergebnis an. Das heißt, 19 von 20 positiv Getesteten sind gesund.

Corona-Inzidenz unter 100 mit PCR-Tests nicht erreichbar

Für den niedersächsischen Landkreis Friesland registrierte das RKI am 10. Januar 42 Corona-Positive pro 100.000 Einwohner (7-Tage-Inzidenz). Wiederum unter der Voraussetzung, dass alle Positiven tatsächlich infiziert sind, ergibt sich dort ein PPV (für 99,9 Prozent genaue PCR-Tests) von 29,0 Prozent. Das heißt: Nur einer von vier positiv Getesteten ist tatsächlich infiziert. Der Schnelltest-PPV liegt bei etwa 1,5 Prozent.

Im sächsischen Landkreis Bautzen betrug die 7-Tage-Inzidenz 545,4 (RKI-Dashboard, 10.1., 12:50 Uhr). Der dazugehörige PPV liegt bei 85,1 Prozent: Fünf von sechs PCR-Positiven sind tatsächlich infiziert. Der PPV für Schnelltests liegt unter diesen Umständen bei 18,2 Prozent.

Steigt die Prävalenz – die Zahl der tatsächlich Infizierten –, steigt auch die Genauigkeit der Tests. Andererseits zeigt auch ein zu 99,9 Prozent zuverlässiger Test 0,1 Prozent Fehler an. In einer vollständig Corona-verseuchten Bevölkerungsgruppe von 100.000 Personen sind daher immer noch 100 falsch-negative Testergebnisse zu erwarten – und in einer nachweislich gesunden Bevölkerung 100 falsch-positive Ergebnisse und damit eine Corona-Inzidenz von 100.

Mit den von Prof. Zeichhardt und der Johns Hopkins School of Medicine ermittelten Werten, könnte die Inzidenz – in einer vollständig durchgetesteten, gesunden Bevölkerungsgruppe – nicht unter 700 sinken.

Die aktuellen Werte zwischen 42 und 545 ergeben sich, wenn beispielsweise nur ein Teil der Bevölkerung getestet wird und aus dieser Stichprobe auf die Gesamtheit geschlossen wird. So registrierte das RKI binnen der letzten sieben Tage in Bautzen 1.635 Corona-Positive (RKI-Dashboard, 10.1., 12:50 Uhr) – von denen rechnerisch jeder sechste falsch positiv ist. Bezogen auf die Gesamtbevölkerung des Landkreises von etwa 300.000 Einwohnern, errechnet sich die aktuelle Inzidenz von 545,4 pro 100.000.

Update 11. Januar

Eine frühere Version dieses Artikels verwies auf eine ungeprüfte Quelle, die Aussage des Artikels war davon nicht betroffen. Seit Veröffentlichung des Artikels wurden die eingangs erwähnten Maßnahmen beschlossen, außerdem erfolgte eine Aktualisierung der Zahlen anhand des COVID-19-Dashboards (zuletzt aufgerufen 10.1., 12:50 Uhr) des RKIs.

Dieser Beitrag stellt ausschließlich die Meinung des Verfassers dar. Er muss nicht zwangsläufig die Sichtweise der Epoch Times Deutschland wiedergeben.



Steigt der Meeresspiegel immer schneller? (T1/2)

Leider allerdings nur wieder ein Beispiel, wie angebliche „Wissenschaftler“ gemeinsam mit unseren Medien den Bürger bewusst belügen bzw. ihm nicht die ganze Wahrheit sagen. Auf kaltesonne wurde es thematisiert [2]. Da die Info dort etwas kurz geraten ist und den Sachverhalt nur anreißt, anbei eine etwas längere Ausführung.

Der Meeresspiegel steigt. Und nicht nur das: Er steigt immer schneller…

…verkündete Prof. Rahmstorf (PIK) im Spiegel [1]. Und er wusste dazu zu erzählen, dass man auch wisse, warum das so ist: „[1] Wie stark der Klimawandel diesen Effekt treibt, ist inzwischen weitgehend entschlüsselt … “. Dazu erzählt er auch, dass die Satelliten den Meerespegel aus einer Bahnhöhe von ca. 1.320 km auf einen Millimeter genau ausmessen könnten: „Die Laufzeit der Wellen erlaubt es, den mittleren globalen Meerespegel auf einen Millimeter genau zu bestimmen“.

Um dann mit der Hiobsbotschaft zu ergänzen: „Seit 1992 ist der globale Meeresspiegel um neun Zentimeter gestiegen. Die Anstiegsgeschwindigkeit hat sich in dieser Zeit mehr als verdoppelt, von 2,1 auf 4,8 Millimeter pro Jahr ... „

Bild 1 [1] Meerespegelverlauf. Darstellung von Prof. Rahmstorf
Dazu passt auch die Wiederholung der Information, wonach der Meerespegel die letzten 2.000 Jahre fast unverändert blieb, nun aber ebenfalls so etwas wie einen „Hockeyschläger-Verlauf“ ausbildet:
[1] Doch schon dieser Anstieg ist einzigartig mindestens seit der Geburt Christi: Sedimentdaten zeigen, dass es seither in keinem Jahrhundert mehr als fünf Zentimeter Anstieg gegeben hat, und Jahrhunderte mit steigendem und fallendem Pegel hielten sich in etwa die Waage

Bild 2 [4] historischer und aktueller Meerespegelverlauf
Wenn irgend jemand vom PIK „spricht“, ist eine Erwähnung der Kipppunkte „unvermeidbar“, schließlich hat diese im Wesentlichen ihr ehemaliger Chef, Herr Schellnhuber, simuliert und propagiert:
[1] Die Eismassen haben seit Jahrzehnten bekannte Kipppunkte durch die Eis-Höhen-Rückkopplung in Grönland und die marine Eisschildinstabilität in der Antarktis. Der Kipppunkt für Grönland (genug für sieben Meter Meeresspiegel) liegt wahrscheinlich irgendwo zwischen einem und drei Grad globaler Erwärmung – nach der besten Abschätzung bei 1,6 Grad. Der Kipppunkt für die Westantarktis (genug für drei Meter Meeresspiegel) ist wahrscheinlich sogar schon überschritten …

Eine aktuelle Studie liest aus den gleichen Daten etwas anderes heraus

Beim Klimawandel bleibt und ist nichts im „Konsens“ oder gar wie oft behauptet „settled“. Wie immer gibt es Wissenschaftler, die zum genau gleichen Datensatz ganz anderes berichten. So auch wieder in diesem Fall:
[5] H. Bâkiİz and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era
Abstract: Recent studies reported a uniform global sea level acceleration during the satellite altimetry era (1993– 2017) by analyzing globally averaged satellite altimetry measurements. Here, we discuss potential omission errors that were not thoroughly addressed in detecting and estimating the reported global sea level acceleration in these studies. Our analyses results demonstrate that the declared acceleration in recent studies can also be explained equally well by alternative kinematic models based on previously well-established multi-decadal global mean sea level variations of various origins, which suggests prudence before declaring the presence of an accelerating global mean sea level with conidence during the satellite altimetry era.
(Leicht angepasste) deepl-Übersetzung: Zusammenfassung: Jüngste Studien berichteten über eine einheitliche globale Meeresspiegel-Beschleunigung während der Satellitenaltimetrie-Ära (1993- 2017) durch die Analyse von global gemittelten Satellitenaltimetrie-Messungen.
Hier diskutieren wir mögliche Auslassungsfehler die bei der Erkennung und Schätzung der berichteten globalen Meeresspiegelbeschleunigung in diesen Studien nicht gründlich behandelt wurden.
Unsere Analyseergebnisse zeigen, dass die angegebene Beschleunigung in den jüngsten Studien ebenso gut auch durch alternative kinematische Modelle erklärt werden kann, die auf gut etablierten multidekadischen globalen mittleren Meeresspiegelschwankungen unterschiedlicher Herkunft basieren. Was zur Vorsicht mahnt, bevor man Erklärungen vertraut, welchen das Vorhandensein eines sich beschleunigenden globalen mittleren Meeresspiegels während der Satelliten Altimetrie-Ära postulieren.
Dem Abstrakt setzten die zwei Studienautoren noch ein Zitat nach: “Nothing is always absolutely so” Sturgeon, The Claustrophile, 1956

In der Studie werden zuerst Daten verschiedener Studien, welche Beschleunigungen im Anstieg der Meerespegel- berichten gelistet und dazu, dass darin (fast immer) keine stichhaltigen Belege enthalten sind. Dann kommt eine eigene Analyse der Satellitendaten:
[5]We analyzed monthly and globally averaged satellite altimetry, SA, global sea level time series to demonstrate that one of the most important approaches to earliest possible detection of a signicant GMSL acceleration lies in recognizing and separating the eect of natural internal forcing of the oceans compounded with the variability of astronomical origin that are not limited to the SA era. We also quanti- ed unusually highly autocorrelated noise in the SA time series, which were not rigorously addressed in recent studies …
(Leicht angepasste) deepl-Übersetzung: ... Wir analysierten monatliche und global gemittelte Zeitreihen der Satellitenaltimetrie SA, (und) des globalen Meeresspiegels, um zu zeigen, dass einer der wichtigsten Ansätze zur frühestmöglichen Erkennung einer signifikanten GMSL-Beschleunigung in der Erkennung und Trennung des Effekts natürlicher interner Antriebe der Ozeane zusammen mit der Variabilität astronomischen Ursprungs (Einfügung. Bsp. Sonnenvariabilität) liegt, die nicht auf die Satelliten-Ära beschränkt sind.
Wir quantifizierten auch ungewöhnlich stark autokorreliertes Rauschen in den SA-Zeitreihen, das in den aktuellen Studien nicht konsequent behandelt wurde …

Dann kommt eine Übersichtsgrafik der Satelliten-Pegelreihe (Bild 3). Eigentlich zeigt dieses Bild schon (fast) alles über die alarmistische Aussage von Herrn Rahmstorf und was dieser bewusst dazu nicht gesagt hat: Dass die Pegel-Änderungsrate vom Messbeginn an zyklisch um +- diesen Wert pendelt und aktuell wieder bei Null angekommen ist.

Bildtext: Fig. 1. Globally and monthly averaged sea level anomalies as observed by Satellite Altimetry (Blue), superimposed with the residuals of the OLS. – Bild 3 [5] Satelliten-Pegelreihe (Anomalie) mit der Pegel-Änderungsrate (Residuals). Grafik vom Autor ergänzt
Beim Vergleich der erkennbaren Zyklen zeigt sich (was „Kaltesonne“ auch erwähnt), ein mehr als signifikanter Einfluss von Klimazyklen:

Fig. 3. MEI and Solution I monthly OLS residuals (mm) during the SA period. – Bild 4 [5] Korrelation der Pegel-Residuen (Bild 3) mit den ENSO-Zyklen

Schlussfolgerung

Was Herr Rahmstorf wie üblich als eine „gesicherte Kenntnis“ publiziert, zeigt sich beim näheren Betrachten (wieder) als höchst spekulativ:
[5] ... Conclusion
Recent analyses of SA time series by Nerem at al., (2018) and Ablain et al., (2019) and others declaring a GMSL acceleration are far from exhaustive for such an important topic. Uncertainty is one of the essential components in assessing variability in global sea level in the context of GMSL budget to ascertain anthropogenic contributions. The omission of the eect of potential confounders including a potential jerk or multidecadal sea level variations (Ablain at al., 2019), or using a conjecture that they will average out because of the superior global coverage of SA by Nerem at al. (2018) is a leap of faith without evidence in quantifying a GMSL acceleration and its uncertainty using globally averaged SA time series. Moreover, conducting projections as in Nerem at al. (2018) without ascribing proper uncertainties to the model estimates have no meaning. Until the uncertainty of a recent GMSL acceleration is established in the context of “total evidence”, i.e. in the light of systematic global sea level variations during the 20th century revealed by TG measurements together with the available SA time series, any prediction of a GMSL rise ought to be made with extreme prudence.

(Leicht angepasste) deepl-Übersetzung: Schlussfolgerung
Die jüngsten Analysen der SA-Zeitreihen von Nerem at al. (2018) und Ablain et al. (2019) und anderen, die eine GMSL-Beschleunigung erklären, sind bei weitem nicht erschöpfend für ein so wichtiges Thema.
Die Unsicherheit ist eine der wesentlichen Komponenten bei der Bewertung der Variabilität des globalen Meeresspiegels im Rahmen des GMSL-Budgets, um die anthropogenen Beiträge zu ermitteln. Die Auslassung des Einflusses potenzieller Störfaktoren, einschließlich eines potenziellen Rucks oder multidekadischer Meeresspiegelschwankungen (Ablain at al., 2019), oder die Verwendung einer Vermutung, dass sie sich aufgrund der überlegenen globalen Abdeckung von SA durch Nerem at al. (2018) ausmitteln werden, ist ein Vertrauensvorschuss ohne Beweise bei der Quantifizierung einer GMSL-Beschleunigung und ihrer Unsicherheit unter Verwendung global gemittelter SA-Zeitreihen. Darüber hinaus ist die Durchführung von Projektionen wie in Nerem at al. (2018), ohne den Modellschätzungen angemessene Unsicherheiten zuzuschreiben, sinnlos.
Solange die Unsicherheit einer rezenten GMSL-Beschleunigung nicht im Kontext der „Gesamtevidenz“, d. h. im Lichte systematischer globaler Meeresspiegelschwankungen während des 20. Jahrhunderts, die durch TG-Messungen zusammen mit den verfügbaren SA-Zeitreihen aufgedeckt wurden, ermittelt ist,
sollte jede Vorhersage eines GMSL-Anstiegs mit äußerster Vorsicht erfolgen.

Satellitepegel

Anbei anhand der Originaldaten eine Plausibilitätssichtung.
Die Satellitendaten werden gängig wie in Bild 5 dargestellt. Der quadratische, stetig schlimmer steigende Regressions-Fit erscheint in dieser Darstellung plausibel und „zwingend“:

Bild 5 Pegeldaten der verschiedenen Messsatelliten mit der quadratischen Pegel-Anstiegskurve

Im WEB sind die Satellitendaten hinterlegt und lassen sich laden. Daraus ergibt sich Bild 6, welches dem Bild 5 in höherer Auflösung entspricht.
Trägt man darin Verlaufsbegrenzungslinien ein, zeigt sich, dass der quadratisch – stetig schlimmer ansteigende – Fit überhaupt nicht zwingend ist. Ein bisheriger – und weiterhin – linearer Anstieg hat genau so gut seine „Berechtigung“ (wie es die Studie [5] auch feststellt).
Der quadratisch steigende Fit zeigt sich demnach lediglich als eine Hypothese und ist durch nichts (außer, dass der Verlauf mathematisch hineinpasst) begründet.

Man muss sich klar machen, dass die Satelliten aus ca. 1.320 km Entfernung den Meeres-Pegel auf den Millimeter genau messen können sollen (was auf Meereshöhe und direkt daneben angeblich nur ungenau erfolgt). Das mag theoretisch stimmen, wenn man alleine die Laufzeit-Messgenauigkeit betrachtet. In Wirklichkeit wird die Laufzeit das Messsignal jedoch durch externe Einflüsse verfälscht, teils driften die Messapparaturen und die Satelliten selbst „taumeln“ mit den Änderungen des Erd-Schwerefeldes. Den Pegelwert bekommt man erst nach vielen, vielen Korrekturen und Anpassungen. Teils werden diese sogar noch nach Jahren nachträglich korrigiert. Es ist also gar nicht sicher, dass die Satelliten-Pegelmesskurve wirklich mit der angegebenen Genauigkeit stimmt.

Herr Rahmstorf ist allerdings überzeugt – zumindest sagt er es -, dass die Satelliten es auf den Millimeter genau könnten. Allerdings ist immer noch ungeklärt, warum die ja weiterhin durchgeführten Tidenpegelmessungen und die Satellitenpegel eine große Abweichung im Pegeltrend aufweisen (Tidenpegel: 1,5 … 2 mm/pa, Satellitenpegel 3,3 mm/pa).
Anmerkung: Diese Abweichung ist der Grund, warum im Pegel-Verlaufsbild (Bild 1) mit den angefügten Satellitendaten so ein großer Beschleunigungsanstieg erfolgt. Es ist der gleiche „Datenbetrug“ wie beim Hockeystick, wo ebenfalls zwei unterschiedliche Messarten mit systembedingt unterschiedlichen Messergebnissen gekoppelt wurden.

Bild 6 Original-Satellitendaten (3,4 mm/pa). Grafik vom Autor erstellt

Aus diesen Originaldaten lässt sich auch der Verlauf der Pegel-Änderungsrate ermittelt (zum Vergleich mit Bild 3). Die von Rahmstorf genannten, 4,8 mm/pa mit steigender Tendenz erscheinen nun unplausibel und nur eine kurzfristige Momentaufnahme.

Bild 7 Satelliten-Pegel-Änderungsrate (Residuals) als Absolutwerte und als Steigungswerte der Regressionsgeraden. Grafik vom Autor erstellt

Fazit

Der von Prof. Rahmstorf dem Spiegel erzählte, hohe und beschleunigte Meerespegelanstieg ist eher falsch als richtig. Und dies ist anhand der Daten so deutlich erkennbar, dass von einer bewussten Alarmisierung ausgegangen werden muss.
Der „Spiegel“ macht sich dabei eindeutig einer „Mittäterschaft“ schuldig, da zumindest „er“ als unabhängige Institution auch auf die vorliegenden, der Aussage von Herrn Rahmstorf entgegenstehenden Studien und Daten hätte hinweisen müssen.

Damit endet Teil 1. Im zweiten Teil wird der aktuelle Meerespegel-Änderungszustand anhand von Pegeldaten in der (angeblich) am meisten davon betroffenen Region – der Südsee – gezeigt.

Quellen

[1] SPIEGEL Wissenschaft, Rahmstorf 15.12.2020: Klimakrise Warum der Meeresspiegel immer schneller steigt

[2] kaltesonne 23.12.2020: Die Welt säuft ab…wirklich?

[3] STERN, 26.12.2020: Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen

[4] RAHMSTORF 22. Feb 2016. SciLogs > KlimaLounge > Allgemein > Meeresspiegel über die Jahrtausende

[5] H. Bâkiİz* and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era

[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

[7] DKK, Schrift: Zukunft der Meeresspiegel

 




Das Web und das Klima

Schadet das Internet dem Klima?

Ich frage Sie jetzt nicht, ob Sie manchmal im Internet surfen. Und so lange Sie bei THINK-AGAIN oder EIKE unterwegs sind ist das völlig in Ordnung. Aber ich habe den Verdacht, dass Sie noch in ganz andere Regionen streunen; dass bei der Hausarbeit ein Musik-Stream im Hintergrund läuft und Sie sich abendfüllende Filme in HD genehmigen.

Haben Sie sich jemals überlegt, wie viel Elektrizität dabei verbraucht, wie viel CO2 produziert wird? Vielleicht sind Sie ja sonst energiebewusst; vielleicht protestieren Sie gegen elektrische Zahnbürsten und stellen die Waschmaschine auf 30° ein, machen sich aber andererseits über all die Kilowattstunden, die Sie im Web verbraten keine Gedanken.

Dazu möchte ich Ihnen jetzt die Fakten präsentieren, vorher aber ein paar Begriffe klären.

Ein IQ-Test

Der Verbrauch eines elektrischen Gerätes wird in Watt angegeben. Die gute alte Glühbirne brauchte 60 Watt, eine neue 10 Watt, ist aber genauso hell. Ein vernünftiger Staubsauger zieht sich neben dem Staub vom Teppich auch noch 1500 Watt = 1,5 Kilowatt (kW) aus der Steckdose rein, etwa so viel wie ein Wasserkocher. Diese Zahlen beschreiben die „Leistung“ und sind eine Kenngröße jeden elektrischen Gerätes.

Wenn Sie also jemandem erklären, dass Ihr Computer 100 Watt verbraucht, und der fragt dann: „pro Stunde oder pro Tag?“ dann stellen Sie dem eine Gegenfrage: „Wieviel PS hat dein Auto?“ Der antwortet dann ganz stolz: „180 PS, ich hab den Turbo“. Dann fragen Sie dagegen: „180 PS? Ist das pro Stunde oder pro Tag?“.

Wenn Sie eine Stunde lang die Leistung von ein kW aus der Steckdose ziehen, dann haben Sie eine Kilowattstunde (kWh) an „Energie“ verbraucht und müssen 0,30 € dafür bezahlen. Leistung mal Zeit ergibt Energie. Wenn Sie diese Unterscheidung beherrschen, dann sind Sie klüger als die meisten Politiker, die bei dem Thema oft unfreiwillig ihren zweistelligen IQ offenbaren.

Zur Sache

Ich unterstelle Ihnen jetzt, dass Sie beim Surfen moderne Hardware wie Smartphone oder Tablett einsetzen. Der Schnelllade-Adapter für die Geräte holt sich etwa 15 Watt aus der Steckdose. Wie viel ist das pro Tag? Das ist die falsche Frage, denn Sie laden ihre elektronischen Lieblinge ja während der Nacht. Da ist der Akku dann nach einer Stunde wieder voll.

Eine Stunde lang haben wir also 15 Watt aus der Leitung geholt, macht 0,015 kWh. Wenn Sie das 30 mal im Monat machen, dann gibt das rund eine halbe Kilowattstunde. Im Vergleich zu Ihrem typischen monatlichen Gesamtverbrauch von, sagen wir, 350 kWh können wir das getrost vergessen. Und auch wenn zusätzlich noch diverses Gerät der im Hause ansässigen Minderjährigen geladen wird bleibt der Verbrauch dennoch sehr niedrig.

You Ain’t Seen Nothin‘ Yet

Was soll dieser Artikel also?“, werden Sie jetzt protestieren „So viel Text, nur um mir zu erklären, ich bräuchte mir um den Stromverbrauch beim Surfen keine Sorgen zu machen? Die hab ich mir eh nie gemacht!“

Warten Sie, Sie haben noch nicht alles gesehen. Während Sie, mit dem Tablett auf den Knien und einer Tasse Cappuccino in der Hand auf dem Sofa sitzen, und einen Artikel auf der Website „Think-Again“ lesen wollen, spielt sich hinter den Kulissen eine digitale Großveranstaltung ab.

Beim Anklicken des entsprechenden Links erzeugt Ihr Tablett eine kurze Botschaft, die über den Wi-Fi Router in der Zimmerecke und das Modem – das ist das Kästchen gleich daneben – in eine Glasfaser eingespeist wird. Von hier geht es zum professionellen Computer Ihres Internet Service Providers.

Dieser Computer schaut sich die Botschaft an. Er erkennt, wohin die Reise gehen soll, schickt die Sache weiter an einen regionalen Datenverteiler und von dort geht es zu einem der großen deutschen Datenzentren, vielleicht in der Nähe von Frankfurt. Letzteres ist durch Kabel mehr oder weniger direkt mit dem Rest der Welt verbunden.

Ihr Auftrag wird jetzt in die Stadt Orem geschickt, rund 8.400 km westlich von Frankfurt im US Staat Utah. Dort lagert das blog „think-again“ im datenzentrum von Bluehost, einem der großen amerikanischen web-anbieter. Das Zentrum ist eine größere Anlage, deren Ausdehnung etwa vergleichbar ist mit dem Volkswagenwerk in Wolfsburg.

Hier wird Ihre Botschaft dann gelesen und Ihr Wunsch wird erfüllt. Der angeforderte Artikel von Think-Again wird gesucht, gefunden und auf gleichem Weg, aber in der anderen Richtung, auf die Reise geschickt, sodass er schließlich vor Ihren Augen auf dem Tablett erscheint.

Tatsächlich werden Ihre Botschaft bzw. der gewünschte Artikel nicht in einem einzigen Paket transportiert, sondern sie werden in viele kleine Päckchen zerteilt, die selbstständig und auf unterschiedlichen Wegen zu ihrem Bestimmungsort gelangen, um sich dort dann spontan wieder zusammenzusetzen – und das auch noch in der richtigen Reihenfolge. Damit das funktioniert hängt an jedem Päckchen ein „Zettel“ mit seiner Destination, ähnlich wie an unseren Koffern beim Fliegen. Allerdings ist im Web dieser Zettel oft größer als das Stück „Gepäck“ an dem er hängt.

Sie werden verstehen, dass der ganze Vorgang dann schon mal ein oder zwei Sekunden dauern kann. Seien Sie also nicht ungeduldig, wenn Sie warten müssen; vielleicht ist ja gerade eines Ihrer Päckchen im Unterseekabel südlich von Grönland in einen Stau geraten.

Die Gretchenfrage

Das Bearbeiten und Versenden der Daten über größere Entfernungen benötigt Energie und zwar außerhalb Ihres Wohnzimmers. Da werden irgendwo Kilowattstunden verbraten, die niemals auf ihrer Stromrechnung stehen. Ein Maß dafür sind die verbrauchten kWh pro Gigabyte Datenmenge.

Eine Londoner Firma fand heraus, dass 2017 durchschnittlich 1,8 kWh pro Gigabyte Datenmenge verbraucht wurden. Wenn Sie sich also ein zweistündiges HD Video reinziehen, dann laden Sie bei der Gelegenheit 4GB herunter und verbrauchen 4 x 1,8 kWh = 7,2 kWh. Eine typische Website hat dagegen nur um die 2 MB, kostet also ganze 0,0036 Kilowattstunden. Surfen Sie also lieber auf Think-Again oder EIKE, statt sich zum x-ten Mal einen alten „James Bond“ anzuschauen.

Die oben erwähnten Experten haben auch ausgerechnet, dass pro Jahr durch das Internet weltweit 416,2 Terawattstunden (TWh) verbraucht würden. Das entspricht drei Vierteln des jährlichen deutschen oder 5% des weltweiten Stromverbrauchs.

Kann man die Zahlen glauben?

Seit sich jegliche Industrie (außer in China) vor den sehr mächtigen und wenig kompetenten Klima- Aposteln rechtfertigen muss, werden Verbrauchszahlen von den Betreibern nicht an die große Glocke gehängt. Die Forderung nach dem „Sustainable Web“ hängt wie ein Damoklesschwert über Netflix, Google, Facebook und Co. Die versuchen also den Ball flach zu halten, betonen die Nachhaltigkeit ihrer Energiequellen und pflanzen symbolische Solarpanels neben ihre gigantischen „Hyperscale Data Centers“.

Derzeit gibt es weltweit rund 500 dieser Zentren, die jeweils Zehntausende von Servern, also individuelle Computer beherbergen. Falls so ein Server, wild geschätzt, 500 Watt verbraucht, dann kommen wir auf „Zig“ Megawatt für solch ein Zentrum. Das lässt die oben erwähnten „416,2 TWh“ plausibel erscheinen, wobei ich die Zahl hinter dem Komma nicht ganz ernst nehmen würde.

Das Paradoxe ist nun, dass auf den Serverfarmen 50% der Leistung dazu gebraucht wird, die Hitze zu beseitigen, welche die anderen 50% erzeugen. Diese Situation kann man entschärfen, wenn man sich in kalten Gegenden ansiedelt. Und so ist aus Island ein beliebter Standort für Server Farmen geworden, so wie auch Norwegen – dort nördlich des Polarkreises. Zudem haben beide Länder jede Menge Strom aus Wasserkraft bzw. auch aus Geothermie, aus erneuerbaren Quellen also.

Wie geht’s weiter?

Der Verkehr im Web, gemessen in Gigabyte, wird in den kommenden Jahren weiterhin „exponentiell“ wachsen. Der Löwenanteil kommt von dem Trend, dass Daten nicht mehr vom Benutzer auf dem eigenen Gerät gespeichert werden, sondern in der „Cloud“ eines der riesigen Datenzentren.

Zwar wird der spezifische Energieverbrauch kWh/GB durch Fortentwicklung und weitere Miniaturisierung der Hardware abnehmen, aber diese Einsparung wird durch das enorme Wachstum des Datenverkehrs locker überrollt.

Derzeit werden neue Hyperscales mit einer Rate von weltweit 50 bis 100 pro Jahr gebaut. Eines der größten Europas ist gerade in Frankfurt entstanden, mit einem Bedarf von geschätzten 70 MW elektrischer Leistung. Zum Vergleich: der durchschnittliche Verbrauch eines deutschen Haushalts beträgt 3500 kWh. Nach Adam Riese verbraucht besagtes Datenzentrum so viel Strom  wie 200.000 Haushalte bzw. 400.000 Einwohner.

Vorreiter Deutschland?

Diese Computerfarm alleine hat also den CO2-Fußabdruck einer richtigen Großstadt! Darf man das hinnehmen? Hier könnte Deutschland ein weiteres Mal Vorbild für den Rest der Welt sein. So wie man heute den Kraftwerken in Philippsburg und Moorburg den Garaus macht, so könnte man es vielleicht morgen mit dem Datenzentrum in Frankfurt tun.

Als ersten Schritt könnte man sich allerdings auch einen „sanften“ Eingriff vorstellen. Neben dem „Netzwerkdurchsetzungsgesetz“ könnte ein „Netzwerkklimaschutzgesetz“ verabschiedet werden, welches die Nutzung des Webs nur durch„systemrelevante“ Anwender zulässt. Und was systemrelevant ist, das wird, wie gehabt, durch spezielle NGOs entschieden.

Vielleicht fragen Sie sich jetzt, wieso dieses riesige Zentrum genau in Frankfurt gebaut wurde, wo doch der Strom in Deutschland so teuer und flatterhaft ist, und die Bevölkerung so grün und unerbittlich. Die Antwort: der deutsche Cloud-Kunde hat ein besseres Gefühl, wenn seine wichtigen und sensitiven Daten in Computern  gespeichert werden, die auf deutschem Boden stehen.

Das soll mir mal jemand erklären.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Klimaschau 5 – die Tagesschau von Sebastian Lüning

Vorschau nicht zu sehen? HIER KLICKEN?




Wärme und Kälte

Teilweise entspricht dies meinen Erwartungen. Aber ich habe keinesfalls erwartet, dass der größte Teil Südamerikas zu den sich am stärksten abkühlenden Gebieten der Erde gehört.

Hier ist das hervor stechende Phänomen, dass sich fast der gesamte Nordatlantik abkühlt … das habe ich nicht kommen sehen. Gleiches gilt für den zentralen Indischen Ozean.

Dadurch aufmerksam geworden wollte ich nun auch einen Blick auf die Hot Spots werfen. Hier also die gleichen Ansichten, nur diesmal mit den Gebieten, welche sich stärker als 0,25°C pro Dekade erwärmen:

Der gesamte östliche Pazifik erwärmt sich rasch … ebenso wie der zentrale Südliche Indische Ozean. In Australien ist das teilweise der Fall:

Einige Gebiete im östlichen Brasilien erwärmen sich rasch … während im westlichen Brasilien das Gegenteil der Fall ist. In Nordafrika wird es wärmer, in Südafrika kälter. Und in ganz Sibirien wird es wärmer … so etwas!

Ich ziehe jetzt keine übermäßigen Schlussfolgerungen aus all dem … außer dass ich überrascht war, dass rund ein Viertel der Welt sich abkühlt…

Link: https://wattsupwiththat.com/2020/12/28/blowing-hot-and-cold/

Übersetzt von Chris Frey EIKE




Neu entdeckter Lavadom unter Grönland treibt thermische Aktivitäten in der Arktis

„Das Wissen über den Lavadom unter Grönland wird unser Verständnis der vulkanischen Aktivitäten in diesen Regionen und der problematischen Frage des globalen Meeresspiegelanstiegs durch das Abschmelzen des grönländischen Eisschildes verbessern“, sagt Dr. Genti Toyokuni, Mitautor der Studien.

Die nordatlantische Region ist voll von geothermischer Aktivität. Auf Island und Jan Mayen gibt es aktive Vulkane mit ihren eigenen ausgeprägten Mantelplumes, während Spitzbergen – eine norwegische Inselgruppe im Arktischen Ozean – ein geothermisches Gebiet ist. Der Ursprung dieser Aktivitäten und ihre Verflechtung sind jedoch weitgehend unerforscht.

Das Forscherteam entdeckte, dass der Grönland-Dom von der Kern-Mantel-Grenze zur Mantelübergangszone unter Grönland aufstieg. Er hat außerdem zwei Verzweigungen im unteren Mantel, die in andere Plumes in der Region münden und aktive Regionen in Island und Jan Mayen sowie das geothermische Gebiet in Spitzbergen mit Wärme versorgen.

Abbildung: Ein schematisches Diagramm, das die wichtigsten tektonischen Merkmale und Mantelplumes unter Grönland und den umliegenden Regionen zeigt. Vp = P-Wellen-Geschwindigkeit; MAR = der Mittelatlantische Rücken; MTZ = die Mantelübergangszone (410-660 km Tiefe); CMB = die Kern-Mantel-Grenze in 2889 km Tiefe. ©Tohoku University

Ihre Erkenntnisse basierten auf Messungen der seismischen 3-D-Geschwindigkeitsstruktur der Kruste und des gesamten Mantels unter diesen Regionen. Um die Ergebnisse zu erhalten, nutzten sie die seismische Tomographie. Zahlreiche Ankunftszeiten seismischer Wellen wurden invertiert, um 3-D-Bilder der Untergrundstruktur zu erhalten. Die Methode funktioniert ähnlich wie ein CT-Scan des menschlichen Körpers.

Toyokuni konnte dabei Seismographen nutzen, die er im Rahmen des Greenland Ice Sheet Monitoring Network auf dem grönländischen Eisschild installiert hat. An diesem im Jahre 2009 ins Leben gerufenen Projekt arbeiten Forscher aus 11 Ländern zusammen. Das US-amerikanisch-japanische Team ist vor allem für den Bau und die Wartung der drei seismischen Stationen auf dem Eisschild verantwortlich.

Die ganze Presseerklärung steht hier. Links zu den entsprechenden Studien:

Title: P wave tomography beneath Greenland and surrounding regions: 1. Crust and upper mantle
Authors: Genti Toyokuni, Takaya Matsuno, Dapeng Zhao
Journal: Journal of Geophysical Research: Solid Earth
DOI: 10.1029/2020JB019837

Title: P wave tomography beneath Greenland and surrounding regions: 2. Lower mantle
Authors: Genti Toyokuni, Takaya Matsuno, Dapeng Zhao
Journal: Journal of Geophysical Research: Solid Earth
DOI: 10.1029/2020JB019839

Link: https://wattsupwiththat.com/2020/12/29/newly-discovered-greenland-plume-drives-thermal-activities-in-the-arctic/

Übersetzt von Chris Frey EIKE




Wassertemperatur der Ozeane – was wissen wir wirklich?

Der nächste Beitrag [auf Deutsch hier] behandelt die Mischschicht, die eine Schicht mit gleichmäßiger Temperatur direkt unter der Hautschicht ist. Die gemischte Schicht sitzt oberhalb der Sprungschicht, wo die Wassertemperatur schnell zu fallen beginnt. Der nächste Beitrag [auf Deutsch hier] behandelte die Unterschiede zwischen verschiedenen Schätzungen der SST, die verwendeten Daten und die Probleme mit den Messungen und den Korrekturen. Der Schwerpunkt lag dabei auf den beiden Hauptdatensätzen, HadSST und NOAAs ERSST [auf Deutsch hier]. Der letzte Beitrag diskutiert SST-Anomalien [auf Deutsch hier] war die Logik, wenn alle Messungen von knapp unter der Meeresoberfläche stammen, warum werden dann Anomalien benötigt? Warum können wir nicht einfach die Messungen verwenden, korrigiert auf eine nützliche Tiefe, wie 20 cm?

Hintergrund aller Beiträge ist es, die Analyse so nah wie möglich an den Messungen auszurichten. Zu viele Korrekturen und Datenmanipulationen verwirren die Interpretation, entfernen uns von den Messungen und homogenisieren die Messungen in einem solchen Ausmaß, dass wir ein falsches Gefühl von Vertrauen in das Ergebnis bekommen. Diese durch die Überarbeitung von Daten entstehende Illusion von Genauigkeit wird von William Brigg hier diskutiert. Sein Beitrag befasst sich mit der Glättung von Daten, aber die Argumente gelten auch für die Homogenisierung von Temperaturen, die Erzeugung von Anomalien vom Mittelwert und die Korrektur von Messungen durch statistische Verfahren. All diese Prozesse lassen „die Daten besser aussehen“ und geben uns ein falsches Gefühl von Vertrauen. Wir wissen nicht, wie viel von den resultierenden Diagrammen und Karten auf die Korrekturen und Datenmanipulationen zurückzuführen ist und wie viel auf die zugrunde liegenden Messungen. Wir sind Schritt für Schritt durch alle möglichen Verarbeitungen gegangen und haben bei jedem Schritt untersucht, wie die Temperaturen wirklich aussahen.

Wichtung nach Gebieten

Die in all diesen Beiträgen verwendeten Daten mit Ausnahme der frühesten Beiträge zu den Landmessungen im Hauptgebiet der USA stammen alle aus Breiten- und Längengrad-Gittern. Die Rasterung der Messungen ist global erforderlich, da die Messungen hauptsächlich auf der Nordhalbkugel konzentriert sind und anderswo nebst den beiden Polarregionen sehr spärlich. Wie wir bereits gezeigt haben, sind die Temperaturen der nördlichen Hemisphäre anomal, der Rest der Welt ist viel weniger variabel in seiner Oberflächentemperatur. Siehe hier eine Diskussion hierüber und einige Grafiken. Siehe diesen Beitrag von Renee Hannon und diesen vom gleichen Autor, für weitere Details zu den hemisphärischen Variationen in den Temperaturtrends.

Während eine Rasterung wahrscheinlich nicht notwendig ist und irreführend sein kann, müssen wir in Gebieten wie den USA, die gut mit guten Wetterstationen abgedeckt sind, die verfügbaren Daten rastern, um einen globalen SST-Durchschnitt zu erstellen. Das soll nicht heißen, dass die Rasterung gute Messungen ersetzt oder die Messungen verbessert, sondern nur, dass sie mit den uns zur Verfügung stehenden Daten notwendig ist.

Jede Gitterzelle repräsentiert einen anderen Bereich des Ozeans. Der Unterschied ist nur eine Funktion des Breitengrades. Jeder Breitengrad ist 111 km vom nächsten entfernt. Der Abstand de Längengrade am Äquator beträgt ebenfalls 111 km, nimmt aber an den Polen auf Null ab. Um also die Fläche jeder Gitterzelle zu berechnen, müssen wir nur den Breitengrad der Zelle und die Größe der Gitterzellen in Breiten- und Längengraden kennen. Die Lösung wird von Dr. Math (National Council of Teachers of Mathematics) bereitgestellt und abgeleitet, hier. Ich werde die Erzählung nicht mit einer Gleichung unterbrechen, aber der am Ende des Beitrags verlinkte R-Code zeigt die Gleichung und wie sie verwendet wurde.

Es mag seltsam erscheinen, eine so offensichtliche Korrektur an den Daten als letztes vorzunehmen, aber ich wollte ehrlich gesagt sehen, ob es einen großen Unterschied macht. Es stellt sich heraus, dass es einen erheblichen Unterschied in der berechneten Durchschnittstemperatur macht, aber wenig Unterschied in den Trends. Unten in Abbildung 1 ist die ursprüngliche Abbildung aus dem Beitrag über die gemischte Schicht zu sehen, die verschiedene Schätzungen der SST und der globalen Durchschnittstemperatur der gemischten Schicht vergleicht. Normalerweise, vor allem in der Nacht, liegen die gemischte Schicht und die SST sehr nahe beieinander, so dass man sie alle zusammen plotten kann.

Abbildung 1. Der Vergleich der globalen Temperaturschätzungen für die gemischte Schicht und die SST aus dem Beitrag über die gemischte Schicht. Für eine Erklärung des Plots siehe diesen Beitrag.

Die Kurven in Abbildung 1 sind alle auf eine Tiefe zwischen 20 cm und einem Meter korrigiert. Sie sind Gittermittelwerte, d.h. Mittelwerte von gerasterten Werten, aber sie sind nicht für das Gebiet korrigiert, das durch jeden Gitterwert repräsentiert wird. Abbildung 2 zeigt das gleiche Diagramm, ist aber mit flächengewichteten Gitterzellenwerten konstruiert worden. Wir haben auch eine neue Kurve hinzugefügt, die NOAA ERSST-Kurve, nachdem wir die ERSST-Werte gelöscht haben, die den Nullwerten im HadSST-Datensatz entsprechen. Auf diese Weise vergleichen wir ERSST und HadSST über die gleichen globalen Ozeanbereiche. Der normale ERSST-Datensatz (die untere grüne Linie in Abbildung 1 und die untere braune Linie in Abbildung 2) verwendet Interpolation und Extrapolation, um Gitterzellen zu füllen, die unzureichende Daten haben; diese Zellen sind in HadSST null.

Auf den ersten Blick sehen die beiden Diagramme sehr ähnlich aus, aber man beachte, dass sich die vertikale Skala geändert hat. Alles ist um zwei bis vier Grad nach oben verschoben, da die Polarregionen Zellen mit kleineren Flächen haben. Die NOAA ICOADS SST-Linie befindet sich an der gleichen Stelle, da sie bereits flächenkorrigiert wurde. Es ist auch die Linie, die den Messungen am nächsten kommt. Die Prozesse, die zur Erstellung dieser Linie verwendet werden, sind viel einfacher und weniger kompliziert als die von HadSST und ERSST verwendeten. Der Unterschied zwischen HadSST und ERSST ist immer noch da, aber kleiner. Diese beiden Temperaturaufzeichnungen verwenden ähnliche Daten, aber, wie oben beschrieben, ist ihre Rasterung unterschiedlich und sie decken verschiedene Gebiete ab. Sobald das ERSST-Gitter „maskiert“ ist, um mit HadSST übereinzustimmen, steigt es von 18,2 auf 22 Grad an.

Abbildung 2: Dies ist das gleiche Diagramm wie in Abbildung 1, mit dem Unterschied, dass alle Gitterwerte in den Datensätzen nach den Gitterzellenbereichen gewichtet sind, die sie darstellen. Man beachte, dass sich die vertikale Skala geändert hat.

Die mehrjährigen Gittermittelwerte von NOAA MIMOC und der Universität Hamburg liegen in beiden Diagrammen über dem NOAA ERSST-Datensatz, sind aber nach Anwendung des Algorithmus zur Flächengewichtung um etwa 4,5°C wärmer. NOAA MIMOC und die Universität Hamburg erstellen ihre Gitter unter Verwendung von mehr als 12 Jahre alten Daten, so dass sie viel mehr ihres Gitters bevölkern als die Einjahres-Datensätze. Sie wichten auch die Argo- und Bojendaten stark, genau wie NOAA ERSST.

Wie wir mit den ungewichteten Daten im letzten Beitrag [auf Deutsch hier] gesehen haben, tendieren die gemessenen Temperaturen von HadSST nach unten. Wenn das ERSST-Gitter mit den HadSST-Nullwerten maskiert wird, tendiert es ebenfalls nach unten. Dies ist in Abbildung 3 zu sehen.

Abbildung 3. Abnehmende SSTs über dem von HadSST abgedeckten Gebiet sind sowohl in den HadSST- als auch in den ERSST-Datensätzen erkennbar.

Der HadSST-Datensatz hat nur Gitterwerte aus Zellen, aus denen genügend Messungen vorhanden sind, um einen solchen Wert zu berechnen, sie extrapolieren keine Daten in angrenzende Gitterzellen wie ERSST. Somit repräsentieren die HadSST-Daten den Teil des Ozeans mit den besten Daten, und dieser Bereich nimmt eindeutig an Temperatur ab, wenn nur die Messungen verwendet werden. Die ERSST-Daten deuten auf einen Rückgang von 2,5 Grad/Jahrhundert hin. Der HadSST-Rückgang beträgt 1,6 Grad/Jahrhundert.

Die ERSST-Linie ohne Maske (Abbildung 2) zeigt einen steigenden Trend von 1,6 Grad/Jahrhundert. Die interpolierten und extrapolierten Bereiche zeigen also eine Erwärmung, die in den Zellen mit den besten Daten nicht zu sehen ist. Wie wir im letzten Beitrag gesehen haben und in diesem Beitrag als Abbildung 4 erneut zeigen, weisen die HadSST- und ERSST-Anomalien nichts von der Komplexität auf, für die wir sechs Beiträge gebraucht haben. Sie zeigen einen gemeinsamen Trend der Erwärmung, von etwa 1,7 Grad/Jahrhundert.

Abbildung 4. Die HadSST- und ERSST-Anomalien.

Schlussfolgerungen

Die beste Art und Weise, Daten zu analysieren, ist die Verwendung des absoluten Minimums an statistischer Manipulation, das erforderlich ist, um sie in einer brauchbaren Form zu präsentieren. Jede Korrektur, jede Berechnung, alle Glättungsoperationen, jeder Rasterungsschritt muss vollständig begründet werden. Es ist eine unglückliche Tatsache des heutigen wissenschaftlichen und technischen Lebens, dass unsere Kollegen ständig mit „das muss korrigiert werden“, „das muss korrigiert werden“ und so weiter kommen. Es wird wenig darüber nachgedacht, wie die Korrekturen unsere Wahrnehmung der resultierenden Diagramme und Karten beeinflussen. Mit genügend Korrekturen kann man einen Misthaufen in ein Schloss verwandeln, aber ist es wirklich ein Schloss?

Ich hatte einmal einen Chef, der sehr klug war. Er wurde schließlich CEO und Vorstandsvorsitzender der Firma, für die wir arbeiteten. Ich war damals viel jünger und gehörte zu den Wissenschaftlern auf der „Peanut Gallery“, die ständig fragten: „Was ist damit?“ „Was ist damit, haben Sie diese Dinge korrigiert?“ Mein Chef sagte dann: „Wir sollten uns nicht selbst übertreffen. Was sagen die Daten, so wie sie sind?“ Nachdem er CEO wurde, verkaufte er die Firma für das Fünffache des durchschnittlichen Basispreises meiner angesammelten Aktienoptionen. Ich war immer noch ein Wissenschaftler, wenn auch ein wohlhabender. Er hatte Recht, genau wie Dr. William Briggs. Studieren Sie die Rohdaten, behalten Sie sie in Ihrer Nähe, übertreffen Sie sich nicht selbst als Wissenschaftler.

——————————

Zu diesem Beitrag hat der Klima-Realist Marcel Crok von clintel.org eine Frage an den Autor gerichtet. Die Antwort desselben wird hier noch mit übersetzt. – Anm. d. Übers.:

Frage von Marcel Crok: Was schließen Sie aus Ihrer Abbildung 3? Wollen Sie damit sagen, dass die besten verfügbaren Daten darauf hindeuten, dass die Ozean-Temperatur abnimmt?

Antwort von Andy May:

Die allerbesten Daten sind in dieser Abbildung dargestellt. Aber sie repräsentiert nur einen Teil des Weltozeans, und das dargestellte Gebiet ändert sich ständig. Dieser sich ständig verändernde Bereich zeigt sinkende gemessene Temperaturen. Die Schiffe, Schwimmer und Bojen, die die Temperatur messen, sind ständig in Bewegung und verändern sich in jeder Zelle. Die Zellen mit Messungen ändern sich ständig. Die „Referenz“-Periode, zwischen 1961-2000, hat sehr schlechte Daten.

Die einzige Möglichkeit, mit diesen miserablen Daten eine positive Anomalie zu erhalten, besteht darin, monatliche Anomalien aus den Zellen mit vielen Messpunkten in diesem Monat zu erstellen und sie dann als einen Datensatz zu präsentieren. Aber es ist eine Aufzeichnung eines sich ständig ändernden Bereichs, was nützt das?

Weniger als die Hälfte des Ozeans hat gute Daten und diese Hälfte ändert sich ständig, da sich die Instrumente und Schiffe bewegen. Ich habe nur einen Jahresdurchschnitt gebildet, um saisonale Anomalien zu vermeiden. So ist die jährliche Durchschnittstemperatur der Zellen mit den besten Daten (wo auch immer sie sind) in den letzten 20 Jahren gesunken. Dies wurde in den letzten Stunden von Nick Stokes, einem australischen Klimatologen bei den WUWT-Kommentaren bestätigt.

Das Erzeugen von Anomalien, insbesondere die Art und Weise, wie HadSST und ERSST es getan haben, entfernt die gesamte zugrundeliegende Komplexität in den Daten und präsentiert eine irreführende Grafik, die auf sehr, sehr schlechten und nicht repräsentativen Daten basiert.

Meine persönliche Schlussfolgerung nach all dieser Arbeit? Wir haben keine Ahnung, was die durchschnittliche Temperatur des Weltozeans ist, noch wissen wir, ob er sich erwärmt oder abkühlt.

[Hervorhebung vom Übersetzer]

Link: https://andymaypetrophysicist.com/2020/12/23/ocean-sst-temperatures-what-do-we-really-know/

Übersetzt von Chris Frey EIKE




Jobs mit Grüner Energie

Kurze Zusammenfassung

  • „Schaffung von Arbeitsplätzen“ ist nur dann eine gute Sache, wenn es sich bei diesen Arbeitsplätzen um produktive Arbeitsplätze handelt. Wenn die Regierung die Menschen dafür bezahlt, minderwertige Produkte und Dienstleistungen zu produzieren, oder die Leute dafür bezahlt, ineffizient zu produzieren, dann ist das „Wohlfahrtsarbeit“, die den amerikanischen Verbrauchern und der amerikanischen Wettbewerbsfähigkeit schadet.
  • Viele der durch den Biden-Plan geschaffenen Arbeitsplätze würden den Bau einer neuen, unzuverlässigen Solar- und Windinfrastruktur beinhalten. 1 Diese Infrastruktur kann unsere zuverlässigen Kraftwerke nicht ersetzen – sie wird nur eine Menge neuer Kosten verursachen, die Verbraucher und Industrie zahlen müssen. Klassische Wohlfahrtsarbeit. 2

Alex Epstein_Kosten der Erneuerbaren – „.. wie Eisberge..“

  • Durch die Erhöhung der Energiekosten für Verbraucher werden Bidens „Green Energy Jobs“ das Realeinkommen jedes Amerikaners senken, da er viel mehr für die Heizung und Stromversorgung seiner Häuser und für das Autofahren ausgeben muss.
  • Solar und Wind haben die „Energiearmut“ in den USA bereits erhöht – Menschen haben Schwierigkeiten, ihren grundlegenden Energiebedarf zu bezahlen. 25 Millionen US-Haushalte geben an, auf Lebensmittel oder Medikamente verzichtet zu haben, um Energie zu bezahlen. 12 Millionen sagen, dass sie ihr Heim auf einer ungesunden Temperatur halten. 3
  • Deutschland, das 1/3 seines Stroms aus Sonne und Wind bezieht 4 , bietet eine milde Vorschau auf den Biden-Plan. Die Deutschen haben ihre Strompreise in 20 Jahren dank verschwenderischer, unzuverlässiger Sonne und Wind verdoppelt. Ihre Strompreise sind dreimal so hoch wie unsere, bereits zu hohen Preise. 5
  • Durch die Erhöhung der industriellen Energiekosten werden Bidens „Green Energy Jobs“ jedes in Amerika hergestellte Produkt teurer und jedes amerikanische Unternehmen weniger wettbewerbsfähig machen. Dies bedeutet, dass produktivere Arbeitsplätze für andere Länder verloren gehen, in denen Energie zuverlässiger ist und weniger kostet.
  • Um eine Vorschau darauf zu erhalten, was Bidens „grüne Energiearbeitsplätze“ für die amerikanische Industrie bedeuten werden, sollten Sie die zunehmende „grüne Arbeitslosigkeit“ in Europa und Australien in Betracht ziehen. Wie die Arbeiter des australischen Recyclingunternehmens, das nach 37 profitablen Jahren unterging, als „grüne“ Richtlinien die Stromkosten verdoppelten. 6
  • Bidens „grüne Energiearbeitsplätze“ werden in der gesamten Wirtschaft zu „grüner Arbeitslosigkeit“ führen, wobei diejenigen, die mit der Industrie für fossile Brennstoffe verbunden sind, am stärksten betroffen sind. Das Global Energy Institute schätzt, dass allein durch ein Fracking-Verbot „19 Millionen Arbeitsplätze abgebaut werden würden“. 7
  • Während Biden jetzt sagt, dass er ein Fracking-Verbot nicht unterstützt, unterstützt er einen „Übergang“ weg von allen fossilen Brennstoffen, was weitaus umfassender wäre als ein Fracking-Verbot. 8 Das bedeutet, dass weitaus mehr produktive Arbeitsplätze verloren gehen als die Schätzung des Global Energy Institute von 19 Millionen für ein Fracking-Verbot.
  • Zusammenfassung: Bidens Energieplan wird eine Handvoll unproduktiver „grüner Energiearbeitsplätze“ schaffen, die, indem sie amerikanische Energie unzuverlässig und unerschwinglich machen, nicht nur in der fossilen Brennstoffindustrie, sondern in jeder energieintensiven Industrie zu massiver „grüner Arbeitslosigkeit“ führen.

Verweise

  1.  „Zusammen werden diese Schritte eine Revolution für saubere Energie in Amerika auslösen, gut bezahlte Gewerkschaftsarbeitsplätze schaffen, die nicht ausgelagert werden können, und die Installation von Millionen von Solarmodulen – einschließlich Solaranlagen im großen Versorgungsmaßstab, auf den Dächern und in der Gemeinde – und Zehntausenden von Windkraftanlagen – einschließlich Tausende von Windrädern vor unseren Küsten – in Bidens erster Amtszeit.
    The Biden Plan to build a modern, sustainable infrastructure and an equitable clean energy future
    Der Biden-Plan zum Aufbau einer modernen, nachhaltigen Infrastruktur und einer gerechten Zukunft für saubere Energie
  2. „… wir stellen fest, dass die Strompreise sieben Jahre nach dem RPS-Übergang um 11% höher sind, was hauptsächlich auf indirekte Netzintegrationskosten (z. B. Übertragung und Unterbrechung) zurückzuführen ist.“
    Michael Greenstone and Ishan Nath – Do Renewable Portfolio Standards Deliver Cost-Effective Carbon Abatement?
    Michael Greenstone und Ishan Nath – Liefern Standards für erneuerbare Portfolios eine kostengünstige CO2-Reduzierung?… Renewable Portfolio Standards (RPS) schreiben die Anteile von EE vor https://epic.uchicago.edu/wp-content/uploads/2019/07/Do-Renewable-Portfolio-Standards-Deliver.pdfSteffen Henne – How bad are solar and wind?https://youtu.be/bcdsiHT0iOo/
    Steffen Henne – Wie schlimm sind Sonne und Wind?
  3. Talking Points on Energy Poverty
    Gesprächsthemen zur Energiearmut
  4. Solar und Wind lieferten in 2019 33,6% der deutschen Nettostromerzeugung.
    Fraunhofer ISE energy-charts.info
  5. deutsche Haushaltsstrompreise

    Folie 8 von  https://www.bdew.de/media/documents/201013_BDEW-Strompreisanalyse_Juli_2020-Haushalte_und_Industrie.pdfBDEW Strompreisanalyse July 2020 p. 7

    Dem gegenüber die Amerikanischen Strompreise
    Der durchschnittliche US-Haushaltspreis im Jahr 2019 betrug 0,1301 USD pro kWh.
    U.S. Energy Information Administration – Electric Power Annual table 5a

  6. Die Plastics Granulating Services (PGS) mit Sitz in Kilburn im inneren Norden von Adelaide gab bekannt, dass die monatlichen Stromrechnungen in den letzten 18 Monaten von 80.000 USD auf 180.000 USD gestiegen sind.ABC News Australia – SA plastics recycling business closes due to $100k hike in power bills
    ABC News Australia – Das Kunststoffrecyclinggeschäft von SA wird aufgrund einer Erhöhung der Stromrechnungen um 100.000 USD geschlossen
  7. Global Energy Institute – What if… Hydraulic Fracturing was Banned? (2020 Edition)
    Global Energy Institute – Was wäre, wenn … Hydraulic Fracturing verboten wäre? (Ausgabe 2020)
  8. Talking Points on Joe Biden’s Energy Plan
    Gesprächsthemen zu Joe Bidens Energieplan

Gefunden auf

https://energytalkingpoints.com/green-energy-jobs/

Übersetzt durch Andreas Demmig

 




Der Nahe Osten setzt verstärkt auf Öl und Gas, während die UN vor einem „Klima-Notstand“ warnen

Der Generalsekretär fragte ernsthaft: „Kann irgendjemand noch leugnen, dass wir uns in einer dramatischen Notlage befinden?“ Die Frage verdeutlicht den tiefen Graben zwischen den politischen Positionen der wichtigsten westlichen Regierungen einerseits sowie den Öl- und Gasproduzenten im Nahen Osten andererseits. Für die Kohlenwasserstoffproduzenten im Nahen Osten, die von dem „doppelten Schlag“ des stark gesunkenen Öl- und Gaspreises – der Hauptstütze der Staatseinnahmen – und den Auswirkungen der Covid-19-Sperren auf die inländische Wirtschaftstätigkeit betroffen sind, ist die Strategie für das nationale Überleben klar und könnte nicht gegensätzlicher sein als die des UN-Generalsekretärs: das Tempo der Monetarisierung der Öl- und Gasreserven, mit denen ihre Länder gesegnet sind, stark erhöhen.

Naher Osten wird mehr Öl und Gas liefern

Innerhalb von zwei Wochen nach dem UN-Gipfel gab der saudi-arabische Energieminister am 27. Dezember die Entdeckung von vier neuen Öl- und Gasfeldern bekannt, darunter auch unkonventionelle Ressourcen. Die Entdeckungen werden den Plänen des Landes Auftrieb geben, seine maximale nachhaltige Rohölproduktionskapazität von derzeit 12 Mio. b/d [Barrel pro Tag] auf 13 Mio. b/d zu erhöhen sowie seine Gasressourcen zu erschließen, um mehr Öl für den Export freizusetzen, anstatt es für die Stromerzeugung zu verbrennen.

Der geschäftsführende Direktor Sultan Al Jaber von der ADNOC, einer der führenden nationalen Ölgesellschaften in der Golfregion, sagte, dass das Unternehmen aus Abu Dhabi „nichts unversucht lässt, um den Wert unserer reichhaltigen Kohlenwasserstoffressourcen freizusetzen“. Ende 2019 genehmigte die Regierung von Abu Dhabi einen Investitionsplan in Höhe von 122 Milliarden US-Dollar für die nächsten fünf Jahre, um die Öl- und Gasförderkapazitäten zu erhöhen. Mit massiven neu entdeckten Reserven und dem Startschuss für die Vergabe großer Lizenzen für die Öl- und Gas-Ausbeutung freut sich das Land darauf, seine Ölförderkapazität von derzeit 4 Mio. Barrel/Tag auf 5 Mio. Barrel/Tag zu steigern.

Während der Westen versucht, auf sie zu verzichten

Im Gegensatz dazu war der Klimagipfel eine Gelegenheit für Premierminister Boris Johnson, seine Führungsrolle in der Klimapolitik zu demonstrieren – als Aufwärmübung für die Weltklimakonferenz im nächsten Jahr, die in Glasgow stattfindet und von Großbritannien ausgerichtet wird. Großbritannien fordert ein radikales Ende der Abhängigkeit von fossilen Brennstoffen und hat bereits ein Verbot von neuen Diesel- und Benzinautos bis 2035 sowie eine Senkung der Kohlenstoffemissionen um satte 68% unter die Werte von 1990 bis 2030 angekündigt. Auf dem Klimagipfel versprach Premierminister Johnson, die Finanzierung von Öl- und Gasprojekten in Übersee „so bald wie möglich“ zu beenden. Er wiederholte auch seine Forderung, dass Großbritannien „das Saudi-Arabien der Windenergieerzeugung“ werden solle, um den „Fuß auf das Gaspedal zu setzen, und zwar auf Kohlenstoff-freundliche Weise“.

Die Politiker einer Reihe westlicher Länder, die ehrgeizige Null-Emissions-Reduktionsziele bis 2050 angekündigt hatten, haben sich darauf konzentriert, die Krise der Coronavirus-Pandemie in eine „Chance“ für eine „grüne industrielle Revolution“ (Boris Johnson) und den „Great Reset“ der globalen Wirtschaft (Klaus Schwab, Gründer des Weltwirtschaftsforums) zu verwandeln. Und uns wird versprochen, dass eine bevor stehende Biden-Präsidentschaft vom ersten Tag ihres Amtsantritts an das Versprechen „Netto-Null bis 2050“ unterschreiben wird.

Während die politischen Eliten im Westen vor den „drohenden“ katastrophalen Folgen einer ausbleibenden Emissionsreduzierung warnen, sehen sich die übrigen Länder der Welt mit der Notwendigkeit konfrontiert, harte Entscheidungen zur Wiederherstellung von Wachstum und Beschäftigung für ihre von Rezessionen betroffenen Bürger inmitten einer globalen Pandemie zu treffen. Kohlenwasserstoffe machen fast 85 % des weltweiten Energieverbrauchs aus, während erneuerbare Energietechnologien wie Wind, Sonne, moderne Biokraftstoffe und Batterien kaum 5 % liefern können. Können diese erneuerbaren Energietechnologien die Welt in absehbarer Zeit mit der benötigten Energie versorgen?

Dabei werden diese Öl- und Gasvorkommen dringend gebraucht

Trotz des beispiellosen Einbruchs der Nachfrage durch die Coronavirus-Pandemie seit März und trotz des endlosen Stroms von Meldungen über das robuste Wachstum erneuerbarer Energien steht die Welt vor einer langfristigen Versorgungslücke bei Öl und Gas. Laut der Energieberatungsfirma Wood Mackenzie ist nur etwa die Hälfte des bis 2040 benötigten Angebots aus produzierenden Feldern verfügbar, „der Rest erfordert neue Kapitalinvestitionen“.

Angesichts des jüngsten Einbruchs der Investitionen in die Öl- und Gasförderung wies das International Energy Forum IEF in einem aktuellen Bericht darauf hin, dass wir vor einem Versorgungsschock „historischen Ausmaßes“ stehen, wenn die Investitionen in die Öl- und Gasexploration und -produktion in den nächsten drei Jahren nicht jährlich um 25 % steigen. Dem Generalsekretär des IEF zufolge „führt die Kürzung von Investitionen in neue Förderanlagen zu einem geringeren Gesamtangebot… es wird nicht lange dauern, bis dieses geringere Angebot mit einer wiederauflebenden Nachfrage kollidiert. Das Ergebnis werden höhere und volatilere Ölpreise und Gegenwind für die Erholung der Weltwirtschaft nach der Pandemie sein.“

Der Zugang zu in großem Umfang verfügbaren fossilen Brennstoffen ist der einzige bekannte Weg zur wirtschaftlichen Entwicklung. Seit der industriellen Revolution im 18. und 19. Jahrhundert hat sich kein Land der Erde ohne die Nutzung von leicht zugänglichen Kohlenwasserstoffen entwickelt. Großbritannien kann durchaus das „Saudi-Arabien der Windenergie“ werden (auch wenn es viele Zweifler gibt), aber was die Entwicklungsländer brauchen, die mehr als drei Viertel der Weltbevölkerung ausmachen ist, dass Saudi-Arabien zusammen mit anderen Öl- und Gasproduzenten bereit und in der Lage ist, fossile Brennstoffe so zu liefern, wie sie für das menschliche Gedeihen benötigt werden.

Link: https://wattsupwiththat.com/2020/12/30/the-middle-east-doubles-down-on-oil-and-gas-as-the-un-warns-of-climate-emergency/

Übersetzt von Chris Frey EIKE




Klimaschutz und Virenhysterie: Instrumente des kommenden Machtmodells – Teil 1

Zahlreiche Autoren haben in den letzten Jahren gezeigt, dass wir derzeit in den westlichen OECD-Staaten, also in Europa und seinen ehemaligen Siedlerkolonien, eine Erosion des gesellschaftlichen Legitimitätsmodells der Nachkriegsära und die Herausbildung eines neuen, usurpatorischen (nicht legitimen) Herrschaftsmodells beobachten.

Ich betrachte im Folgenden die Eigenschaften des alten Modells, die Ursachen für den Übergang, sowie die Herrschaftstechniken und -probleme des neuen Machtmodells.

Jede urbane Gesellschaft benötigt ein Gewaltmonopol, weil Gesellschaften – anders als Gemeinschaften – mit ihren nicht nur auf persönlichen, sondern auch auf rechtlichen Normen beruhenden, anonymen sozialen Beziehungen zur Prävention von Gewalt darauf angewiesen sind [7]. Die Amtsträger, die dieses Monopol ausüben, neigen stets dazu, es für eigene Zwecke zu missbrauchen und ihre Stellung zu perpetuieren. Dies gilt für alle Staatsformen von den ersten Städten bis zur Demokratie der Nachkriegszeit, wobei die Arten des Missbrauchs um die Hauptthemen des Eigentums und der Gestaltungsmacht variieren. Das Ausmaß dieses Missbrauchs ist die Summe des illegitimen Herrschaftsertrages.

Mißbrauch des Gewaltmonopols ist immer an Eigentumskonzentration gebunden. Im extremsten Fall ist das Eigentum nahezu vollständig in den Händen des Herrschers konzentriert, der in traditionellen Gesellschaften dann den Status eines Gottes erhält. In Gesellschaften mit moderater Eigentumskonzentration ist die Tendenz zum Machtmissbrauch schwächer. Im Übergang vom Absolutismus des 17. und 18. Jahrhunderts zur konstitutionellen Monarchie und zur Republik im 19. Jahrhundert erfolgte eine deutliche Verbreiterung der Eigentumsbasis auf das Bürgertum, der Trägerschicht des neuen Herrschaftsmodells. Daher wurde der Eigentumsbegriff in den bürgerlichen Verfassungen seit 1776, anders als im Sozialismus, der Ideologie der Eigentumslosen, nicht problematisiert.

Die Nachkriegsordnung des Westens hatte folgende wesentliche tragende Strukturen: funktionstüchtige und verlässliche Rechtsstaatlichkeit mit einem historisch fast nie anzutreffenden Ausmaß an Isonomie wie im frühen römischen Prinzipat, repräsentative Demokratie mit einem geringen Ausmaß an Partizipation [5], homogene Bevölkerungsstruktur mit einem kleinen Anteil an Migranten, hohes Maß an innerer Sicherheit, außenpolitische Sicherheitsarchitektur unter der Hegemonie der USA, relativ breite Eigentumsverteilung und Goldbindung der Papierwährung.

Der Anteil der Bürger, die von der Nutzung des eigenen Besitzes lebten – sei es als Händler, Landwirte, Dienstleister oder Industrielle – lag bei etwa 15 bis 20 Prozent der Bevölkerung. Die überwältigende Mehrheit der unselbstständigen Angestellten arbeiteten in kleinen oder mittleren Betrieben mit einer persönlichen Beziehung zum Unternehmer. Insgesamt war die Legitimität dieser Ordnung bis in die 1970er Jahre hinein überwältigend, auch wenn die marxistische Studentenrevolte seit 1968 das Herrschaftsparadigma infrage zu stellen begann.

Die Voraussetzungen des neuen Herrschaftsmodells

Das heutige, illegitim-usurpatorische Modell hat Voraussetzungen, die in den 1970er Jahren zu finden sind und dann, nach einem langen Vorlauf, Ende der 1990er Jahre voll zu wirken begannen, um sich zum derzeitigen Zustand zu entfalten. Es handelt sich um drei wesentliche Gruppen.

Westmarxismus

Der wichtigste kulturelle Voraussetzung war der Westmarxismus mit zwei Varianten, einer aufklärerisch-idealistischen und einer Heidegger’sch-dekonstruktivistischen. Die erste Variante findet man beispielsweise in der Frankfurter Schule bei Max Horkheimer, Theodor W. Adorno und Jürgen Habermas sowie bei John Rawls, die zweite vor allem bei Michel Foucault, Jacques Derrida, François Lyotard, Richard Rorty, Paul de Man, oder Judith Butler. Beide Strömungen sind sehr gut untersucht [4, 8] – sogar am Ende seines Lebens von Richard Rorty selbst, der zu merken begann, dass etwas nicht stimmte [9].

Sehr verkürzt gesagt, dient diese Ideologie besonders in der dekonstruktivistischen Ausprägung dazu, dem Westen Selbstbewusstsein und Stolz auf die Errungenschaften der Zivilisation zu nehmen und diese als Geschichte von Unterdrückung und Ausbeutung im Inneren und nach Außen (Kolonialismus) umzudeuten, um so der freiheitlichen Gesellschaft das Substrat zu nehmen und eine kollektivistische Gesellschaftsform zu bahnen [2]. Beide Varianten sind in den 1980er Jahren eine Symbiose mit dem globalen Liberalismus eingegangen, viele der Vertreter beider Ideologien haben dessen Ideen aufgegriffen.

Fiktivwährung

Die Schaffung einer reinen Fiktivwährung war ein weiterer entscheidender ökonomischer Faktor. Als US-Präsident Richard Nixon 1971 die Goldbindung des Dollars, der Weltleitwährung im Bretton-Woods-System, aufhob, entstand schlagartig weltweit in allen bedeutenden Wirtschaftsnationen ein System der ungedeckten Papiergeldwährung – in Kombination mit dem Teilreservesystem der Banken (was bedeutet, dass Banken ein Vielfaches ihres Eigenkapitals als Kredite vergeben und Geld aus dem Nichts schöpfen können). Wie Rothbard [10], Hayek [3] und andere Vertreter der Österreichischen Schule gezeigt haben, führt diese Kombination zu einer unkontrollierten Ausweitung der Geldmenge, chronischer Inflation, massiv verschärften Konjunkturzyklen („boom and bust“), galoppierender Staatsverschuldung mit regelmäßigen Staatsbankrotten und vor allem zu einer radikalen Konzentration des Privateigentums auf einen sehr kleinen Teil der Bevölkerung.

Es seien hier zumindest kurz die wichtigsten Ursachen der Eigentumskonzentration genannt. Im System der Fiktivwährung mit Teilreserve wird ständig neues Geld geschaffen, und zwar deutlich schneller, als die Realwirtschaft wächst. Dadurch steigen die Preise, und zwar in einem Umfeld zunehmender Rationalisierung und Auslagerung von Arbeit in das Ausland vor allem die Preise für hochwertige Realgüter: Immobilien, Unternehmen, Edelmetalle und -steine sowie Kunstwerke und andere Sammlerstücke – zunächst nicht aber die Preise des alltäglichen Warenkorbes.

Dadurch werden Eigentümer dieser Güter im Verhältnis zu denen, die nur ihr Einkommen haben, automatisch wohlhabender. Außerdem erhalten diejenigen Akteure, die als erstes das frisch erschaffene Geld empfangen, einen höheren Wert als die Letztempfänger – wie Angestellte und Sozialhilfeempfänger. Insbesondere Anleger, die seit den 1970er Jahren am Finanzsektor beteiligt waren, konnten sich durch die Kombination dieser Effekte massiv bereichern. Die Verzinsung ihrer Vermögen war viel höher als die Einkommenszuwächse der abhängigen Angestellten, weshalb sie den überwiegenden Teil des Wirtschaftswachstums der letzten 50 Jahre vereinnahmt haben; ohne Veränderung der fundamentalen Faktoren wird sich dieser Trend weiter beschleunigen [6].

Skaleneffekte, Privatisierung, Globalisierung

Der technische Fortschritt ermöglichte nach dem zweiten Weltkrieg eine schnell fortschreitende Konzentration der Produktionsmittel des Primär- und Sekundärsektors mit Hilfe massiver Skaleneffekte. Der Investitionsbedarf in vielen Branchen wurde so enorm, dass nur noch große Einheiten ihn bewältigen konnten. Gleichzeitig ermöglichten globale Produktion, Vertrieb und Konsum eine bisher nie dagewesene Skalierung von Unternehmensideen und Branchen.

So wurde es beispielsweise möglich, Agrarkonzerne zulasten selbstständiger Landwirte zu schaffen und diese von nicht-vermehrungsfähigem Saatgut großer Biokonzerne abhängig zu machen. Der kleinbürgerliche Einzelhandel wurde weitgehend abgeschafft und durch Handelskonzerne ersetzt, bis hin zum virtualisierten Handel per Internet (wie etwa Amazon oder Zalando). Kleine Pharmaunternehmen gibt es kaum noch; fast alle Branchen sind von diesem Konzentrationstrend betroffen. Gleichzeitig sank der Anteil selbstständig geführter Unternehmen an der volkswirtschaftlichen Leistung, der Anteil der Konzerne daran nahm zu.

Insgesamt hat sich die Wertschöpfung in den letzten 50 Jahren auf deutlich weniger Akteure konzentriert; immer mehr Berufsgruppen werden in das Angestelltenverhältnis gedrängt, neuerdings auch „Trägerberufe der bürgerlichen Gesellschaft“ (John Dewey) wie Ärzte oder Apotheker. Die Haupteigentümer der großen Unternehmen oder der Ketten abhängiger Angestellter oder Franchise-Nehmer sind sehr reiche Familien mit vielfachem Millionen- oder Milliardenvermögen (die oberen 0,5 bis 1 Prozent der globalen Eigentumspyramide).

Durch die Privatisierungspolitik ab den 1980er Jahren wurde Staatseigentum an Infrastruktur, Immobilien und Dienstleistungskonzernen im Wesentlichen direkt dieser kleinen Schicht verkauft, was zu einer weiteren Eigentumskonzentration geführt hat. Die Globalisierung hat ebenfalls dazu beigetragen, Nutznießer waren die Finanzindustrie, die wohlhabenden Eigentumsschichten und die Exportwirtschaft im Westen und in Asien (erst Japan, dann China und andere) sowie die asiatischen Arbeitnehmer. Verlierer sind die Arbeiter und Angestellten im Westen.

Zwischen Papierwährung, Teilreservesystem, technischen Skalierungsmöglichkeiten, Globalisierung und weiteren Faktoren sind zahlreiche sich gegenseitig verstärkende Interaktionseffekte entstanden. Dadurch hat sich das globale Privateigentum in den letzten 50 Jahren derartig konzentriert, dass nun deutlich weniger als 1 Prozent der Weltbevölkerung zwischen 40 und 50 Prozent und die oberen 10 Prozent etwa 85 Prozent des globalen Privateigentums besitzen, wobei das Tempo der Konzentration laufend zunimmt (Global Wealth Report der Crédit Suisse, 2019). Die Konzentration könnte noch deutlich höher sein, was aber sehr schwer abzuschätzen ist.

Literaturhinweise

  1. Hans Herbert von Arnim. Staat ohne Diener: was schert die Politiker das Wohl des Volkes? Rowohlt Verlag GmbH, 2018.
  2. Egon Flaig. Die Niederlage der politischen Vernunft: wie wir die Errungenschaften der Aufklärung verspielen. zu Klampen Verlag GbR, 2017.
  3. Friedrich A. von Hayek. Denationalisation of money: The argument refined. Ludwig von Mises Institute, 2009.
  4. Gertrude Himmelfarb. On looking into the abyss: Untimely thoughts on culture and society. Knopf New York, 1994.
  5. Bernard Manin. The principles of representative government. Cambridge University Press, 1997.
  6. Thomas Piketty. “About capital in the twenty-first century”. In: American Economic Review 105.5 (2015), S. 48–53.
  7. Heinrich Popitz. Phänomene der Macht. Tübingen: Mohr Siebeck, 1992.
  8. Guido Preparata. The Ideology of Tyranny: Bataille, Foucault, and the Postmodern Corruption of Political Dissent. Springer, 2007.
  9. Richard Rorty. Achieving our country: Leftist thought in twentieth-century America. Harvard University Press Cambridge, MA, 1998.
  10. Murray N Rothbard. Man, economy, and state. Ludwig von Mises Institute, 2009
  11. John P. A. Ioannidis: Global perspective of COVID‐19 epidemiology for a full‐cycle pandemic, E J Clin Invest, 10/2020. https://doi.org/10.1111/eci.13423

 




AGW-Skeptiker Marc Morano erhält Todesdrohung vom E-Mail-Konto eines Professors der Universität Sorbonne

Email Konto “geklaut”? –  von einem Professor an der Sorbonne Universität

Die Morddrohung kam von einem E – Mail – Konto von Prof. Jean-Luc Mělice , ein angesehener Forscher für Klimamodellierung  und Direktor am Pierre-Simon Laplace – Institut,  Universität Sorbonne in Paris, Frankreich an Climate Depot.com.

Diese Drohung ist die Neueste aus einer Reihe, die sich gegen Marc Morano von Climate Depot richten. Sehen Sie dazu den Beitrag vom 26.12.2020 .

Was folgt, ist der Inhalt der neuesten E-Mail-Bedrohung, übersetzt ins Englische [Deutsche] (Warnung: anstößige Sprache):

Von: Anonymous
Email:
jlmelice@hotmail.fr
Message: Also, du kleiner Scheißer von Morano dem Idioten, dem Neger aus Afrika, du musst anfangen, in deine Hose zu scheißen. Mit deinem dreckigen Affenmund. Sobald Sie Europa betreten, werden wir mit einem Baseballschläger zertrümmern. Selbst in den USA warten Freunde darauf, Sie zu massakrieren. Sie finden keinen Platz mehr, um sich zu verstecken. Wir haben Ihre Adresse und folgen Ihnen Schritt für Schritt. Sie werden sich nie ausruhen können …  ein Mörder wird immer sehr nahe sein …

Natürlich, Arschloch, hast du nicht die intellektuelle Ebene und das Gehirn, um Französisch zu verstehen, was wiederum die Sprache eines jeden gebildeten Menschen ist…

Die Botschaft enthält nicht nur bildhafte Todesdrohungen, sondern auch Rassenhass.

Laut seinem LinkedIn-Account ist Prof. Jean-Luc Mélice Fakultätsmitglied der Universität Sorbonne.


Mail an  Prof. Mélice

Um die Angelegenheit zu klären, schickte No Tricks Zone, Pierre Gosselin eine E-Mail an Prof. Mélice, um zu fragen, ob ihm bekannt sei, dass sein E-Mail-Konto illegal missbraucht wurde:

Sehr geehrter Herr Prof. Mélice,

Bitte überprüfen Sie Ihr E-Mail-Konto, da es zum Versenden unzulässiger E-Mails und Nachrichten verwendet wird, insbesondere an Personen, die sich kritisch mit Klimawissenschaften befassen. Möglicherweise hat ein Hacker Ihr Konto gehackt  und verwendet es illegal.

Ich hoffe, dass Ihnen das hilft und dass es Ihnen gut geht.

Beste Wünsche für 2021,

Dipl.-Ing. Pierre Gosselin
https://notrickszone.com


Bisher ist keine Antwort eingegangen. In der Zwischenzeit sagte Marc Morano, er werde die Drohungen ernst nehmen und sich an die Behörden wenden.

[da obiger Vorfall sich während der Weihnachtsfeiertage abspielte und viele Leute – vor allem auch an einer Uni, Urlaub haben, nehme ich an, dass Herr Prof. dann erst nach den Feiertagen im neuen Jahr seine Mails liest. – Der Übersetzer]


No Tricks Zone erhielt dann ebenfalls einen unfreundlichen Kommentar

Am selben Tag, dem 30. Dezember, kam auf NoTricksZone.com dann auch  ein unfreundlicher Kommentar [in französich] von jemandem, der mit Jean-Luc Mélice abzeichnete:

In Deutsch: [mit Hilfe von Web- translate]

Also Pierre Gosselin,

Versuchen Sie auf klug zu spielen?

Ich denke, die einzige Lösung für Sie ist, schnell zum Altenheim zurückzukehren …

Ich würde mich freuen, wenn Sie mir Ihren Lebenslauf schicken, der mies sein muss… sowie Ihre wissenschaftlichen Veröffentlichungen.

Mit freundlichen Grüßen,

Jean-Luc Melice


 Cyber-crime

Natürlich ist nicht vorstellbar, dass die groben Bedrohungen für Marc Morano wirklich von Prof. Mélice stammen könnten. Eher von einem Hacker. Sicherlich hat Prof. Mélice die Mindestverpflichtung sicherzustellen, dass sein Konto nicht zur Begehung von Straftaten verwendet wird und er wird hoffentlich die Behörden benachrichtigen, um diese Situation unter Kontrolle zu bringen.

Und hoffentlich werden die Behörden handeln und Gerechtigkeit üben.

Schande

Insgesamt gesehen sind solche Bedrohungen, die vom E-Mail-Konto eines Professors ausgehen, eine Schande für die akademische Gemeinschaft und die in Paris ansässige Sorbonne-Universität.

Und es wäre eine noch größere Schande, wenn die Behörden nicht handeln würden.

 

Der Beitrag wurde übernommen von: https://notrickszone.com/2021/01/01/agw-skeptic-marc-morano-receives-death-threat-from-sorbonne-university-professors-email-account/

https://wattsupwiththat.com/2021/01/01/agw-skeptic-marc-morano-receives-death-threat-from-sorbonne-university-professors-email-account/

Übersetzt und zusammengestellt von Andreas Demmig

 




Auf Corona-Krise folgt Klima-Krise: Lauterbachs Plan

Karl Lauterbach macht sich bereits über seine Anschlussverwendung Gedanken, irgendwann wird das Corona-Thema politisch ein lahmer Gaul sein und nicht mehr für große Sprünge taugen. Laut Wikipedia war das Markenzeichen Lauterbachs  lange Zeit die Fliege, die er des Öfteren anstelle einer Krawatte trug. Und insofern ist es nachvollziehbar, dass er ein weiteres mal die Fliege machen möchte.

Und da kommt ihm selbstverständlich das Nächstliegende in den Sinn: Die „Klimakrise“, was auch immer man im Näheren darunter zu verstehen hat. Hauptsache Krise. Wobei die Corona-Krise einen kleinen Nachteil hat: Wenn die Endabrechung kommt, weilen die Verantwortlichen höchstwahrscheinlich noch unter den Lebenden, womöglich sogar in Ihren Ämtern, deshalb sind sie ja so nervös. Sie müssen damit rechnen, mit dem Erfolg oder Misserfolg, Risiken und Nebenwirkungen ihrer Massnahmen konfrontiert und je nach Ausgang sogar zur Verantwortung gezogen zu werden.

Das verhält sich beim Klima praktischerweise anders: Es handelt sich ja bislang um eine hypothetische Katastrophe, die unser Menschengeschlecht irgendwann in ferner Zukunft  heimsuchen soll. Die Erfolgs- respektive Misserfolgskontrolle erfolgt also erst, wenn die Protagonisten betriebssicher tot sind. Politisch ist die Klimakrise somit ein Perpetuum mobile.

Greta & Friends sind auch schon darauf gekommen, da muss Karl der Alarmierte auf den Zug aufspringen, bevor die erste Klasse besetzt ist. Im Interview mit „Die Welt“ vom 27. Dezember  lässt er schon mal wissen:

 „[…] Somit benötigen wir Maßnahmen zur Bewältigung des Klimawandels, die analog zu den Einschränkungen der persönlichen Freiheit in der Pandemie-Bekämpfung sind.“

In der Pandemie-Bekämpfung gibt es ja noch viel zu viele Freiräume, deren Beseitigung man virologisch eher schlecht begründen kann. Nehmen wir nur das Autofahren, das eine deutlich gesündere Art der Fortbewegung verspricht als Busse und Bahnen. In der Klimakrise wird deshalb die zweite Stufe des Ausgehverbotes verhängt, das Ausfahrverbot.

Ich könnte mir das als zentralen Punkt eines „Lauterbach-Planes“ vorstellen, genannt nach dem Mann aus der Corona-Hall of Fame und wie geschaffen für den ewigen Lockdown. Alles  unter 1.000 Jahren wäre eine Enttäuschung. Die Vorarbeiten sind ja längst  gemacht, die Ideen für einen Aktionsplan, der diesem großen Namen gerecht wird, muss man nur von der Staude pflücken wie eine reife Banane. Ich meine jetzt nicht den Morgenthau-Plan, der wies zwar in die richtige Richtung, verstand es aber irgendwie nicht, die Menschen „mitzunehmen“. Laut Wikipedia zeichnet Karl Lauterbach für 294 Publikationen und zehn Bücher verantwortlich, er ist somit prädestiniert seinem Schaffen einen weiteren Höhepunkt hinzuzufügen.

Als Erfolgsformel empfehle ich daher eine Wortschöpfung, die ja bereits Karriere gemacht hat: der ökologische Fußabdruck. Der ist umso größer, je mehr Ressourcen ein Land pro Kopf seiner Bewohner verbraucht. Wenn man beispielsweise den Energiekonsum betrachtet, haben die Amerikaner die größten Füße, Europäer und Japaner liegen im Mittelfeld. Die kleinsten Füße haben die Bewohner der Entwicklungsländer.

Doch das soll sich schon lange ändern: Künftig, so wird von Ökos aller Länder und Generationen gefordert, sollen alle Menschen auf der Welt gleich große Füße haben. Das nennt sich „Klimagerechtigkeit“, und schließt sich nahtlos an den 20. Parteitage der KPDSU  aus dem Jahre 1956 unter Nikita Chruschtschow an  („Wiederherstellung der Gerechtigkeit“).

Da der Energieverbrauch eng mit dem Ausstoß von Kohlendioxid zusammenhängt, verlangte beispielsweise Lutz Wicke, der ehemalige Präsident des Umweltbundesamtes: „Das demokratische ‚One man/one vote“-Prinzip wird auf den Klimaschutz übertragen. Das bedeutet zunächst fünf Tonnen Kohlendioxid pro Kopf der Weltbevölkerung. Mit diesem Verteilungsschlüssel erhalten die bevölkerungsreichen Entwicklungsländer Überschuss-Zertifikate, die sie verkaufen können“.

Armut verbessert die Kohlenstoffbilanz!

Das klingt bestechend einfach und äußerst gerecht. Doch drängen sich rasch Fragen auf: Menschen in kalten Ländern müssen heizen und haben deshalb einen viel höheren Energieverbrauch als die Bewohner warmer Regionen. Darf man Sibirien und die Südsee einfach gleichsetzen? Außerdem: Haben die Menschen in einem armen Land demokratischen Zugang zu Wohlstand und Ressourcen oder profitiert nur eine kleine Oberschicht? Denn jeder hinzukommende Mensch am Existenz-Minimum verbessert rein rechnerisch die Kohlenstoff-Bilanz eines Landes. Ist das tatsächlich im Sinne der Erfinder?  In jedem Falle schlägt die Stunde der Bürokraten. Wie man schon an den Absurditäten des Corona-Regimes erkennen kann, werden denen die absurden Einfälle nicht ausgehen.

Die Waren- und Energieströme einer globalisierten Welt entziehen sich ja zunächst mal einfachen Aufrechnungen. Die Ressourcen, die da in den reichen Nationen verbraucht und verfeuert werden, sind ja oft Rohstoffe, auf deren Export die Entwicklungsländer dringend angewiesen sind. Selbst Bananen, werden nicht zu uns gezaubert, sondern kommen mit Schiff und LKW. Verzichten die Europäer zugunsten des Apfels, bleiben die Produzenten in Südamerika oder Afrika auf ihren Bananen sitzen. Umgekehrt mag ein europäischer Pharmaforscher mit seiner Arbeit einen großen ökologischen Fußabdruck hinterlassen, das Ergebnis – etwa ein neues Medikament (oder ein Impfstoff ) – kommt aber Menschen in aller Welt zugute. Was nun?

Auch das Ende des Ferntourismus wäre für viele arme Länder eine Katastrophe, wie wir gerade beobachten können. Die afrikanischen Nationalparks beispielsweise verdanken ihre Existenz dem Ferntourismus. Fallen diese Einnahmen daraus weg, werden Wilderei und landwirtschaftliche Nutzung in diesen Gebieten sofort wieder zunehmen. Genau wie die vagabundierenden Kapitalströme gibt es auch immer mehr vagabundierende Energie, die sich nicht so ohne Weiteres einem Land zuordnen lässt. Das beste Beispiel ist der Flugverkehr. Nach dem Konzept des ökologischen Fußabdruckes schädigt ein indischer Geschäftsmann, der nach Deutschland fliegt, die Umwelt erheblich weniger als ein Deutscher Geschäftsmann, der nach Indien fliegt.

Wie immer alle gleich und ein paar noch gleicher

So wird der Kohlendioxidausstoß zur absoluten moralischen Leitgröße gemacht, der sich alle anderen gesellschaftlichen Ziele unterzuordnen haben. Es wird vielerorts ernsthaft in Erwägung gezogen, auch Privatpersonen ihr persönliches Kohlendioxid-Kontingent zuzuteilen – Lebensmittelmarken vergleichbar. Die Apologeten der Idee haben bereits Entwürfe für persönliche „Carbon-Cards“ in der Schublade, die jeder Bürger wie eine Geld- oder Kreditkarte etwa beim Tanken oder beim Buchen eines Fluges vorzeigen muss.

Sollen Reisen, Einkaufen und Wohnen demnächst nur noch unter Klimavorbehalt stehen? Der britische Supermarkt-Gigant Tesco hat in vorauseilendem Gehorsam angekündigt, keine Lebensmittel mehr aus weit entfernten Ländern zu importieren, was für Farmer in Kenia oder Bauern in Peru den Ruin bedeuten kann.

Auch in Deutschland werden von Medien schon mal „Klimakommissare“ und dergleichen Polizeikräfte losgeschickt, auf dass sie nach „Klimasünden“ fahnden, seit etlichen Jahren ein wiederkehrender Gag ökologisch bewegter Fernsehredakteure. Ich erinnere mich an eine Szene in einem Supermarkt in Sachsen.

Eine Familie erwirbt dort preiswerte Lebensmittel für vierzig Euro. Doch sie freuen sich zu früh über den günstigen Einkauf. Denn da kommt die Klimakommissarin und kontrolliert ihren Wagen. Spargel, Rindfleisch und Milch gefährden das Weltklima, belehrt sie die verdatterte Familie. „Was gleich ins Auge sticht ist der Spargel,“ erläutert ein Gutachter, „der ist aus Peru, der ist mit dem Flugzeug gekommen.“ Das fahrlässige Einkaufsverhalten entspricht einer CO2-Emission von 37 Kilo, was die Klimakommissarin mit einem Stapel aus 37 Tüten Mehl deutlich macht. Dennoch kommen die Missetäter noch mal ungeschoren davon, denn es sind ja keine echten Polizisten, die den Einkaufswagen kontrollieren, sondern nur Mitarbeiter der Sendung „exakt“ des Mitteldeutschen Rundfunks. Das war vor 15 Jahren, bald sind wir einen Schritt weiter.

Dann hätte der Staat die totale Kontrolle über das Leben des einzelnen Bürgers. Dabei würden – wie immer – alle gleich und ein paar noch gleicher sein. Bekommt ein Kind genauso viel Emissionsrechte wie ein Erwachsener? Ist ein Flug privat oder im Dienste der Allgemeinheit? Darf ein Landarzt mehr Auto fahren als ein Handelsvertreter? Sicher dürfte nur eins sein: Politiker und Bürokraten haben freie Fahrt, sie sind systemrelevant.

Welche Auswüchse die Sache treibt, mag ein Aufsatz verdeutlichen, den die Wissenschaftszeitschrift „Climatic Change“ schon vor 15 Jahren veröffentlichte. Darin ging es um die „externen Treibhaus-Kosten“ eines Neugeborenen. Jedes Baby, so die Forscher, werde Treibhausgase produzieren und damit zum Klimawandel und in der Folge zur Schädigung der Gesellschaft beitragen. Für Industrieländer taxieren sie den Schaden (!) eines neuen Erdenbürgers auf 28.200 Dollar, in einem Entwicklungsland auf 4.400 Dollar. Merke: Klimagerecht sollten also nur noch Kinder unterhalb der Armutsgrenze geboren werden.

Die Einkind-Familie haben wir ja schon. Andererseits hat sich inzwischen eine Bewegung etabliert, die aus Klimagründen ganz auf Kinder verzichten möchte. So berichtet die NZZ:

„Weil sie um die Zukunft des Planeten fürchten, entscheiden sich immer mehr Frauen, auf eigene Kinder zu verzichten. Zwei von ihnen erzählen, warum sie es für verantwortungslos halten, weitere Kinder in die Welt zu setzen“.

In der Tat wäre ein Kinderverbot eine sehr zuverlässige Art und Weise den Kohlendioxid-Ausstoß Deutschlands auf Null zu senken. Und übrigens auch, um das Virus zu besiegen. Egal welches.

Zuerst erschienen bei der Achse des Guten.

 




Stuttgarter Luft: Der NO2-Trick mit der Gasheizung

Die Stuttgarter Lösung ist einfach: Man lässt die Messstation einfach in die Nähe der Auslassöffnungen einer Gasheizung rücken, so wie sie früher häufig eingebaut wurden. Gleich unter mehreren Fenstern des Hauses Pragstraße 90/92 entweichen Stickstoffdioxide – bei älteren Gasöfen sogar relativ viel. Die 39. BImSchV aber verbietet eine Positionierung von Messstellen in unmittelbarer Nähe von Emittenten.

Messstation mit Gas-Entlüftung, Bild Autor

Das Ergebnis: An dieser Stelle misst ein sogenannter Passivsammler im ersten Halbjahr im Mittel 43 µg/m3. Ein weiterer Passivsammler nur ein Haus weiter misst nur 38 µg/m3 – immerhin zwölf Prozent weniger. Doch der Passivsammler an der Pragstraße 90/92 dient Verkehrsminister Hermann als ‚Ausrede‘, warum tausende von Euro 5 Dieselbesitzer ‚enteignet‘ werden. Absicht oder nicht?

Nachdem im neu erstellten Gutachten für die Stuttgarter NO2-Immissionen nicht nur die Pragstraße wieder hervorsticht, sondern auch gleich unterschlagen wurde, dass ein Umgehungstunnel 2021 die Pragstraße von Lkw-Verkehr entlasten wird, ist es schwer, an Zufall zu glauben. Eher ein kleiner Trick von Hermann, die Messwerte hinaufzuschrauben.

Eigentlich sollte ein Luftreinhalteplan umgesetzt werden. Im März dieses Jahres hatte das Regierungspräsidium die fünfte Fortschreibung veröffentlicht, in der eine kleine Umweltzone in Stuttgart eingerichtet werden sollte. Die sah auch ein Fahrverbot für jetzt auch neuere Euro fünf Diesel ab dem 1. Juli 2020 vor, ja sie sollten sogar nicht mehr parken dürfen.

Diese Umweltzone fiel wesentlich kleiner aus, als die »Deutsche Umwelthilfe e.V.« wollte. Wenn es nach diesem Abmahnungverein gegangen wäre, dürften auch neuere Euro-5 Dieselfahrzeuge bis in die höher gelegenen Vororte nicht mehr fahren, obwohl in diesen ländlich strukturierten Gebieten seit langem sehr niedrige NO2-Emissionen vorherrschen. Ein Stichtag in diesem Frühjahr sollte entscheidend sein. »Sollte der drei Monatswert im April 2020 prognostisch ergeben«, so hieß es in der fünften Fortschreibung, »dass der Grenzwert im Jahresmittel 2020 eingehalten wird, wird von der Maßnahme M1 mangels Erforderlichkeit abgesehen.«Ingenieur und Messexperte Martin Schraag weist darauf hin: »Allerdings lag dieser Drei-Monatswert an allen Messstationen in Stuttgart exakt beim zulässigen Grenzwert oder sogar tiefer, mit seit 12 Monaten fallender Tendenz.« Doch die DUH wollte dennoch unbedingt drastische Fahrverbote als Siegestrophäe in ihr Lenkrad ritzen. Sie klagte auch auf ein Fahrverbot für Euro-5 Diesel im Großraum Stuttgart. Im Januar 2019 verdonnerte der Richter des Verwaltungsgerichts Stuttgart das Land zum dritten Mal zu Zwangsgeld. Spektakulär begleitet von der DUH, die Zwangshaft für Ministerpräsident Kretschmann forderte. Sie braucht eben Brachial-PR, auch um ihre Geldgeber und internationalen Kooperationspartner Client-Earth zufrieden zu stellen.

Angesichts eines solch hohen Aktivismus‘ kam sogar aus den Landtagsfraktionen Kritik auf. »Die Luft ist so sauber wie noch nie!« rief bereits vor fast zwei Jahren der Sprecher der CDU-Landtagsfraktion für neue Mobilität Albrecht Schütte aus: »Nach dem, was ich gesagt habe, wird es mit der CDU-Fraktion keine flächendeckenden Fahrverbote für die Diesel der Abgasnorm Euro 5 geben, weil wir sie nicht brauchen. Wir werden auch im schlimmsten Fall mit der Ausnahme von ganz wenigen Strecken unter die 50 Mikrogramm kommen. Dann braucht man eben keine Fahrverbote mehr.«

Thomas Strobl (CDU), der stellvertretende Ministerpräsident Baden-Württembergs, betonte ebenfalls wacker, flächendeckende Fahrverbote für Euro 5 werde es »mit uns nicht geben«. Die setzte der grüne Hermann dennoch durch. Strobl ist nur Juniorpartner. Jetzt hagelt es Kritik wegen eines Gutachtens zur Luftreinhaltung in Stuttgart. Das benutzt Hermann als Begründung für die Fahrverbote.

Doch Thomas Dörflinger, der verkehrspolitische Sprecher der CDU-Landtagsfraktion, sagte gegenüber den Stuttgarter Nachrichten: »Die Landtags-CDU ist nicht einverstanden damit, dass die Landesregierung das neue Gutachten zur Luftreinhaltung in Stuttgart kritiklos hinnimmt. Das Gutachten sagt für die Messstelle an der Pragstraße im kommenden Jahr selbst bei einem Fahrverbot für Euro-5-Dieselautos weiter Überschreitungen voraus, doch der hunderte Millionen Euro teure Rosensteintunnel, der im Sommer in Betrieb gehen soll, sei darin gar nicht berücksichtigt.

Überflüssig ist ein Euro-5 Fahrverbot für Jochen Haußmann, stellvertretender Fraktionsvorsitzender der FDP/DVP im Stuttgarter Landtag. Im September stellte er fest: »Das vorgelegte Gutachten zeigt für mich ganz klar, dass ein generelles Fahrverbot in der so genannten kleinen Umweltzone in Stuttgart weder erforderlich noch verhältnismäßig ist. Die vorliegenden Messwerte im 8-Monats-Zeitraum dieses Jahres bewegen sich bis auf die Messstelle Pragstraße im Rahmen des Grenzwerts von 40 Mikrogramm. Ein einzelner überschrittener Messwert an der Pragstraße kann es keinesfalls rechtfertigen, über die bereits vorhandenen streckenbezogenen Euro-5-Diesel-Fahrverbote die Fläche der kleinen Umweltzone zu sperren.«Es spielen andere Faktoren eine wesentliche Rolle. Ingenieur und Messexperte Martin Schraag hat sich ausführlich mit merkwürdigen nächtlichen NO2-Spitzen und anderen Phänomenen beschäftigt sowie mit Wissenschaftlern unterhalten. Der typische Tagesgang von NO2 in Städten hat sein Minimum am Nachmittag, die Maxima liegen in den Morgenstunden und erstaunlicherweise um Mitternacht. Schraag: »Gerade die nächtlichen Spitzen sind auf den ersten Blick irritierend, da um diese Zeit der als Hauptverursacher gesehene Straßenverkehr eher gering ist.

Das Phänomen hat eine wohl einfache Erklärung: Die über den Städten liegende atmosphärische Grenzschicht hat eine typische, vom Sonnenstand abhängende Höhe. Die Grenzschicht verhindert den Luftaustausch nach oben, kann bis zu 50 Meter in der Nacht absinken und so die Konzentration der Schadstoffe ansteigen lassen. Am Tage verschwindet die Grenzschicht, sodass ein Austausch in größere Höhen stattfinden kann. Der Verlauf der NO2-Konzentration ist natürlich moduliert mit dem zeitlichen Verlauf der Emissionen (Verkehr, Haushalte, Industrie). Auch die Quelle temporärer Spitzen mit dem Stuttgarter ‚Nesenbächer‘ sind so erklärbar. Die NO2-Quelle ist das unter der Grenzschicht gefangene NO2.«

Einige Vergleiche sind mitunter hilfreich. Kurz zur Erinnerung, worum es eigentlich geht: NO2 ist ein Reizgas, das insbesondere in den Atemwegen zu entzündlichen Reaktionen führt. Wie immer ist die Menge entscheidend: Keine Wirkung wurde in Versuchen mit Probanden und Tieren bei Konzentrationen von etwa 3.000 µg/m3 Luft gefunden. Reizungen der Atemwege wurden im Tierversuch erst bei Konzentrationen ab 8.000 µg/m3 festgestellt, also bei deutlich höheren Gehalten als in der Stadtluft. Gewitter erzeugen erhebliche Mengen an NO2, Bakterien im Boden können Stickstoffdioxide und in die Luft freisetzen. Doch die sind nicht von langer Dauer. Der nächste Regen spült das wasserlösliche NO2 aus der Luft, die UV-Strahlung der Sonne zerstört es ebenso. Der »natürliche« Wert von NO2 liegt durchschnittlich bei 10 bis 20 µg/m3.

Ein sehr gefährlicher Ort ist die Küche mit einem Gasherd. Beim Gasherd, auf dem der Sonntagsbraten gegart wird, können NO2-Werte bis auf 4.000 µg/m3 hochschnellen. Von den Wachskerzen, die im Augenblick in vielen Wohnungen und Kirchen brennen und die Luft mit NO2 und Ruß belasten, wollen wir im Augenblick nicht mehr reden.

Schon lange bekannt: Innenräume sind sehr gefährlich, sie weisen meist höhere Konzentrationen an Schadstoffen auf als die Außenluft. So hat der Rat der Sachverständigen für Umweltfragen in seinem Innenraumgutachten klar gesagt, dass Ergebnisse epidemiologischer Studien ohne die Belastung der Innenräume einzubeziehen, wertlos sind. Das war bereits 1999.

Als Treppenwitz kann daher auch der gegenwärtige Lockdown mit Ausgangssperren gelten. Es sind völlig irrelevante Größen, die hier aufgebauscht werden und die Begründung zu einer der größten wirtschaftlichen Katastrophen liefern. Und viele profitieren davon. »Das Verkehrsministerium hatte die DUH wegen Corona um Aufschub gebeten, die DUH hat abgelehnt«, stellt Schraag fest und fragt: »Worum geht es der DUH eigentlich? Und worum geht es Hermann? Ziehen sie am Ende am gleichen Strang?«

Verkehrsminister Hermanns Rezept aus dem Mai 2020 passt zur Agenda der DUH: „Die Zahlen machen Hoffnung. Wenn aber wieder mehr mit dem Auto gefahren wird, kann es sein, dass die Grenzwerte überschritten werden und weitere Maßnahmen erforderlich sind.“ Und: „Mit Bussen, Bahnen, mit dem Rad fahren oder zu Fuß gehen, gemeinsam Auto fahren oder ältere Diesel-Autos nachrüsten.“ Ansonsten sei er aber nun verpflichtet, das Fahrverbot umzusetzen, wäscht Hermann seine Hände in Unschuld. Von einer Umsetzung der in der 5. Fortschreibung geschriebenen Bedingung, ganz auf eine kleine Umweltzone zu verzichten, war keine Rede mehr.

Der Verkehrsminister Hermann ist übrigens Mitglied im Rat der NGO Agora-Verkehrswende. Die Lobbyorganisationen, die die Autos möglichst verbannen wollen, trommeln in Brüssel zu diesem Zweck schon längst auf eine weitere Absenkung der NO2-Grenzwerte auf 20 µg/3. Dabei liegen beispielsweise in Stuttgart die NO2-Werte gleich hinter den Verkehrsmessstellen an eng begrenzten ‚hotspots‘ im Bereich von 20μg/m³.

Der Beitrag erschine zuerst bei TE hier

 




Den Bann der Angst durchbrechen

Das ist furchtbar. Niemand hier hat die Schwere der Krankheit oder gar ihre Existenz geleugnet. Aber die Wahrscheinlichkeit, sich als einer von 83 Millonen in Deutschland länger oder kürzer hier Lebenden überhaupt zu infizieren, liegt bei unter einem Prozent. Und diese Dimension respektive Verhältnismäßigkeit hat kaum jemand im Auge.

Wenn es denn jemals eine gab, war die Strategie der Politik jedenfalls nicht zielführend. Und das scheint nahezu ein weltweites Phänomen zu sein. Die Regierungen handeln kopflos und panisch. Angst regiert die Welt. Und ein schlechter Ratgeber laut Volkes Munde. Was muss man tun, damit sich derlei nicht wiederholt? Damit meine ich ausdrücklich nicht ein neues Virus, sondern die fast schon

n verantwortungslose, hektische Reaktion auf eine beherrschbare oder vermeintliche Notlage.

Wir haben es ja nicht nur in Sachen Corona mit diesem Phänomen zu tun. Wenn die bestenfalls pubertierende 16-jährige Greta Thunberg vor den Vereinten Nationen heraus schreit, “I want you to panic”, bringt sie das Konzept der Drohung mit dem modernen Fegefeuer auf den Punkt. Und der mittlerweile unvermeidliche Karl Lauterbach erklärt schon in DIE WELT, dass vergleichbare Einschränkungen zur Rettung des Klimas notwendig seien. Nicht nur bei der Pandemie.

Bei der Finanz- und Eurokrise hat Bundeskanzlerin Merkel das Thunberg-Prinzip vorweg genommen: “Scheitert der Euro, scheitert Europa”. Als ob wegen des Untergangs einer Währung ein Kontinent untergehen könnte. Das haben zwei Weltkriege nicht geschafft und auch wegen des “menschengemachten Klimawandels” wird er nicht absaufen. Die Politik agiert mit den Methoden des digitalen Mittelalters. Angst essen nicht nur Seele auf. sondern auch Verstand. Und das macht einen faktenbasierten Diskurs, der auf Emotionalisierung und Personalisierung verzichtet, unmöglich. Wenn wichtiger ist, wer etwas sagt und nicht was, läuft gehörig etwas schief. Mittlerweile sind Augenmaß und Verhältnismäßigkeit vollends verlorengegangen.

Das Erkenntnisproblem der selektiven Wahrnehmung

Arthur Schopenhauer hat sein Hauptwerk “Die Welt als Wille und Vorstellung” genannt und wurde damit zum Gründungsvater des Konstruktivismus. Dessen Protagonist Paul Watzlawick (“Anleitung zum Unglücklichsein”), österreichisch-amerikanischer Psychologe und Kommunikationsforscher, spricht davon, dass wir nur erkennen, was wir erwarten. Einen Widerspruch übersehen wir allzu leicht, weil er nicht in unser “Weltbild” passt. Man kann es aber auch mit Astrid Lindgrens Pippi Langstrumpf sagen: “Ich mach mir die Welt, wie sie mir gefällt.”

Der Schlüssel, sein Weltbild der Realität auszusetzen, sind Aufklärung und kritischer Rationalismus. “Aufklärung ist der Ausgang des Menschen aus einer selbstverschuldeten Unmündigkeit.” So beginnt Immanuel Kant sein Manifest und meint damit, dass wir denken müssen und nicht bloß glauben dürfen. Er ordnet die Verantwortung dafür dem Bürger zu und nicht dem Potentaten. Die Stürmer und Dränger und die Aufklärer haben den Absolutismus vertrieben und die Grundlagen für den freiheitlichen Rechtsstaat, die moderne Wissenschaft, den technologischen Fortschritt und den sukzessive wachsenden Wohlstand der Industriegesellschaft gelegt.

Wir müssen uns also an die eigene Nase fassen und fragen, warum wir nicht im Kleinen den Diskurs fördern, unter Freunden und Bekannten Stellung beziehen und unseren Zweifel äußern. Auf Wissenschaft, Politik und Medien alleine zu zeigen, ist nicht ausreichend.

Man kann es Greta Thunberg nicht übelnehmen, dass sie laut hinausposaunt: “Hört auf die Wissenschaft”. Was sie meint, bedeutet: Glaubt der und glaubt an die Wissenschaft”. Aber wer ist “die Wissenschaft”?

Wissenschaft ist der aktuelle Stand des Irrtums

Das kann keiner wissen, denn die Wissenschaft ist nicht als homogene Institution existent. Wer hier auf die Mehrheitsmeinung pocht, hat das Prinzip nicht verstanden. Wissenschaft ist Wettbewerb um die beste Erklärung. Und Naturwissenschaft ist genauso wenig vom Irrtum gefeit wie die Geisteswissenschaften oder die ökonomischen Wissenschaftler. Natürlich bis auf die physikalischen Gesetze wie das der Schwerkraft, dass sich jederzeit experimentell wiederholen lässt. Würde Wissenschaft konsensbasiert arbeiten, käme die Entdeckung neuen Wissens zum Erliegen.

Um mit Karl Popper zu sprechen: Nichts ist wahr. Alles darf nur solange als bewährt gelten, bis es widerlegt ist. Wenn wir heute also davon sprechen, dass wir die Durchschnittstemperatur auf der Erde im Jahre 2050 vorhersagen könnten, und ein Getriebe entwerfen, mit dessen Zahnrädern wir sie so einstellen könnten wie mit dem Thermostat im heimischen Wohnzimmer, unterliegen wir einem gewaltigen Irrtum und der Anmaßung, den wissenschaftlichen und technischen Fortschritt bis auf die erste Stelle hinter dem Komma prognostizieren zu können.

Ähnlich verhält es sich mit den Prognosen zur Pandemie. Der “R-Faktor” ist eine geschätzte Modellierung, die wie auch die ökonomischen Prognosen auf eine simple Formel zurückgehen, wenn man sie zu Ende differenziert hat. Und die heisst: Pi mal Daumen.

Die normative Kraft der Zahl

Würde man den „R-Faktor“ im Nachhinein mit dem tatsächlichen Infektionsgeschehen vergleichen, was eine komplexe mathematische Operation ausmacht, so wette ich, dass er mit der tatsächlichen Infektionsentwicklung nicht korrealiert. Anders gesagt: Die Modellierungen sind nicht mal für die Katz. Aber einmal von Professor Doktor Lothar H. Wieler auf einer Pressekonferenz vorgetragen und live über die Nachrichtenkanäle und die Social Media verbreitet, steht eine Zahl im Raum und sei sie noch so infiziert. Am 18. März hat der Mann verkündet, ohne Lockdown sei spätestens im Juni 2020 mit 10 Millionen Infizierten zu rechnen.  Nur in Deutschland.

Um bei der Bevölkerung Eindruck zu schinden, arbeitet die CORONA-Statistik bei Wieler, Funk und Fernsehen mit dem Instrument der Kumulation. Es wird nicht dargestellt, wie viele Menschen derzeit positiv getestet sind und als infiziert gelten, wie viele so schwer erkrankt sind, dass sie das Krankenhaus aufsuchen mussten, lediglich die Zahl derjenigen, die sich auf Intensivstation befinden oder dort beatmet werden, wird tagesaktuell kommuniziert. Auch die Zahl der täglich Verstorbenen wird als Addition zu den in den vergangenen 9 Monaten genannt. Das ist die Macht der hohen Zahl. Alles erscheint viel schrecklicher.

Steht die Zahl einmal im Raum, so verbreitet sie Angst und Schrecken. Das gleiche Prinzip funktioniert ja auch schon bei der globalen Durchschnittstemperatur oder den vermeintlichen CO2-Emissionen, die werden auch im Nachhinein nicht gemessen (wie sollte das funktionieren?), sondern geschätzt. Und das vom Bundesumweltamt.

Wie gut solche Vorhersagen funktionieren, kann man alljährlich an den Steuerschätzungen beobachten. Ähnlich wie bei den Voraussagen der Wahlergebnisse durch die Demoskopen lässt sich mit Sicherheit nur eins prognostizieren: Sie werden so nicht eintreffen. Entweder verschätzt man sich um ein paar Milliarden oder ein paar Prozent. Und je früher die Prognosen, desto diffuser das Bild. Aber das mit der Durchschnittstemperatur, bei der noch Milliarden weitere Parameter berücksichtigt werden müssen, das kriegen wir angeblich hin.

Wenn die Zahl allerdings zu positiv ausfällt und nicht in das jeweilige Schreckensszenario passt, wird sie nicht genannt. Deutschland wird Ende 2020 – und das wäre auch ohne Corona geschehen – im Vergleich zum Stand 1990 etwa 40 Prozent der Klimagase eingespart haben. 2019 waren es ja bereits schon mehr als 38 Prozent (da gibt es unnterschiedliche Aussagen – es handelt sich ja um Schätzzahlen). In Kyoto hatten wir uns zu 35 Prozent verpflichtet. Es besteht also kein Grund zur Panik.

Zahlen suggerieren eine Objektivität, die sie nicht haben. Es handelt sich nicht um das Ergebnis höherer Mathematik, sondern letztlich um Formeln, Modellierungen und Erklärungsmodelle, denen das unvollständige Wissen derjenigen zugrunde liegt, die sie formulieren und entwickeln. Ich bestreite gar nicht, dass solche Prognosen ihren Wert haben und sie einen Trend indizieren. Nur für bare Münze darf man sie nicht nehmen.

Die Macht der Bilder

Können Sie sich noch an die Bilder aus Bergamo erinnern? Kein Regisseur eines Katastrophenfilms hätte sich das besser ausdenken können. Martialische Militär-Lastwagen transportierten wie Lafetten jeweils einen Sarg, obwohl auch ein paar mehr auf die Pritsche gepasst hätten. Die Prozession der Fahrzeuge mit mindestens 7,5 Tonnen Transportgewicht wurde dabei abgelichtet, wie sie in angemessen langsamer Geschwindigkeit durch die menschenleeren Landstriche Norditaliens rollte. Was für ein Bild für eine Pandemie.

Es gab in Norditalien dramatische Verhältnisse und eine deutliche Übersterblichkeit (also mehr Sterbefälle als im üblichen Vergleichszeitraum). Aber die meisten leider Verstorbenen waren schon damals über 80 Jahre alt und hatten mindestens eine Vorerkrankung. Die Pandemie hat ihnen, wenn man das despektierlich ausdrücken möchte, den Rest gegeben. Und während die Ärzte auf den Intensivstationen in Bergamo und Mailand bis zum Umfallen kämpften, standen die Intensivbetten in Neapel leer. Wie wäre die Wahrnehmung der Pandemie wohl ohne die Bilder von den überfüllten Intensivstationen und die LKW-Kolonnen verlaufen? Und hätten die Regierungen europaweit genauso reagiert?

Die “Bilder” haben auch bei einem anderen Thema eine Rolle gespielt. Ich meine nicht den berühmten Satz des Moderators eines Nachrichtensenders auf den Unfall in Fukushima, der, um die Zuschauer über die Werbepause bei der Stange zu halten, sagte: “Und nach der Werbepause sehen Sie hier die Kernschmelze” (aus dem Gedächtnis zitiert).

Die Grenzen wurden nach Angaben des Welt-Journalisten Robin Alexander in seinem Buch im September 2015 nicht aus humanitären Gründen offen gehalten, sondern weil man die dabei entstehenden “Bilder”, für nicht “vermittelbar” hielt. Es ging also nicht um humanitäre Gründe, sondern um den Machterhalt.

Deshalb war das Abkommen mit der Türkei folgerichtig, das möglichst viele “Geflüchtete” zurückhalten sollte. Die haben da die Kamerateams und Fotografen unter Kontrolle. Und wovon es keine Bilder gibt, das passiert in der Wahrnehmung von Politik und Medien gar nicht. Ob die Menschen und Bürger das auch immer so sehen, lassen wir mal dahingestellt.

Der Schrecken des Todes

Sterben war bisher eine private Angelegenheit. Zwar taten die Angehörigen ihre Trauer in Anzeigen oder mittlerweile den sozialen Medien kund, luden zu Trauerfeier, Beerdigung und Leichenschmaus ein, aber eben doch nicht jedermann, sondern nur diejenigen, die am Tod des jeweiligen Menschen Anteil nahmen.

Die einzigen Zahlen von Todesopfern, die mir regelmäßig über den Weg liefen, sind die kolportierten der Verkehrstoten. Das sind bedauernswerte mehr als  3.000 Menschen zuviel. Aber wohl der Preis für unsere Mobilität.

In den deutschen Medien wird stets die Zahl aller jemals an oder im Zusammenhang mit dem Virus Verstorbenen genannt. Das sind seit März mehr als 30.000 Menschen. Auch hier war die absolute Mehrheit über 80 Jahre alt und litt unter einer oder mehreren Vorerkrankungen. Aber in Deutschland sterben jedes Jahr mehr als 900.000 Menschen. Eine Zahl, die vorher niemand kannte und von Lothar Wieler, dem Präsidenten des Robert-Koch-Instituts in seinen bedeutungsschwangeren Pressekonferenzen nie genannt wurde. Täglich sterben im Schnitt rund 2.572 Menschen (Wie gesagt beim Straßenverkehr sind das mehr als 3.000 im Jahr). Wenn am Tag 1.000 Menschen an oder mit dem CORONA-Virus sterben, sind das rund 39 Prozent der täglich Sterbenden. Wenn im Monat rund 77.500 Menschen sterben, sind das 697.500 von März bis April. Davon machen die bedauernswerten rund 30.000 Toten unter 5 Prozent aus.

Mit den vermeintlich offiziellen Zahlen wird Angst geschürt und Panik gemacht. Sie sollen die Ausrufung der “Pandemie von nationaler Tragweite”  begründen und damit den Zweck des vollständigen Entzug der Bürgerrechte rechtfertigen. Es ist nicht auszuschließen, dass ihre Erzeuger selber glauben, was sie verkünden.

Das Wort der Propheten

Wussten Sie vor einem Jahr, wer Prof. Dr. Christian Drosten ist? Heute wissen wir: Der Mann trägt schwer das vermeintliche Wissen der weltweiten Virologie auf seinen Schultern. Sein Ruf verhallt nicht ungehört. Schon gar nicht bei der Kanzlerin. Wenn es nötig wird, bestellt sie ihn in die Ministerpräsidentenrunden ein, um die unwilligen Landesfürsten mit einem Blick in den Corona-Abgrund zu disziplinieren. In einem eigenen von den Rundfunkgebühren finanzierten Podcast verbreitet er diesen Blick auch über den reichweitenstarken NDR ohne ausreichende journalistische und wissenschaftliche Kontrolle.

Statt auf die Corona-Propheterie zu vertrauen, hätten Kanzler wie Helmut Schmidt, Helmut Kohl oder auch Gerhard Schröder anders gehandelt. Schmidt hat etwa bei der Schleyer-Entführung einen Krisenstab einberufen, der über Wochen tagte und die Vielfalt der Argumente auf den Tisch des Bonner Kanzleramts brachte. Darin vertreten war auch der Oppositionsführer Helmut Kohl und die Fraktionsvorsitzenden, die nicht im Nachhinein vom Ergebnis obskurer Video-Konferenzen “unterrichtet” wurden.

Nicht anders ist es etwa mit Professor Hans Joachim Schellnhuber und dessen Potsdamer Institut für die Klimafolgenabschätzung. Zwar ist der Mann mittlerweile im Ruhestand, doch Propheten lassen sich nicht pensionieren. Man könnte diese Art von Wissenschaftlern wahlweise Propheten oder Hofalchemisten nennen, die scheinbar alleine im Besitz der allgemeingültigen Wahrheit zu sein scheinen. Die haben früher Gold versprochen und wenigstens Porzellan geliefert. Zweifelhafte Organisationen wie die Leopoldina, die vorher abseits des Lichtes der Öffentlichkeit operiert hatten, liefern Politik und Kanzlerin allzu gerne die Begründung für den ein oder anderen Lockdown. Das unterminiert Vertrauen.

Das multiple Organversagen der Medien

Aus falsch verstandenem Verantwortungsgefühl hat sich bei den Medien spätestens seit der  Finanzkrise ein vorauseilender Gehorsam eingeschlichen, der kontroverse Diskussionen und die Abbildung von Meinungspluralismus nur noch in Ausnahmefällen erlaubt. Daraus ergibt sich eine merkwürdige Konsistenz, die über die Bildschirme flackert und aus den Lautsprechern quillt. Gefangen sind die Medienmacher dabei in einer Hatz, die den meisten von ihnen die Chance zur Reflektion und Einordnung nimmt. Beim Nutzer wird diese Hektik durch den Algorithmus verschärft, eine Art mediales Schneeballsystem: Was viele sehen, bekommen noch mehr zu sehen. Dabei wird die mediale Fertigsoße immer gleichförmiger.

Medien stoßen kaum noch Kontroversen an und bilden sie auch nicht ausreichend ab. Außenseiter werden zu “Leugnern” erklärt und oft persönlich diskreditiert, statt ihre Auffassung sachlich zu widerlegen, wenn dies denn nötig und möglich ist. Das Unvermögen mit der Informationsflut der sozialen Netzwerke schafft Begriffe wie “Hatespeech” oder “Fakenews”, mit denen auch Argumente aussortiert werden, die tatsächlich bedenkenswert waren. Das über Jahrhunderte erkämpfte Prinzip der Meinungsfreiheit wird so geschleift. An die Stelle ordentlicher Gerichte sind Laien und Algorithmen getreten. Das Phänomen des vorauseilenden Gehorsams wird so manifestiert.

Natürlich brauchen Politiker, Wissenschaftler und Medienleute Vernunft im Kantschen Sinne. Und dafür braucht es Mut. Und der ist nötig, um ein mögliches Medientrommelfeuer durchzustehen. Betrachtet man den zarten Virologen Hendrik Streeck, dessen empirische Studien geeignet gewesen sind, die Lockdown-Strategen zu widerlegen und wie er angefeindet wurde, versteht man, wovon die Rede ist. Ein Wissenschaftler, der den möglichen menschlichen Einfluß auf das Klima nicht für bestimmmend hält, kann in den Augen der Meute, gar keiner sein. Aber es gibt diesen Mut der Vernunft.

Aber wir lassen ihn oft genug allein. Weil wir selber nicht besser sind als 709 Bundestags- und 1.886 Landtagsabgeordnete, über deren Linientreue wir uns so gern ereifern, und die Talk-Show-Unterhalter, über die wir uns bestenfalls auf der Couch mokieren. Vielleicht sollten die Bürger, egal ob liberal oder konservativ, darüber nachdenken, dass der Prozess, der zur Veränderung führt, unten beginnt. Und nicht von oben. Bevor man die Angst vertreibt, darf man selbst keine haben und sich auch keine machen lassen. Sich auf sein eigenes Urteil zu verlassen und das für recht und richtig Erkannte durchzusetzen, ist als guter Vorsatz womöglich weiterführender, als auf eine Impfung zu hoffen. Gegen die Vernunft sind schon zu viele immun. In diesem Sinne auf ein gutes Neues Jahr.

Der Beitrag erschien zuerst bei ACHGUT hier