1

Kalifornien kämpft insgeheim mit „Erneuerbaren“

Das neue Batterie-Array hat eine Speicherkapazität von 1.200 Megawattstunden (MWh) und stellt damit das australische Rekordsystem mit 129 MWh, das Tesla vor ein paar Jahren gebaut hat, in den Schatten. Der Spitzenwert in Kalifornien liegt jedoch bei satten 42.000 MW. Falls das in einer heißen, windarmen Nacht passiert, würde diese vermeintlich große Batterie die Lichter für gerade einmal 1,7 Minuten (das sind 103 Sekunden) am Leuchten halten. Das ist wirklich eine triviale Menge an Speicher.

Wohlgemerkt, dieses System wurde gebaut, um nur Pacific Gas & Electric zu versorgen. Aber die haben zufälligerweise einen Spitzenverbrauch von etwa der Hälfte von Kalifornien, also 21.000 MWh, und bekommen somit großartige 206 Sekunden Spitzenstrom. Kaum Zeit, um die Taschenlampe zu finden, oder?

Es ist nicht bekannt, was dieser triviale Riese gekostet hat, da er nicht im Besitz von PG&E ist. Diese Ehre gebührt einem Unternehmen namens Vistra, das eine Menge verschiedener Dinge mit Strom und Gas macht. Aber diese komplexen Batteriesysteme sind nicht billig.

Berichten zufolge werden in diesem System mehr als 4.500 gestapelte Batteriegestelle verwendet, von denen jedes 22 einzelne Batteriemodule enthält. Das sind 99.000 einzelne Module, die gut zusammenarbeiten müssen. Man stelle sich vor, 99.000 Elektroautos anzuschließen, und man kann sich ein Bild machen.

Die US Energy Information Administration berichtet, dass Batteriesysteme im Netzmaßstab in den letzten Jahren im Durchschnitt etwa 1,5 Millionen Dollar pro MWh gekostet haben. Bei diesem Preis kostete dieses triviale Stück Speicher knapp ZWEI MILLIARDEN DOLLAR. Bei 103 Sekunden Spitzenspeicherung sind das etwa $18.000.000 pro Sekunde. Geld für nichts.

Allerdings sind die PG&E-Ingenieure nicht so dumm. Sie wissen ganz genau, dass diese Milliarden-Dollar-Batterie nicht dazu da ist, Notstrom zu liefern, wenn Wind und Sonne nicht produzieren. In Wahrheit ist genau das Gegenteil der Fall. Die Aufgabe der Batterie ist es, zu verhindern, dass Wind- und Solarenergie das Netz zum Absturz bringen, wenn sie produziert werden.

Das nennt man Netzstabilisierung. Wind und Sonne sind so unregelmäßig, dass es sehr schwer ist, die konstante 60-Zyklen-Wechselstromfrequenz aufrechtzuerhalten, die all unsere wunderbaren elektronischen Geräte benötigen. Falls die Frequenz mehr als nur ein kleines bisschen abweicht, bricht das Netz zusammen. Um diese Ausfälle zu verhindern, ist eine aktive Stabilisierung erforderlich.

Netzinstabilitäten durch unregelmäßige Wind- und Sonneneinstrahlung waren früher kein Problem, weil die riesigen, sich drehenden Metallrotoren in den Generatoren der Kohle-, Gas- und Kernkraftwerke die Schwankungen einfach absorbierten. Aber die meisten dieser Kraftwerke wurden abgeschaltet, also brauchen wir Milliarden-Dollar-Batterien, um das zu tun, was diese Kraftwerke umsonst taten. Diese Monsterbatterie ist auch nicht die einzige, die in Kalifornien gebaut wird, um zu versuchen, Wind- und Solarenergie zum Laufen zu bringen. Viele weitere sind in der Pipeline und nicht nur in Kalifornien. Viele Staaten haben mit Instabilität zu kämpfen, wenn die Grundlastgeneratoren abgeschaltet werden.

Hier gibt es sogar eine verrückte Ironie, die perfekt zum verrückten Kalifornien passt. Diese Milliarden-Dollar-Batterie belegt den alten Generatorraum eines stillgelegten Gaskraftwerks. Diese Generatoren sorgten früher für die Stabilität des Netzes. Jetzt haben wir Mühe, das zu tun.

Natürlich sagt niemand bei PG&E oder Vistra öffentlich, dass diese Monsterbatterie dazu da ist, erneuerbare Energien davon abzuhalten, das Netz zu zerstören, und nicht, um es zu stützen. Man fragt sich, ob die California Public Utilities Commission das weiß. Die große Frage ist, warum wird das der zahlenden Öffentlichkeit nicht gesagt? Oder der Presse? Es handelt sich hier wirklich um einen sehr teuren Schwindel.

Wenn wir schon bei diesem Thema sind, sollten wir uns fragen, was es eigentlich kosten würde, Wind- und Solarenergie mit Batterien zu sichern. Das hängt sehr stark vom lokalen Klima ab. Wie oft der Wind zum Beispiel nicht stark weht. Windgeneratoren brauchen etwa 10 mph, um zu starten, und eher 30 mph für volle Leistung.

Mehrtägige Hitzewellen sind oft Perioden mit sehr wenig Wind, kombiniert mit einem maximalen Strombedarf. Eine unangenehme Kombination. Meine grobe Faustregel lautet also, dass man einen Speicher für 7 Tage mal Spitzenbedarf benötigt.

Kalifornien hat einen Spitzenwert von 42.000 MWh und 7 Tage sind 168 Stunden, so dass wir nach dieser groben Regel etwa 7 Millionen MWh an Batterien benötigen würden. Das macht 1200 MWh wirklich trivial. Bei 1,5 Millionen Dollar pro MWh kommen wir dann auf erstaunliche 10,5 TRILLIONEN DOLLAR, nur für die Batterien, die die erneuerbaren Energien zuverlässig machen.

Der Betrug ist atemberaubend, und das nicht nur in Kalifornien. Landesweit geben wir unzählige Milliarden Dollar aus, um zu verhindern, dass die unberechenbare Natur der erneuerbaren Energien das Stromsystem zum Absturz bringt. Aber diese Bemühungen werden routinemäßig als Speicherung für den Fall dargestellt, dass die erneuerbaren Energien nicht laufen. Stabilisierung ist das Gegenteil von Speicherung. Wir werden in Bezug auf erneuerbare Energien belogen.

[Hervorhebung vom Übersetzer]

Autor: CFACT Ed

Link: https://www.cfact.org/2021/01/16/california-secretly-struggles-with-renewables/

Übersetzt von Chris Frey EIKE




Das Jahr 2020, Klima-Statistik und so weiter

In diesem Jahr lautet die Schlussfolgerung, dass 2020 statistisch gesehen identisch mit 2016 ist. Einige haben es als das zweitwärmste Jahr eingestuft, während die japanische meteorologische Agentur es als das drittwärmste der Neuzeit ansieht. Die allgemein zu ziehende Schlussfolgerung ist jedoch der Missbrauch von Statistiken, die verwendet werden, um eine vorgegebene Meinung zu unterstützen.

Um den Punkt zu illustrieren, lassen Sie uns einfach die Daten der NOAA betrachten. Diese haben eine Temperaturanomalie für 2020 von 0,98 +/- 0,15 °C im Vergleich zu 1,00 +/- 0,15 °C für 2016 (das Jahr mit dem stärksten aufgezeichneten El Nino) ergeben. Der Unterschied ist trivial, zumal die Genauigkeit des Mittelwertes auf Tausendstel Grad genau angegeben wird. Schaut man sich die Daten der NOAA für die vergangenen Jahre an, sieht man, dass jedes Jahr seit 2015 innerhalb einer Standardabweichung vom Mittelwert liegt.


Eine solch einfache und unvoreingenommene Betrachtung der Daten führt zu einer viel besser zu rechtfertigenden Schlagzeile für die Daten: Es gibt seit 5 Jahren keinen signifikanten Erwärmungstrend, wie die NOAA bestätigt hat.

Dieses Balkendiagramm, mit freundlicher Genehmigung der NOAA, zeigt, wie sich die globale Temperatur in den letzten fünf Jahren nicht verändert hat. Quelle: Global Climate Series: NOAA.

Die Schlussfolgerung von NOAA wird auch durch den eigenen Datensatz des UK Met Office bestätigt:

Quelle: Met Office, HadCRUT4 – 2015-2020

Wenn man sich die von der BBC veröffentlichte globale Wärmekarte auf Basis der HadCRUT5-Daten des britischen Met Office ansieht, wird deutlich, dass die Erwärmung im Jahr 2020 nicht global, sondern regional zu verzeichnen war, vor allem in Teilen der Arktis um Sibirien:

Diese Art, die Beobachtungsdaten zu betrachten, liefert einen breiteren Kontext für einige der Kommentare, die gemacht wurden.

„Die außergewöhnliche Hitze von 2020 ist trotz eines La-Niña-Ereignisses, das einen vorübergehenden Abkühlungseffekt hat“, sagte WMO-Generalsekretär Prof. Petteri Taalas. „Es ist bemerkenswert, dass die Temperaturen im Jahr 2020 praktisch auf dem Niveau von 2016 lagen, als wir eines der stärksten El-Niño-Wärmeereignisse aller Zeiten erlebten. Das ist ein klares Indiz dafür, dass das globale Signal des vom Menschen verursachten Klimawandels inzwischen genauso stark ist wie die Kraft der Natur.“

Tatsächlich ist genau das Gegenteil der Fall, wie ich in einem früheren Beitrag dargelegt habe. Eine Reihe von Monaten Anfang 2020 waren von El-Niño-Bedingungen betroffen, ganz anders als vom WMO-Generalsekretär behauptet.

Es ist wahr, dass 2016 ohne den El Nino kühler und 2020 ohne den La Nina wärmer gewesen wäre. Wie ich jedoch in meinem vorherigen Beitrag dargelegt habe, kann der El-Nino-Effekt über mehrere Jahre hinweg beobachtet werden, was Schätzungen für den Treibhausgas-Antrieb problematisch macht.

Das zeigt sich in einer Behauptung von Gavin Schmidt, Direktor des Goddard Institute for Space Studies GISS der NASA, der gegenüber BBC News sagte: „Wir treten immer noch den Fuß auf das Gaspedal des Klimawandels.“

Wie lässt sich seine Behauptung der Beschleunigung mit der Tatsache vereinbaren, dass der Anstieg des atmosphärischen CO2 zwischen 2015 und 2019 keinen Unterschied zu den globalen Temperaturen gemacht hat und auch nicht der 7%ige Rückgang der globalen CO2-Emissionen im Jahr 2020?

Der Datensatz für die globale Jahresdurchschnittstemperatur ist faszinierend. Er kann auf viele Arten interpretiert werden, indem man kurz- und langfristige Trends betrachtet, um ein besseres Verständnis dessen zu erlangen, was ein sich ständig änderndes El-Nino- und La-Nina-Phänomen zu sein scheint.

Link: https://www.thegwpf.com/2020-climate-statistics-and-all-that/

Übersetzt von Chris Frey EIKE

 




Die Hitzetoten des Dr. von Hirschhausen

Der Klimafolgen-Fachmann von Hirschhausen

Laut Herrn Hirschhausen haben Hitzewellen eine so hohe Sterberate, dass Covid-19 dagegen eher nebensächlich ist, weil Hitze das wirkliche – neue – Mortalitätsproblem aufgrund des Klimawandels wäre: [2] um die größte Gesundheitsgefahr, nämlich die Klimakatastrophe anzugehen … Die Welt vorher war nicht normal, wir schliddern in diesem Jahrzehnt auf die entscheidende Phase zu, in der sich entscheidet, ob Menschen überhaupt auf dieser Erde bleiben können.“
.. „Wir haben 20.000 Hitzetote im letzten Jahr gehabt! Das waren sehr viel mehr sozusagen Übersterblichkeit im Sommer als an Covid. Hat keiner drüber geredet. Wir sind das Land mit den dritthäufigsten Hitzetoten nach China und Indien. Warum kommt das in den Medien nicht vor?“ …

Dass solche Aussagen in den Medien nicht (auch) vorkämen, stimmt natürlich nicht. Und unsere – von jeglichem Wissen zum Klima und seinem regelmäßigen Wandel befreite (rein persönliche Meinung des Autors, die durch nichts belegt ist) – Umweltministerin ist ja ebenfalls dieser Ansicht:
[3] Merkur 26.11.2019: (Sv. Schulze) „Alarmierend“ Immer mehr „heiße Tage“: Ministerin mit drastischem Urteil über Klima-Folgen für Deutschland … Der Klimawandel hinterlässt in Deutschland immer heftigere Spuren. Laut einem neuen Bericht der Bundesregierung kam es wegen der Hitze sogar zu mehr Todesfällen.
… Die Folgen des Klimawandels lassen sich immer besser erkennen. Bundesumweltministerin Svenja Schulze spricht über „alarmierende“ Befunde …
Nur können Hitze-„Todesmeldungen“ eher selten gebracht werden, denn Herrn Hirschhausens Aussage hat einen gravierenden Fehler: Sie stimmt nicht. Zur Veranschaulichung dieser These, vorab der Verlauf der Sterblichkeit in Deutschland über die letzten fünf Jahre mit Kennzeichnung der „Hitzewellen-Überversterbung“ 2019 und den bisher Covid-19 zugeordneten Sterbewerten:

Bild 1 Deutschland, Verlauf Sterbezahlen 2016 – 2020. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Was ist bei uns mortaler? Hitze oder Kälte?

Glaubt man offiziellen „Informationen“, dann muss Sommerhitze ein zunehmendes Sterblichkeits-Problem geworden sein. Zum Beispiel listet der deutsche Klimabericht 2019 dazu Schlimmes, während zur Mortalität im Winterhalbjahr allerdings keine Angaben oder Hinweise enthalten sind:

Bild 2 Deutscher Klima-Monitoringbericht 2019, Angaben zur Hitzemortalität

Auch das Ärzteblatt berichtete darüber:
Ärzteblatt 2019 MEDIZINREPORT: Studien im Fokus: Übersterblichkeit bei Hitzewellen in Deutschland: Zahl der hitzebedingten Todesfälle zwischen einigen Hundert und vielen Tausenden
… In Deutschland traten 11 der extremsten Hitzewellen seit 1950 nach der Jahrtausendwende auf. Dazu gehörten die Sommer der Jahre 2003, 2006, 2013, 2015 und 2018 …

Ein unbedarfter Bürger muss danach annehmen, dass inzwischen wohl die Sommerhitze die im Jahr „anfallenden“ Über-Verstorbenen „erzeugt“ und in den restlichen Jahreszeiten – schließlich werden die Winter immer wärmer – anscheinend keine Übermortalität vorliegt. Wie es schon Bild 1 zeigt, ist allerdings genau das – weiterhin – nicht der Fall.

Eine Studie

Über das „Ärzteblatt“ findet sich eine Studie zur hitzebedingten „Übersterblichkeit“ vom RKI: [5] ärzteblatt.de 37/2020: MEDIZIN: Originalarbeit Hitzebedingte Mortalität – Eine Analyse der Auswirkungen von Hitzewellen in Deutschland zwischen 1992 und 2017,
worin Mortalitätsangaben in einer Grafik ab 1967 und tabelliert ab 1993 angegeben sind.

Die Langzeitgrafik in der Studie ist recht undeutlich abgebildet. Trotzdem zeigt sie die teils extremen Kälte-Mortalitätsspitzen und anhand der kaum erkennbaren roten Hitzemortalitäten, wie vergleichbar niedrig diese sich dagegen ausmachen.

Bild 3 Mortalitätsverlauf seit 1967. Quelle: [5] GRAFIK 1b, Teilbilder vom Autor zusammengesetzt
Die tabellierten Werte der Studie beginnen mit dem Jahr 1992. Diese anbei umgesetzt und dabei gleich mit den Werten des Klimaberichtes 2019 (Bild 2, ab dem Jahr 2001) verglichen.
Sofort spring ins Auge, dass die hitzebedingte Mortalität seit langem abnimmt und von einer Erhöhung überhaupt keine Spur zu sehen ist. Hätte man das nach den Aussagen von Herrn Hirschhausen (und unserer Umweltministerin [3]) auch nur entfernt vermutet?

Bild 4 Deutschland, hitzebedingte Sterbefälle. Tabelle vom Autor erstellt. Daten [5], eTabelle 1 und Klima-Monitoringbericht 2019, Tab. GE-1-2
Absolutwerte sind nicht vergleichend. Deshalb noch die Relativzahlen. Man muss sich diese ganz in Ruhe durch den Kopf gehen lassen, um zu erkennen, für welch kleines, medial jedoch gnadenlos hochgepuschtes (Pseudo-)Problem auch der Wahnsinn an Aufwand und Ausgaben in Billionenhöhe durch CO2-Verhinderung betrieben wird:

Bild 5 Prozentualer Anteil der Hitze-Sterbefälle an der Jahres-Gesamt-Sterbezahl. Tabelle vom Autor erstellt

Und selbst dieses wirklich kleine Problem lässt sich sehr gut vor Ort einfach und billig lösen. Die Studie des RKI hat dazu eine Schlussfolgerung:
[5] … Insgesamt wird der Effekt von Hitze auf die Mortalitätsrate über die betrachteten Dekaden schwächer. Dies deutet auf Anpassungsprozesse hin, die auf einer physiologischen Anpassung (34) beruhen können, aber vermutlich vor allem durch Hitzewarnungen (35) und anderen Präventivmaßnahmen, besonders in der Betreuung älterer Menschen, verursacht wurden …
Solche „Anpassungsprozesse“ sind: Vor allem zur Verhinderung einer Dehydrierung ausreichend Wasser trinken und vielleicht auch endlich einmal den Komfort von Klimatisierung im Altersheim.
Herr Hirschhausen möchte als „Lösung“ dagegen unbedingt weltweit CO2 verhindern und inzwischen auch Bürgerrechte – für Aktivitäten welche CO2 emittieren – einschränken.
Ein besseres Beispiel für den idiotischen, da (falls überhaupt etwas wirksam) hoffnungslos überteuerten und uneffektiven CO2-Wahnsinn, mit dem alleine Deutschland mit Billiardenaufwand vesucht, die Welttemperatur bis zum Jahr 2100 um sagenhafte (nicht einmal gesicherte) 0,035 Grad zu reduzieren [6], findet man selten.

Eigentlich könnte der Artikel nun enden. Wer sich mit dem Thema näher beschäftigt, stellt allerdings fest: Nahezu immer fehlen bei Angaben zur ach so schlimmen Hitzemortalität Vergleiche mit der Mortalität im Winter. Nicht einmal der dicke Klima-Monitoringbericht 2019 erwähnt etwas dazu.
Dieser Mangel soll mit dem nun folgenden Kapitel behoben werden.

Übersterblichkeit

Wie schon bei der Bewertung von Coronadaten stellt sich auch bei der von Hitzewellen-Übersterblichkeit die Frage, wie eine Übersterblichkeit überhaupt definiert wird. Bei „Corona“ gibt es „offiziell“ eine, welche allerdings recht augenscheinlich falsch und unbrauchbar ist [4], was führende Politiker jedoch nicht hindert sie anzuwenden, weil diese sicher alarmistische Ergebnisse liefert und ihnen damit „in den Kram“ passt.

zur Hitzemortalität hat der Autor keine gefunden. Auch anderen scheint es so zu gehen, denn es gibt erhebliche Zahlendifferenzen zwischen einzelnen Publikationen. Deshalb vor der Auswertung der Versuch einer Definition dazu.

Daten zur Langzeit-Sterberate lassen sich finden. Anbei ein Datensatz, der beim Statistischen Bundesamt über einen Link hinterlegt ist.

Bild 6 Deutschland, Sterbezahlen ab 1995 (Auszug der zeitlich längeren Gesamtdaten). Grafik vom Autor erstellt. Datenquelle: eurostat data-explorer

Betrachtet man die Daten, stellt man verblüffend fest, dass die Werte bis zum Jahr 2000 bezüglich der Auflösung deutlich anders aussehen, als die danach. Und ausgerechnet die wichtigen „Sommer“-Sterbewerte sind in den Daten vor dem Jahr 2000 darin deshalb nicht zu finden. (Wieder) ein exemplarisches Beispiel für die teils erschütternd schlechte Datenqualität in unserem Hochtechnologie-Land und ein Hinweis, Daten nie „Blind“, also rein schematisch oder über so etwas wie „Künstliche Intelligenz“ auszuwerten. Vielleicht auch ein Grund, warum die „Hitzemortalität“ erst seit dem Jahr 2000 (in den Medien) so präsent ist? Jedenfalls sind die Daten erkennbar erst ab dem Jahr 2000 verwertbar.

Den Mortalitätsverlauf seit dem Jahr 2020 zeigt das folgende Bild. Ergänzend zum Bild 1 zeigt es auch die nach Herrn von Hirschhausen besonders erwähnenswerte, „hohe“ Übersterblichkeit im Sommer 2019 im zeitlich längerem Kontext:

Bild 7 Deutschland, Sterbezahlen ab 2000 bis 2020. Jahre mit besonders hoch „ausgewiesener“ Hitze-Übersterblichkeit eingetragen. Grafik vom Autor erstellt. Datenquelle: eurostat data-explorer

Die zusätzlich eingetragenen, besonderen „Hitze“-Übersterblichkeits-Jahre sind im Monitoringbericht 2019 (Bild 2) deklarierte Jahre und im „Ärzteblatt“ im Jahr 2019 angegebene.

Im Bild 7 muss man die Überverstorbenen der Sommerhitze wirklich suchen, da diese aufgrund der hohen „Wintersterblichkeit“ stark zurücktreten.

Zur Festlegung einer Definition für „Übersterblichkeit“ nun eine Überlegung. Betrachte man die Sterbezahlen der Einzelmonate im Bild 8,

Bild 8 Sterbewerte im Kalendermonat. Grafik vom Autor erstellt

ist erkennbar, dass die minimalen Sterbewerte recht stabil um den Monaten Juni und September liegen. Daraus wäre zu folgern, dass diese Monate sozusagen minimal-Mortalitäts-„Idealtemperatur“ haben. Es erscheint also angebracht, diese zwei Monate als Referenz anzuziehen und Abweichungen von den Sterbewerten dieser „minimal-idealen“ Monate als „Überverstorben“ zu bezeichnen.
Getan, zeigt sich das Ergebnis von Bild 9. Die Fehler dieser Festlegung sind erkennbar (negative Werte), jedoch sehr gering.

Bild 9 Sterbedaten von Bild 7 nach dem Kriterium von Bild 8 bewertet und als positive Abweichungen dargestellt. Grafik vom Autor erstellt

Danach lassen sich die Monate bewerten und die Übermortalität für die Sommerhitze und Winterkälte separieren. Erstmals bekommt man damit ein „Gefühl“ für den Einfluss von Winter- und Sommerzeiten auf die „Übersterblichkeit“.

Bild 10 Bild 9 ausgewertet und die Übermortalitäten als positive Abweichungen separiert. Jahre mit im Klimabericht 2019 besonders hoch „ausgewiesener“ Hitze-Übersterblichkeit eingetragen. Grafik vom Autor erstellt

Nicht nur ein „Gefühl“, sondern die konkreten Jahreswerte, und somit einen effektiven Vergleich liefert die Grafik der separierten Jahressummen.
Über die angeblich extrem vielen Hitze-Verstorbenen im Jahr 2019 (rot eingerahmt) hat sich Herr Hirschhausen ganz besonders entrüstet. Wobei sich dazu wirklich die Frage stellt: Ist dieser Herr noch bei Sinnen?

Bild 11 Übersterblichkeiten von Sommerhitze- und Kältezeitraum getrennt als vergleichbare Jahreswerte. Hitzemortalität im Sommer 2019 gekennzeichnet. Grafik vom Autor erstellt

Nochmals der Hinweis, dass die Grafiken Bild 10/11 auch negative Werte haben. Das ist der im Bild 9 erkennbare Überlappungs – und damit fehlerbehaftete Bereich der Separierung. Nimmt man diesen „weg“, was sicher datengemäß nicht einfach zulässig ist, sondern aufwendig korrigiert werden müsste. zeigt sich das folgende Verhältnis zwischen Winter- und Sommer-Übersterblichkeit:

Bild 12 Daten von Bild 11 ohne negative Werte. Grafik vom Autor erstellt

Bleibt noch zuzufügen, dass die Trennung nach der Definition „Überverstorben“ des Autors natürlich zu anderen Werten als in der Studie und im Klimabericht führt. Komischerweise erscheint die größte Abweichung beim oft publizierten, „ganz schlimmen“ Hitze-Mortalitätsjahr 2003.
Eine mögliche Folgerung wäre: Die Übersterblichkeitsangaben für dieses Jahr sind nicht aus Messzahlen abgeleitet, sondern entstammen fiktiven Hochrechnungen (der Autor hält dies auch für Wahrscheinlich).

Bild 13 Vergleich der Hitze-Mortalitätswerte Klimabericht 2019/nach Definition Autor. Mit zugefügter Sommer-Temperaturanomalie. Grafik vom Autor erstellt

Fazit

Alleine anhand der Datenlage würde jeder wirklich an im Jahresdurchschnitt minimalisierter Mortalität Interessierte folgern, dass dazu auf keinen Fall die Hitze verringert, sondern die Kälte weiter reduziert, es also wärmer werden müsste.

Diese einfach zu belegende und dazu auch noch eindeutige Erkenntnis ist für unsere Klimaalarmisten jedoch schon alleine aus ideologischen Gründen nicht entfernt akzeptabel. Und so werden in den Publikationen zur Hitzemortalität in der Regel einfach die Angaben zur wesentlich höheren Mortalität der kühlen bis kalten Jahreszeiten weggelassen, um die Bürger – welche die Maßnahmen bezahlen und immer weiter gehende Einschränkungen ertragen müssen – nicht zu verunsichern und gar „ins Grübeln“ zu bringen
Zwar reduziert dies die Aussagen auf ein fachliches Niveau von Kindergarten- bis Schulkindern, aber die „Experten“ müssen sich so weit herablassen, sonst könnten sie nicht mit denen gemeinsam gegen solche Fakten „hüpfen“.

Herr Hirschhausen ist inzwischen ein reiner Klima-Agitator. Welchen fachlich wirklich extremen Unsinn er dazu unwidersprochen im „Öffentlichen“ vorträgt und auch darf, wurde nun gezeigt. Dass in Talkshow-Runden, woran angeblich so etwas wie wenigstens im Ansatz fachlich zum Thema informierte Personen teilnehmen, es niemand bemerkt, ist inzwischen schon zum „Öffentlichen Markenzeichen“ geworden und zeigt die durchschlagenden Erfolge der Klimapropaganda und Verdummung in Deutschland, auch bei unserer angeblichen „Intelligenz“.

Zufügung: Der Autor tut Herrn Hirschhausen etwas unrecht. Dieser plappert ja nur treu nach, was ihm vorgegeben und gefordert wird, um im lukrativen „Öffentlichen“ auftreten zu dürfen. Vielleicht hat sein kompromissloser Schulterschluss mit den Freitagshüpfern auch solche Gründe. Schließlich wäre es nichts Verwerfliches, auf ein Einkommen angewiesen zu sein.
Fachlich dürfte Herr Dr. med. v. Hirschhausen sehr wohl in der Lage sein, die Faktenlage zu überblicken. Schließlich sind fast alle medizinischen Dissertationen mehr oder weniger statistische Fallanalysen. Seine dürfte dazu gehören: Promotionstitel: Wirksamkeit einer intravenösen Immunglobulintherapie in der hyperdynamen Phase der Endotoxinämie beim Schwein

Personen wie unsere Umweltministerin sind für die Faktenbetrachtung allerdings wirklich zuständig. Wenn solche gegen die Faktenlage Gleiches behaupten, sind sie ihren Amtseid Missachtende. Doch dazu lässt sich hinzufügen: Wäre Frau S. Schulze nicht ohne jegliches belastende Wissen über das Klima und seinem stetigen Wandel (Wiederholung: Rein persönliche Meinung des Autors und unter wirklichen Klima-Fachpersonen nicht belegt), hätte sie unter der unfehlbaren Merkel den Minister*innen-Job niemals bekommen. Das war schon bei ihrer fast schon krankhaft klimahysterischen Vorgängerin so und bei einer ganzen Ministerkette davor ebenfalls.

Quellen

[1] EIKE 19. Januar 2021: Klimawarner Eckart v. Hirschhausen: Mehr Hitzetote als Corona-Opfer

[2] Achgut, 17. Januar 2021: Der Klima-Wendler: Dr. Eckart von Hirschhausen

[3] EIKE 27.11.2019: Deutscher Klima-Monitoringbericht 2019, S. Schulze spricht über alarmierende Befunde

[4] EIKE 17. Januar 2021: Unsere Politiker sollten sich endlich darum kümmern, wie man mit Corona leben kann und nicht umgekehrt

[5] ärzteblatt.de 37/2020: MEDIZIN: Originalarbeit Hitzebedingte Mortalität – Eine Analyse der Auswirkungen von Hitzewellen in Deutschland zwischen 1992 und 2017

[6] EIKE 16.12.2020: Wie „DIE LINKE“ die Tigermücke besonders effektiv verhindert




Der Wechsel von Tag und Nacht erklärt das Fehlen eines äquatorialen Hotspots in der Atmosphäre

Ich bedanke mich bei der EIKE-Redaktion dafür, dass sie einem breiten Spektrum von konträren wissenschaftlichen Positionen jenseits des wissenschaftlichen „97%“-Mainstreams ein öffentliches Forum bietet. Sehr eigenartig finde ich dagegen die wiederkehrende Kritik einzelner Leser, EIKE würde keine einheitliche Realisten-Position abbilden. Denn eine solche einheitliche Realisten-Position gibt es gar nicht; aber alle diese Positionen konvergieren auf einer Meta-Ebene mit einem „natürlichen atmosphärischen Treibhauseffekt“ als einem „NON-PROBLEM“ und gar keinem oder einem sehr geringem Einfluss des Menschen auf das globale Klimageschehen.

Die wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt hatte ich bereits ausführlich diskutiert (Darstellung, Diskussion, Ergebnis). Allein mein hemisphärischer S-B-Ansatz kann die Widersprüche des konventionellen 24h-Tag=Nacht-THE-Ansatzes auflösen. Das THE-Paradigma behandelt Tag und Nacht völlig gleich und tut so, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von 235W/m² senkrecht einstrahlen. Nun hat aber noch kein THE-Anhänger erklären können, wie aus einer planaren solaren Einstrahlung eine terrestrische radiale Abstrahlung entsteht. Und, was noch viel offensichtlicher ist, eine atmosphärische „Gegenstrahlung“ von ca. 300 W/m²würde verhindern, dass es irgendwo auf unserer Erde jemals kälter als 270K (-3°C) wird. Das konventionelle THE-Modell für unsere Erde mit den globalen Eckwerten von (33°C und 155W/m²) ist also streng eindimensional und beinhaltet keinerlei Abhängigkeit von der Tages- oder Jahreszeit und von der geographischen Breite. Mein hemisphärisches S-B-Modell kann dagegen die „gemessene“ Realität von etwa 15°C widerspruchsfrei abbilden und stimmt mit den tatsächlichen Beobachtungen überein (hier Tabelle 1).

Abbildung 1: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Das 24h=Faktor4-THE-Paradigma benötigt dagegen eine zweite Sonne für die 235W/m² der Nachtseite

Das hemisphärische S-B-Modell kann als vieljährige Durchschnittsbetrachtung unserer realen Erde die oben genannten räumlichen und zeitlichen Abhängigkeiten der solaren Einstrahlung sehr wohl abbilden und erfasst damit alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Beschreibung der Temperaturgenese auf unserer Erde. Nehmen wir mal ein ganz einfaches Beispiel, die Erzeugung von Solarstrom in Deutschland:

Abbildung 2: Realisierte Erzeugungsleistung und tatsächlicher Stromverbrauch im Zeitraum 14.-25. September 2020 (Quelle: SMARD)

Aus dieser Abbildung wird unmittelbar der natürliche Tag&Nacht-Rhythmus bei der Erzeugung von Solarstrom deutlich. Im Umkehrschluss liefert also der Verlauf der Solarstromerzeugung den Beweis, dass der Wechsel von Tag und Nacht wesentliche physikalische Unterschied beinhaltet, ganz wie es mein hemisphärisches S-B-Modell beschreibt. Und dieser Tag&Nacht-Wechsel sollte sich eigentlich auch korrekt in den Klimamodellen abbilden, die sich aber lediglich auf einen 24h-Tag&Nacht-Durchschnitt stützen. Weiterhin wird die hemisphärische Tag&Nacht-Ungleichheit auf der realen Erde durch das Land-Seewind-System und dessen gegenläufigen Tag#Nacht-Verlauf nachgewiesen. Und auch die sogenannte oberflächennahe „Skin“-Schicht der Ozeane schwankt zwischen bis zu 10 Metern am Tage und weniger als einem Millimeter in der Nacht (hier, erster Absatz).

Kann ein globaler 24h-Durchschnitt solche Tag&Nacht-Unterschiede abbilden? – Nein, das kann er natürlich nicht: Es fängt schon damit an, dass die 24h-Tag&Nacht-Gleichheit des THE-Paradoxons im natürlichen Ablauf von Tag und Nacht gar nicht beobachtet werden kann. Und auch die besten mathematischen Ableitungen verlieren ihre physikalische Aussagekraft, wenn vorher die planare solare Einstrahlung auf der Tageshemisphäre der Erde in einen skalaren globalen Durchschnitt umgewandelt wird. Die Strahlungstransferberechnung leitet also aus der Differenz einer physikalisch fehlerhaften globalen 24h-S-B-Inversion als „Gleichgewichtstemperatur“ für die solare Einstrahlungsleistung (-18°C) und der sogenannten „gemessenen“ globalen Durchschnittstemperatur (NST=14,8°C) den ominösen THE (33°) her. Und auch das immer wieder vorgebrachte Argument, die ominöse „atmosphärische Gegenstrahlung“ würde den 2.HS der Thermodynamik erfüllen, entbehrt jeder physikalischen Beweiskraft.

So stellen Ozawa et al. (2003) in einer Veröffentlichung über das Prinzip der maximalen Entropie im globalen Klimasystem ein Berechnungsschema für die Entropie vor und wenden es auf die Erde an:

Abbildung 3: Fig.3 und 5a aus Ozawa et al. (2003) zur Entropie. Links Fig. 3: “A schematic of heat transport through a small system (C) between two thermal reservoirs with different temperatures (A, cold and B, hot). By the heat transport from hot to cold, entropy of the whole system increases…” Übersetzung: Ein Schema des Wärmetransports durch ein kleines System (C) zwischen zwei Wärmespeichern mit unterschiedlichen Temperaturen (A, kalt und B, heiß). Durch den Wärmetransport von heiß zu kalt nimmt die Entropie des gesamten Systems zu… Rechts Fig. 5a: “Energy and entropy budgets for the Earth. (a) Global-mean (surface-area mean) energy flux components (i.e., shortwave radiation, longwave radiation, vertical turbulent heat transport), in W/m². Übersetzung: Energie- und Entropiebudgets für die Erde. (a) Global-mittlere (Oberflächenmittelwert) Energieflusskomponenten (d. h. kurzwellige Strahlung, langwellige Strahlung, vertikaler turbulenter Wärmetransport) in W/m²

Einmal vorausgesetzt, das Schema von Ozawa et al. (2003) zur Ermittlung der Entropie in deren Fig.3 sei korrekt, dann ist es insofern auf die reale Erde adaptiert worden, als dass in deren Fig.5a die allgemein bekannten Durchschnittstemperaturen korrekt aufgeführt worden sind. Allerdings ist deren jeweilige Entsprechung als spezifisches S-B-Strahlungsäquivalent quantitativ nicht nachzuvollziehen. Zunächst fehlt in Fig.5a schon einmal die Solarkonstante von 1.367W/m², die schließlich das maximal mögliche S-B-Temperaturäquivalent von ca. 120°C auf unserer Erde bestimmt. Vielmehr wird dort der temperaturwirksame Anteil der solaren Einstrahlung nach dem Faktor4-Tag=Nacht-THE-Flacherdeansatz mit 240W/m² entsprechend einem S-B-Temperaturäquivalent von (-18°C=255K) beziffert. Und erstaunlicherweise taucht die ominöse „atmosphärische Gegenstrahlung“ im Betrag von 300-333W/m² ebenfalls nicht auf, sodass diese Abbildung aus sich heraus gar nicht erklären kann, wie sich aus einer Einstrahlung von 142W/m² an der Erdoberfläche die angegebenen 288K herleiten sollen; denn die (vernachlässigbare) natürliche mittlere Wärmestromdichte aus dem Erdinneren beträgt an der Erdoberfläche lediglich 0,065W/m².

Anmerkungen: Eine wissenschaftliche Abbildung sollte insoweit vollständig sein, als dass sie alle wesentlichen Komponenten zum Verständnis des beschriebenen Vorgangs enthält. Die näheren Erläuterungen können dann im Fließtext erfolgen. Eine unvollständige Abbildung, die ausgerechnet strittige Komponenten wie die ominöse „atmosphärische Gegenstrahlung“ ausschließt, ist völlig inakzeptabel und wahrscheinlich nicht einmal für THE-Gläubige verständlich.

Erklärung für den Begriff „Entropie“, Zitat Wikipedia: „In einem sich selbst überlassenen System in einem beliebigen Anfangszustand bewirken dann die spontan ablaufenden inneren Vorgänge, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände realisiert sein kann, also die höchstmögliche Entropie hat.“ Das ist schwerer Tobak, eine recht gute Ableitung findet man hier auf EIKE.

Und hier noch ein ganz einfaches Beispiel aus dem vollen Leben: Das Kinderzimmer war eben noch aufgeräumt, dann haben die lieben Kleinen den ganzen Nachmittag gespielt und am Ende herrscht dort Chaos. Im Kinderzimmer hat sich damit die Entropie als Maß für dessen Unordnungszustand erhöht. Und um diese Unordnung dann wieder zu beseitigen, müssen Sie Arbeit (=Leistung*Zeit) verrichten. Denn jedes System, auch das Kinderzimmer, kann seine Entropie nicht ohne zusätzlich eingebrachte Arbeit wieder verringern.

Ergebnis: Der 2. Hauptsatz der Thermodynamik macht auch vor dem Kinderzimmer nicht halt, denn die Aufräumungsarbeiten im Kinderzimmer machen sich nun mal nicht von alleine…

Fassen wir zusammen: Die von Ozawa et al. (2003) in Fig. 5a angegebenen Werte für die spezifische Strahlungsleistung entstammen einem unvollständigen Faktor4-Tag=Nacht-THE Flacherdeansatz und treffen daher nicht auf die reale Erde mit Tag und Nacht zu. Aber die dort angegebenen Temperaturen stimmen dann erstaunlicherweise trotzdem mit den realen Werten überein, Oberflächentemperatur gleich 288K (~+15°C) und Temperatur auf der „Abstrahlungshöhe“ von ca. 5.000 Metern gleich 255K (~-18°C). Ozawa et al. (2003) sagen nun, die theoretischen Abschätzungen von Paltridge (1978) würden in annehmbarer Übereinstimmung mit den tatsächlichen Beobachtungen stehen:

Abbildung 4: “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)). Reprinted from Paltridge [1978]” aus Ozawa et al. (2003, Figure 4) Übersetzung: Globale Verteilung(en) von (a) mittlerer Lufttemperatur,…, vorhergesagt unter der Bedingung der maximalen Entropieproduktion (Gleichung (9)). Nachdruck aus Paltridge [1978]
Deutlich wird hier allerdings, dass die 273K (~0°C) Isotherme bei Paltridge (1978) deutlich polferner (um 50° N und S) verläuft, als die durchschnittliche Oberflächentemperatur der Ozeane in der NASA-Abbildung (um 70° N und S):

Abbildung 5: Globale Durchschnittstemperaturen (Abbildungen in E-W-Richtung gestaucht) Links: Paltridge [1978] aus Ozawa et al. (2003, Figure 4) “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)).” Rechts: NASA “Annual Mean Ocean Surface Temperature” based on observed data up until 1994
Wir können also feststellen, dass der Faktor4-Tag=Nacht-THE-Flacherdeansatz trotz unklarer/fehlender Zwischenschritte von einer fehlerhaften „Gleichgewichtstemperatur“ (-18°C) zu einem vergleichbaren Ergebnis wie die tatsächlich gemessenen Daten (+15°C) kommt, sich also in der Zielsetzung streng an der gemessenen Realität orientiert. Ergebnis ist eine MATHEMATISCHE Strahlungstransfer-Berechnung zwischen einer PHYSIKALISCH fehlerhaften „Gleichgewichtstemperatur“ und der sogenannten „gemessenen globalen Durchschnittstemperatur“. Diese Lücke zwischen fehlerhafter Theorie und gemessener Realität wird dann mathematisch durch eine willkürliche „atmosphärische Gegenstrahlung“ als imaginärer Antrieb eines „natürlichen atmosphärischen Treibhauseffektes“ von 33° geschlossen, die dem 2.HS der Thermodynamik widerspricht. Denn ein Übergang von Wärme von einem kalten zu einem wärmeren Körper ist PHYSIKALISCH nach dem 2.HS der Thermodynamik ohne zusätzlich aufgebrachte Arbeit völlig unmöglich, wie eben auch das Aufräumen eines Kinderzimmers.

In der nachfolgenden Abbildung wird ein älteres Beispiel aus meinem hemisphärischen Modell, das die Entropie der solaren Strahlungsleistung beschreibt (A), durch eine aktuelle Abbildung von Joe Postma (B) nochmals bestätigt:

Abbildungen 6 A&B zum Wärmetransport nach dem 2.HS der Thermodynamik

A – Abbildung Weber: Der Strahlungsdurchschnitt von 470 W/m² (korrekt: 940W/m²*cosPHIi) umfasst einen Strahlungsbereich von 0-940W/m² für die tagseitige Hemisphäre mit einem maximalen S-B-Temperaturäquivalent von 85,7°C @ 940W/m². Bei der globalen Mittelung der tagseitigen solaren Einstrahlung (235W/m²) fällt also genau derjenige Teil der spezifischen solaren Strahlungsleistung (größer 235W/m²) weg, der Temperaturen oberhalb von (-18°C) erzeugen kann.

B – Abbildung Postma: Die schwarze Kurve zeigt die Differenz der IR-Spektren von (22°C=rot) und (-18°C=blau). Es wird deutlich, dass das (-18°C)-Spektrum diese Differenz, insbesondere zu den hohen IR-Frequenzen hin, gar nicht im erforderlichen Umfang enthält.

ERGO: Beide Abbildungen 6 A und B beweisen, dass ein kalter Körper (=hohe Entropie) gar nicht die notwendige physikalische Ordnung besitzt, um einen wärmeren Körper (=geringe Entropie) noch weiter zu erwärmen. Die Entropie erklärt übrigens auch die allgemein bekannten Vorgänge in der unbelebten Natur, beispielsweise die geologische Erosion. Denn während die inneren Kräfte der Erde gerade neue Gebirge auftürmen, beginnt an der Oberfläche bereits deren Erosion. Und das Ergebnis dieser Erosion landet zunächst als Erosionsschutt an der tiefsten topographischen Stelle mit der geringsten potentiellen Energie, also in irgendeinem Tal. Um diesen Schutt dann weiter zu bewegen, sind erneut Kräfte erforderlich, diesmal die Kräfte des gravitativ abfließenden Wassers.
Und die Entropie würde selbstverständlich auch „zerstreuend“ auf einen äquatorialen Hotspot wirken. Und deshalb kann sich ein solcher Hotspot nur in einem Computerprogramm entwickeln, das nach dem 24hTag=Nacht-THE-Ansatz entwickelt worden ist. Nach 10, 100, 1000 oder noch mehr 24h-Tag=Nacht-Zyklen entsteht dann eine solche digitale Wissenschaftsschimäre aus einem physikalischen Ansatz, der nicht mit der alltäglichen Tag#Nacht-Beobachtung in der realen Welt übereinstimmt. Und deshalb konnte dieser theoretische Hotspot bisher auch noch nirgendwo nachgewiesen werden, wie die nachstehende Abbildung aus Henney & Monckton zeigt:

Abbildung 7: (a) prophezeites und (b) gemessenes vertikales Temperaturprofil der Atmosphäre – links: IPCC (2007, Abb. 9.1c), rechts: Lanzante et al. (2006) (Abbildung 15 aus Henney & Monckton)

Denn ein solcher äquatorialer Hotspot würde eine ständige solare Energiezufuhr erfordern, wie sie nur rein rechnerisch in einem 24h-Tag=Nacht-Modell vorhanden ist. Die Realität des täglichen 24h-Zykus wird dagegen regelmäßig durch die hemisphärische Nacht unterbrochen. Und in dieser hemisphärischen Nacht wirkt die Entropie zerstreuend auf die geringste herausgehobene Energiekonzentration, sodass sich ein solcher vorhergesagter Hotspot aus 24h-durchschnittlichen Computerberechnungen in der Realität niemals aufbauen kann. Joe Postma fasst eine solche Situation mit den Worten zusammen, „Kann man Laufen speichern, um schneller zu laufen?“.

Die menschengemachte Klimakatastrophe ist auf eine Physik-Wende zurückzuführen

Highspeed-Computerspekulationen sind die Astrologie unserer Tage. Aufgebaut auf undurchsichtigen und/oder unzureichenden Algorithmen verbreiten sie Zukunftsvisionen, ohne je den Beweis für die physikalische Richtigkeit ihrer Algorithmen an historischen Daten nachgewiesen haben zu müssen. Und solange die Freiheit der Wissenschaft darin besteht, voll alimentiert gesellschaftspolitisch erwünschte Ergebnisse liefern zu dürfen, wird sich daran auch nichts ändern; den Plot dazu finden Sie hier. Das politisch und medial allgegenwärtige „Hört auf DIE Wissenschaft!“ müsste nämlich eigentlich heißen, „Hört auf UNSERE Wissenschaft!“.

Das hemisphärische S-B-Modell definiert den THEORETISCHEN GRENZWERT der terrestrischen Temperaturgenese aus sich selbst heraus zu (+15°C) und stimmt ohne einen sogenannten THE mit der „gemessenen globalen Durchschnittstemperatur“ von (+15°C) überein. Diese (+15°C) sind übrigens nur abhängig von der Solarkonstanten und der terrestrischen Albedo. Das THE-Paradigma definiert dagegen den fehlerhaften ANFANGSWERT („Gleichgewichtstemperatur“ von -18°C) seiner atmosphärischen Resonanzfunktion (-18°C=>Gegenstrahlung=>THE=>+15°C), kann aber einen konkreten Endpunkt dieser Resonanz aus sich selbst heraus gar nicht bestimmen. Es rekurriert mit seiner „Gegenstrahlung“ vielmehr direkt auf die „gemessene globale Durchschnittstemperatur“, und das könnten dann auch (-5°C), (+20°C) oder (+45°C) sein. So würden beispielsweise die Schwankungen des Paläoklimas allein durch eine veränderte „Gegenstrahlung“ erklärt werden können, man muss dort einfach nur die erforderlichen Zahlenwerte einsetzen.

Also noch einmal in aller Kürze: Es gibt keinen „natürlichen atmosphärischen Treibhauseffekt“, weil die Sonne nur am Tage scheint. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwellig (solar=niedrige Entropie) zu langwellig (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie, und das ist nur auf der Tagseite der Erde möglich:

(Solare HF-Einstrahlung) => (Erwärmung von Materie @2PIR²) => (IR-Abstrahlung @4PIR²)

Solange aber der Klimamainstream den längst widerlegten Hockeystick, der ein konstantes Paläoklima in den IPCC-Bericht AR3 hinein gezaubert hatte, weiterhin als Vorhersagekrücke benutzt, liefert eine Physik-Wende die für einen anthropogenen Klimawandel zwingend erforderliche sogenannte „Klimasensitivität“ des CO2-Moleküls. Und schon hat man sich durch eine solche Physik-Wende in den Klimawissenschaften einen schönen neuen CO2-Motor für das Paläoklima gebastelt, der dann eine Energie-Wende erfordert – und eine Agrar-Wende – und eine Verkehrs-Wende – und eine Industrie-Wende – und schließlich auch noch den Großen Reset mit einer anthropogenen Existenz-Wende zurück in ein ökologisches, ökonomisches und intellektuelles Mittelalter. Diesem Wahnsinn steht nicht nur mein hemisphärisches S-B-Modell entgegen, sondern auch das Aktualitätsprinzip der Geologie – aber wer kennt das nach der Bildungs-Wende überhaupt noch…

Es folgen drei Beispiele für den Fußabdruck meines hemisphärischen S-B-Modells in den real existierenden Klimawissenschaften: Das hemisphärische S-B-Modell ermöglicht in Form von einfachsten Plausibilitäten einen qualitativen Blick auf die räumlichen und zeitlichen Abhängigkeiten des Klimageschehens auf unserer realen Erde und entzaubert damit die supercomputer-gestützten Weissagungen der modernen Klimaforschung.

1. Beispiel: Die Sommerpole unserer Erde sind gar keine Temperatur-Hotspots.
Klimamodelle sind nicht in der Lage, die von jedermann zu beobachtende Realität in Form des natürlichen Wechsels von Tag und Nacht abzubilden. Und wenn dort auch noch auf die Polarzonen fokussiert wird, dann kommt es zu ganz eigenartigen klimawissenschaftlichen Stilblüten, die sich wiederum jeder realen Beobachtung entziehen. Eine der Kernerzählungen der Klimareligion ist das Abschmelzen der Polkappen durch den „menschengemachten Klimawandel“, wodurch weite Teile der heute besiedelten Tiefländer der Welt unbewohnbar werden sollen. Manche Klimarealisten sehen in dem Spiegel-Titel „Die Klima-Katastrophe“ Nr. 33/1986 mit dem versinkenden Kölner Dom den Beginn der medialen Klimahysterie.

In der Mainstream-Klimawissenschaft ist es üblich, die physikalischen Einheiten „Leistung (WATT)“ und „Arbeit (JOULE = WATT x ZEIT)“ über die ZEIT, meist den 24h-Tag, nach Belieben aus der jeweils anderen Größe abzuleiten. Der sogenannte „natürliche atmosphärische Treibhauseffekt“ leitet sich nun wiederum aus einer globalen 24-Stunden Mittelung der solaren Einstrahlung her, bei der ein gemeinsamer Mittelwert der Sonneneinstrahlung für Tag und Nacht für die Weiterverwendung in Klimamodellen berechnet wird. Das bedeutet, die tagseitige Sonneneinstrahlung (Solarkonstante S0=1.367W/m²) wird rechnerisch so verteilt, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von lediglich 235W/m² (=S0*(1-Albedo)/4) senkrecht einstrahlen. Und um diesen physikalisch fehlerhaften Ansatz etwas zu verbessern, führen manche Wissenschaftler nun eine breitenabhängige (zonale) Mittelung der globalen Sonneneinstrahlung ein. So wird, wie bereits gezeigt wurde, aus 24h-Zeitintegralen der solaren Strahlungsleistung ein physikalisch sinnfreier breitenabhängiger spezifischer Leistungsdurchschnitt abgeleitet, der am Ende zu rein rechnerischen Temperaturen jenseits jeglicher realer Beobachtungen führt, wie die nachstehende linke Abbildung mit dem jeweiligen Sommerpol als globaler Temperatur-Hotspot beweist:

Abbildung 8: Vergleich der „Daily mean values of (a) slab temperature” von Kramm et al. (2017) – Creative Commons License CC BY 4.0 (links) mit dem Jahresverlauf des örtlichen Maximums der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne (rechts)

Die tatsächliche Maximaltemperatur auf unserer Erde wird zwischen den Wendekreisen und bis in mittlere Breiten der Sommerhemisphäre erreicht. Die Sommerpole unserer Erde sind nämlich gar keine Temperatur-Hotspots, sondern dort ist lediglich die aus einer 24h-durchschnittlichen ARBEIT in JOULE abgeleitete 24h-Durchschnittsleistung ((Leistung @ 24h)/24h) aufgrund der polaren Tageslängen um die jeweilige Sommersonnenwende global gesehen am größten („Max. Arbeit“ in der nachfolgenden Abbildung 9 rechts). Und aus solchen 24h-Durchschnittswerten sollte man tunlichst keine Ortstemperaturen ableiten, sonst kommt es halt zu wissenschaftlichen Verwerfungen…

2. Beispiel: Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden lediglich das chaotische globale Wettergeschehen ab.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ soll durch eine „atmosphärische Gegenstrahlung“ verursacht werden, die wiederum aus der IR-Abstrahlung unserer Erde gespeist wird. Die beiden ursächlichen Steuergrößen für eine solche „atmosphärische Gegenstrahlung“, nämlich die aus den solaren Primärantrieben „tägliches solares Strahlungsmaximum“ und „örtliche Tageslängen“ induzierte Gesamtwärmemenge, lassen sich sekundär unter „jahreszeitlich maximale örtliche IR-Abstrahlung der Erde“ subsummieren. Der nachfolgende graphische Vergleich zeigt, dass die erforderliche Übereinstimmung zwischen den „menschengemachten“ IPCC-Temperaturdifferenzen und der maximalen örtlichen IR-Abstrahlung unserer Erde in der Farbgebung der IPCC-„Figure 1.SM.1“ jahreszeitlich nicht prägnant hervortritt:

Abbildung 9: Vergleich der IPCC-„Figure 1.SM.1“ (links) mit den tentativen jahreszeitlichen Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Anmerkung: Die jeweils zweistufige Farbskala für die Sommerhemisphäre in der Abb. links (Beispiel MAM und JJA für den Nordsommer) wurde im rechten Bild willkürlich in zwei einstufige Skalen für LEISTUNG (~JJA) und ARBEIT (~MAM) auf der jeweiligen Sommerhemisphäre aufgespalten und (nicht flächentreu) der tatsächlichen geographischen Lage zugeordnet. Deshalb können Farbsignaturen für Leistung/Arbeit (~JJA/MAM) in der jeweiligen geographischen Lage auch in umgekehrter Signatur (~MAM/JJA) auftreten; beispielsweise blau für LEISTUNG zwischen Äquator und mittleren Breiten.

Eigentlich müsste sich in der IPCC-Abbildung „Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015“ der zusätzliche THE-Anteil aus dem „menschengemachten“ CO2 aufgrund seiner vorgeblichen IR-Abhängigkeit als Temperaturanomalie proportional zur jahreszeitlich maximalen örtlichen IR-Abstrahlung unserer Erde abbilden. Das ist aber ganz offensichtlich nicht der Fall, denn insgesamt finden wir in „Figure 1.SM.1“ lediglich eine globale und unspezifische jahreszeitliche Durchmischung und sogar jahreszeitlich stark gegenläufige Anomalien. Der vorstehende Vergleich von „Figure 1.SM.1“ (links) mit den tentativen Auswirkungen der jahreszeitlich maximalen örtlichen IR-Abstrahlung aus meinem hemisphärischen S-B-Modell (rechts) verdeutlicht vielmehr, dass sich die erratisch verteilten Temperaturanomalien nicht mit den jahreszeitlichen Schwankungen erklären lassen, sondern viel eher mit deren zeitlicher Veränderung (also der 1. Ableitung), wobei das Maximum dieser Veränderung um die Äquinoktien liegt und jeweils beide jahreszeitlichen Hemisphären betrifft. Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden also lediglich das chaotische globale Wettergeschehen ab.

3. Beispiel: Der experimentelle Nachweis für den hemisphärischen S-B-Ansatz ist anhand von Satellitenmessungen gelungen.

Das IPCC-Modell KT97 gilt als Grundlage für alle computergestützten Klimamodelle. Herr Albert (Aulus) Agerius hatte auf Grundlage meines hemisphärischen Strahlungsmodells ein alternatives Klimamodell erstellt. In seinem BuchKritische Analyse zur globalen Klimatheorie: Widerlegung der Basisstudie KT97 des IPCC mit den Messwerten des ERBS Satelliten an einem neuen Modell“ deckt er erhebliche Widersprüche in der IPCC-Basisstudie KT97 auf:

Tabelle 1: Satellitenmesswerte des ERBS Satelliten in einem Modellvergleich (Quelle: A. Agerius)

Dem IPCC-Modell KT97 gelingt es also lediglich, 5 von 11 Messreihen abzubilden. Diesem IPCC-Modell KT97 stellt Agerius nun sein „Modell 5“ entgegen, das alle 11 Messreihen ohne einen atmosphärischen Treibhauseffekt abbildet und damit meinen hemisphärischen S-B-Ansatz voll betätigt.

Zum besseren Verständnis können Sie einmal die Perspektive eines Satelliten einnehmen: Die planare solare Einstrahlung erfolgt auf einer Kreisfläche (PIR²) und die jeweiligen Messwerte beziehen sich auf Schnittpunkte solcher Einstrahlungsflächen mit der entsprechenden Satellitenbahn (@4PIR²). Die Satellitenmesswerte für die Solarkonstante können die Erdkrümmung also gar nicht abbilden.

Nachtrag: Ich bitte höflich darum, im Interesse der objektiv interessierten Leser auf kreative Designerzitate und daraus abgeleitete sophistische Skandalisierungen zu verzichten. Das Stilmittel der sophistischen Skandalisierung einer ausschließenden gegenteiligen Eigenschaft (Disjunktion) fällt sofort auf, wenn es sich um Alltagswissen handelt. Ein Beispiel für den offensichtlichen Widersinn eines solchen skandalisierenden Sophismus‘ wäre die Aussage: „Der Dieselmotor widerspricht dem Prinzip der Elektromobilität“. Bei wissenschaftlichen Zusammenhängen, die zur Beurteilung einer Aussage zumindest die inhaltliche Abgrenzung zwischen Fachbegriffen erfordern, ist eine solche sophistische Skandalisierung für den interessierten Leser dagegen sehr viel schwerer zu erkennen, wie die nachfolgende Aussage beweist: „Ausgehend von dem Begriff des ‚solaren Klimas‘ wird nachgewiesen, dass die von Herrn WEBER (2019) in seinem Beitrag aufgestellten Behauptungen zur Ermittlung der global gemittelten Oberflächentemperatur einer Erde ohne Atmosphäre mit den theoretischen Grundlagen unvereinbar sind.“ Solche sophistischen Gegenargumente lassen sich nämlich für mein hemisphärisches S-B-Modell mittels einer oder mehrerer ausschließender gegenteiliger Eigenschaften jederzeit zurechtbiegen:

Sie können jetzt also sehr einfach mein hemisphärisches S-B-Modell skandalisieren, indem Sie ihm die Nichterfüllung seiner rechts aufgeführten ausschließenden Gegensätze vorhalten, also: Das hemisphärische S-B-Modell von Weber ist Mist, weil es

  • dem Prinzip der globalen Mittelung widerspricht,
  • dem Prinzip einer „Erde ohne Atmosphäre“ widerspricht,
  • dem anerkannten Lehrbuchwissen nach (Professor Dr. Beliebig) widerspricht.

Vielleicht erkennen Sie in diesen Aussagen ja den einen oder anderen Kommentar zu meinem hemisphärischen S-B-Modell wieder; sachlich korrekt oder gar verständnisfördernd sind solche Sophismen jedenfalls nicht. Für seriöse Verständnisfragen verweise ich gerne nochmals auf den Vergleich meines hemisphärischen Modells mit den wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt (Darstellung, Diskussion, Ergebnis) oder dessen direkten Abgleich mit dem sogenannten THE (hier Tabelle 1).

Einer physikalischen (nicht mathematischen) Beweisführung über eine Übereinstimmung der ominösen Faktor4-Tag=Nacht-Flacherde mit der tatsächlich beobachteten Tag#Nacht-Realität sehe ich mit Interesse entgegen.

 




Gab es wirklich eine Rekord-Saison bzgl. atlantischer Hurrikane?

Aufgrund der Tendenz, heutzutage auch kleinen Stürmen einen Namen zu verpassen, ganz zu schweigen von der Fähigkeit der Satelliten, sie zu erkennen, war die Behauptung schon immer eine fadenscheinige.

Jetzt, wo wir glücklicherweise die Accumulated Cyclone Energy (ACE) Daten für das Jahr zur Verfügung haben, ist die Behauptung erwiesenermaßen unsinnig und trügerisch.

Kurz gesagt, ACE ist ein Maß für die Intensität und Dauer von tropischen Stürmen und Zyklonen. (Tropischer Zyklon ist ein Oberbegriff für Stürme, die im Atlantik als Hurrikane und im W-Pazifik als Taifune bezeichnet werden).

Zuverlässige Daten für den Atlantik, sowohl Anzahl der Stürme als auch ACE, sind erst seit der Ära der Satelliten im Jahr 1966 verfügbar, wie die NOAA hier erklärt:

Die Datenbank der atlantischen Hurrikane (oder HURDAT) reicht bis ins Jahr 1851 zurück. Da Tropenstürme und Hurrikane jedoch einen Großteil ihrer Lebenszeit über dem offenen Ozean verbringen – einige treffen nie auf Land – wurden viele Systeme im späten 19. und frühen 20. Jahrhundert „übersehen“ (Vecchi und Knutson 2008). Ab 1944 wurde mit der systematischen Flugzeugaufklärung zur Überwachung von bothtropischen Wirbelstürmen und Störungen, die das Potenzial hatten, sich zu Tropenstürmen und Hurrikanen zu entwickeln, begonnen. Dies führte zwar zu einer deutlich verbesserten Überwachung, aber immer noch wurde etwa die Hälfte des atlantischen Beckens nicht erfasst (Sheets 1990). Ab 1966 standen dem National Hurricane Center tägliche Satellitenbilder zur Verfügung, so dass die Statistiken ab diesem Zeitpunkt am vollständigsten sind (McAdie et al. 2009). Für Hurrikane, die die Atlantik- und Golfküste der USA treffen, kann man mit relativ zuverlässigen Zählungen der Systeme weiter in die Vergangenheit zurückgehen, da seit 1900 genügend Menschen an den Küsten gelebt haben. Daher gelten die folgenden Aufzeichnungen für den Zeitraum zuverlässiger Daten für das gesamte Atlantikbecken (von 1968-2018) und für die Küstenlinie der USA (1900-2018).

Wissenschaftler der Hurricane Research Division der NOAA haben jedoch fleißig ältere meteorologische Aufzeichnungen untersucht, um Hurrikane vor 1966 neu zu analysieren – Details hier.

Dies erlaubt uns, viel aussagekräftigere Langzeitvergleiche anzustellen. Ihre Daten zeigen, dass das vergangene Jahr weit davon entfernt war, eine Rekord-Hurrikansaison oder gar hinsichtlich tropischer Stürme zu sein.

In Bezug auf ACE war es nur die zehntstärkste Saison, das Rekordjahr war 1933:

Quellen: hier und hier

Es gibt ein klares zyklisches Muster, mit intensiverer Aktivität in der Zeit von 1930 bis 1970, weniger zwischen 1970 und den späten 1990er Jahren und einer Zunahme seither. Dies steht in direktem Zusammenhang mit der Atlantischen Multidekadischen Oszillation (AMO), einem natürlichen Zyklus, der in einem 50- bis 60-jährigen Zyklus von warm zu kühl wechselt. In den 1930er bis 60er Jahren befand sie sich in der warmen Phase, und seit Mitte der 1990er Jahre ist sie ebenfalls im warmen Modus.

Quelle

Die NOAA erklärt den Zusammenhang zwischen AMO und der Hurrikan-Aktivität im Atlantik so:

Wie wichtig ist die AMO, wenn es um Hurrikane geht – mit anderen Worten – ist sie einer der größten Treiber? Oder nur ein Nebenakteur?

Während warmer Phasen der AMO ist die Zahl der Tropenstürme, die zu schweren Hurrikanen heranreifen, viel größer als während kühler Phasen, mindestens doppelt so groß. Seit die AMO um 1995 in ihre warme Phase wechselte, sind schwere Hurrikane viel häufiger geworden, was zu einer Krise in der Versicherungswirtschaft geführt hat.

Beeinflusst die AMO die Intensität oder die Häufigkeit von Hurrikanen (welche)?

Die Häufigkeit von Stürmen der schwachen Kategorie – tropische Stürme und schwache Hurrikane – wird von der AMO nicht wesentlich beeinflusst. Die Anzahl der schwachen Stürme, die zu größeren Hurrikanen heranreifen, ist jedoch deutlich erhöht. Die Intensität wird also beeinflusst, aber natürlich auch die Häufigkeit der großen Hurrikane. In diesem Sinne ist es schwierig, zwischen Häufigkeit und Intensität zu unterscheiden, und die Unterscheidung wird etwas bedeutungslos.

Es ist auch erwähnenswert, dass die Hurrikanaktivität auch nach der Reanalyse wahrscheinlich immer noch unter den Aufzeichnungen der Hurrikanaktivität vor der Satellitenära liegt. Chris Landsea vom National Hurricane Centre, der einen Großteil der Re-Analyse-Arbeiten durchgeführt hat, erklärte hier in seiner Studie Reanalysis of the 1921-30 Atlantic Hurricane Database:

7) Trotz der Reanalyse-Änderungen gibt es erhebliche Unsicherheit in den TC-Spuren, signifikante Unterschätzungen in der TC Häufigkeit und eine signifikante Unterschätzung der TC-Intensität
und Dauer, insbesondere für die Systeme über dem offenen Ozean.

Dieser letzte Punkt bedarf einer näheren Erläuterung. In der jüngsten Vergangenheit gab es einige Studien zum Klimawandel, die HURDAT, die im Wesentlichen gekennzeichnet war von fehlenden TCs, fehlenden Teile der TC-Lebenszyklen oder einer Unterschätzung der Intensität bestehender TCs ab Mitte des zwanzigsten Jahrhunderts oder sogar bis zum Beginn der Datenbank im Jahr 1851 (z.B. Emanuel 2005; Mann und Emanuel 2006; Holland und Webster 2007). Neuere Arbeiten (Vecchi und Knutson 2008, 2011; Landsea et al. 2010) kommen zu glaubwürdigen, quantitativen Schätzungen darüber, wie viele TCs und Hurrikane auch in der reanalysierten historischen Datenbank „übersehen“ worden waren. Solche Arbeit muss …

Man beachte, dass die Namen von Emmanuel und Mann auftauchten!

In Wirklichkeit werden wir nie in der Lage sein, die gesamte Hurrikanaktivität der Vergangenheit aufzuzeichnen, so wie wir es jetzt können. Nichtsdestotrotz ist es offensichtlich, dass weder die Hurrikanaktivität des letzten Jahres noch die der vorangegangenen Jahre beispiellos ist.

Link: https://wattsupwiththat.com/2021/01/15/record-atlantic-hurricane-season/

Übersetzt von Chris Frey EIKE

 




Neu-Präsident Biden hat es eilig

USA treten dem Paris-Abkommen wieder bei

Charles Rotter

Diese E-Mail verbreitete das Pressebüro des Weißen Hauses gestern Abend:

EILMELDUNG vom 20. Januar 2020:

Bzgl. der USA wird alles akzeptiert

Ich, Joseph R. Biden Jr., Präsident der Vereinigten Staaten von Amerika, habe das Pariser Abkommen, das am 12. Dezember 2015 in Paris geschlossen wurde, gesehen und geprüft und akzeptiere hiermit das besagte Abkommen und jeden Artikel und jede Klausel darin im Namen der Vereinigten Staaten von Amerika.

Geschehen zu Washington am 20. Januar 2021.

JOSEPH R. BIDEN JR

Link: https://wattsupwiththat.com/2021/01/20/us-rejoins-paris-agreement/

———————————–

EILIMELDUNG: Bidens Maßnahmen-Agenda ist durchgesickert

Anthony Watts

Viele versorgen mich mit Stoff. Heute flatterte mir ein PDF auf den Tisch (angeblich von Bidens Team im Weißen Haus) mit dem Titel [übersetzt] „Bidens Agenda erster Maßnahmen“ [ Biden early calendar of themed-days]

Ich habe eine Kopie davon gesichert, die man von hier herunter laden kann.

Zu beachten sind diese Punkte:

4. Climate Rollback EO (einschließlich Keystone XL Pipeline): Widerruft oder leitet die Überprüfung einer Reihe von Trump-Umweltmaßnahmen ein; widerruft die Keystone XL Genehmigung

5. Unterzeichnung des Instruments zum Wiedereintritt in das Pariser Abkommen; tritt 30 Tage später in Kraft

27. Januar: Klima:

1.Omnibus Domestic and International Climate EO*: initiiert eine Reihe von regulatorischen Maßnahmen zur Bekämpfung des Klimawandels im Inland und erhebt den Klimawandel zur nationalen Sicherheitspriorität

[*EO = Executive Order – Dekret, das nicht dem Senat vorgelegt werden muss. Anm. d. Übers.]

2. Wissenschaftliche Integrität PM : Leitet Wissenschaft und evidenzbasierte Entscheidungsfindung in Bundesbehörden

3. PCAST Executive Order: setzt den Presidential Council of Advisors on Science and Technology wieder ein

4. Verkündet die Daten für den von den USA veranstalteten Climate Leaders‘ Summit (22. April)
Dieses Dokument wurde nicht einmal auf Tippfehler geprüft, da es einen großen Fauxpas enthält:

Februar: Restoring America’s Please in the World

„Bitte, Sir, kann ich Amerika wieder haben?“

Aber sehen Sie sich all die anderen Punkte an, einschließlich eines obligatorischen COVID-Tests für Reisen.

Gott stehe uns allen bei!

Link: https://wattsupwiththat.com/2021/01/20/breaking-bidens-calendar-of-actions-leaked/

Übersetzt von Chris Frey EIKE




Der CO2-Sprung: aus Firn wird Eis

Eigenschaften von sich verdichtendem Firn und Übergang zu Eis

Firn ist das Zwischenstadium der Umwandlung von Schnee in Eis und reicht in der Antarktis von 50 bis über 100 Meter Dicke. Die Verdichtung des Schnees führt zu einem systematischen Trend von zunehmender Dichte und abnehmendem Porenraum mit der Tiefe aufgrund des Gewichts der darüber liegenden Schichten. Die Dichte steigt mit der Tiefe von einem Oberflächenwert von 340 kg/m³ auf die Dichte von Eis, die 918 kg/m³ beträgt. Die Geschwindigkeit der Firnverdichtung wird durch Schneeakkumulation und Temperatur gesteuert. Eiskern-Bohrstellen mit hoher Akkumulation und höheren Temperaturen wie Law Dome verdichten sich schneller als Stellen mit geringer Schneeakkumulation und kälteren Stellen wie Wostok. Die Firn-zu-Eis-Prozesse sind unten zusammengefasst, und Bender (1997) liefert eine detaillierte Beschreibung der Prozesse.

Abbildung 1 ist eine Illustration des Übergangs von Law Dome Firn zu Eis und der Dichte- und Porositätseigenschaften. Die Diffusionszone DZ, in welcher die Sinterung (Verdichtung zu einem Feststoff ohne Schmelzen) stattfindet, dauert an, bis die Dichte etwa 0,8 g/cm³ und die offene Porosität etwa 10 % beträgt. Offene Poren dienen vor allem als Kanäle, durch die Gasdiffusion und vertikale Vermischung mit atmosphärischen Gasen stattfinden kann.

Abbildung 1: Antarktischer Law Dome Firn und Eiseigenschaften mit der Tiefe. CO2 Messungen in Firn und Eis auf der linken Seite (Rubino, 2019). Dichte, offene Poren und geschlossene Poren auf der rechten Seite (Fourteau, 2020). Karikatur nach Raynaud, 1993.

Bei einer Dichte von etwa 0,8 g/cm³ beginnen sich die offenen Poren zu schließen und bilden Blasen, in denen atmosphärische Gase eingeschlossen werden. Gase können nicht mehr leicht diffundieren und sich mit der Atmosphäre vermischen. Diese Zone wird als Lock-in-Zone oder LIZ bezeichnet. Die Blasen-LIZ wird durch eine Lock-in-Tiefe LID an der Oberseite und durch eine Close-off-Tiefe COD an der Unterseite definiert. Die LID zeigt einen schnellen Anstieg der geschlossenen Poren in einer ausgeprägten stufenförmigen Weise. Die COD an der LIZ-Basis wird durch die letzte im Firn entnommene Probe definiert; das geschlossene Porösitätsprofil zeigt jedoch eine stufenförmige Basis aufgrund von Porenkompression.

Tabelle 1 fasst die Eigenschaften der Firndiffusions- und Lock-in-Zone zusammen. Die Dicke der Diffusionszone variiert in der Antarktis und hängt mit den Temperaturen und Akkumulationsraten zusammen, wie in Abbildung 2 dargestellt. Westantarktische und periphere ostantarktische Standorte haben dünnere Gasdiffusionszonen als Standorte mit geringer Akkumulation wie Südpol, Dome C und Wostok. Im Gegensatz dazu ist die Blasen-LIZ an allen Standorten eine dünne Zone, die etwa 10 Meter dick ist. Diese signifikante Zone stellt eine Barriere im Firn dar, in der die vertikale Diffusion von Gasen gehemmt wird und Gaseinschlüsse auftreten. Geschlossene Poren an Standorten mit höherer Temperatur und Akkumulation zeigen mehr Streuung in den Daten aufgrund der Erhaltung der Eigenschaften der Sommer- und Winterschicht.

Tabelle 1: Zusammengefasste Eigenschaften des antarktischen Firns für die Diffusionszone und das Blasen-LIZ:

Abbildung 2: Dicke der Firn-Diffusions- (DZ) und Blaseneinschlusszonen (LIZ) an verschiedenen antarktischen Standorten.

Die Gasmischung in der Diffusionszone ist bekannt und modelliert. Die Gasbewegungsprozesse innerhalb der LIZ sind jedoch umstritten und nicht gut quantifiziert (Fourteau, 2019). Die vertikale Gasdiffusion hat aufgrund der Dominanz geschlossener Poren im Wesentlichen aufgehört. Die langsamere Gasbewegung setzt sich jedoch durch Dispersion und laterale Vermischung fort (Bruiner, 2018). Mitchell (2015) schlägt vor, dass das Darcy’sche Gesetz der Flüssigkeitsströmung gelten könnte, und andere haben eine Perkolationstheorie oder Wirbeldiffusion vorgeschlagen (Buizert (2012)).

Ein CO2-Sprung mit der Tiefe ist präsent

Ein Sprung in den CO2-Konzentrationen mit der Tiefe ist in den in Abbildung 3 dargestellten Firngasprofilen bemerkenswert. Bei der Lock-in-Tiefe beginnen die CO2-Messungen ab etwa 10 Metern eine schnellere Abnahme mit der Tiefe zu zeigen. Die LID wird häufig durch eine Änderung der CO2-Steigung bestimmt, die auch als „Sprung“ bezeichnet wird. Er ist das Ergebnis von Gas, das sich aus der Gasdiffusionszone bewegt und in Blasen gefangen wird. In der diffusiven Zone nimmt die CO2-Konzentration mit der Tiefe langsam ab und das Gas altert aufgrund der diffusiven Vermischung mit flacher liegenden Gasen. Daher ist das Gas jünger als die Eiszeit. In der LIZ reduziert der Blaseneinschluss die vertikale Durchmischung der Gase. Die CO2-Werte fallen schnell, weil das Gas in den wenigen offenen Poren nicht mehr mit der darüber liegenden Atmosphäre kommuniziert. Dieses jüngere eingeschlossene Gas altert nun mit dem Eis (Battle, 2011; Trudinger, 2002).

Abbildung 3: CO2-Konzentrationen mit der Tiefe im Firn, dargestellt in der linken Grafik. Die Daten der Proben sind oben in Jahren angegeben. Das rechte Diagramm zeigt die CO2-Daten normalisiert auf die atmosphärischen Konzentrationen von 1996. LID ist dort vermerkt, wo die CO2-Konzentrationen eine Änderung der Steigung aufweisen. Daten aus Battle, 2011 und Rubino, 2019.

Die Dicke der Diffusionszone und das Einsetzen des LID ist in der Antarktis unterschiedlich, wie in den Abbildungen 2 und 3 dargestellt. Eiskernstandorte mit hoher Akkumulation haben im Allgemeinen ein flacheres LID als Standorte mit geringer Akkumulation. Das LID am Law Dome DSS Standort ist nur 40 Meter tief mit einer Eisakkumulationsrate von 16 cm pro Jahr. Das LID am Südpol ist 115 Meter tief, wo die Akkumulationsrate nur 8 cm Eis pro Jahr beträgt. Eine Ausnahme ist der Standort DE08-02, der die höchsten Eisakkumulationsraten von 120 cm pro Jahr aufweist, jedoch ist das LID tiefer als sowohl DSS als auch WAIS.

CO2 nimmt in der in Abbildung 4 dargestellten Diffusionszone linear um durchschnittlich 2,3 ppm pro 10 Meter ab. Die ähnlichen Steigungen der CO2-Abnahme mit der Tiefe sind nicht überraschend, wenn man bedenkt, dass in dieser Zone vertikale Gasdiffusion stattfindet.

Abbildung 4: Lineare Trends von CO2 mit der Tiefe in der Diffusionszone, dargestellt in der linken Grafik. Lineare Trends von CO2 mit der Tiefe in der LIZ, dargestellt in der rechten Grafik. Die Tabelle zeigt die CO2-ppm-Abnahmen pro Meter für die DZ und LIZ. Daten aus Battle, 2011 und Rubino, 2019.

Es ist jedoch überraschend, dass die Neigung des abnehmenden CO2 innerhalb der Blaseneinschlusszone zwischen den verschiedenen Standorten ähnlich ist, unabhängig von Temperatur und Akkumulation. Die durchschnittliche Abnahme des CO2 beträgt 36 ppm über die 10 Meter dicke Blasen-LIZ, wie in Abbildung 4 dargestellt. Theoretisch wird nun modelliert, dass die Gase mit dem Eis innerhalb der LIZ altern. Das bedeutet, dass das CO2 am Südpol viel langsamer altert als die CO2-Abnahme bei DSSW20K und WAIS, obwohl die CO2-Änderungen in der Blase LIZ praktisch identisch sind. Die Durchmischung des Gases in der Blase LIZ ist nach Fourteau, 2019, nicht gut quantifiziert. Er gibt an, dass das Gas innerhalb der LIZ aufgrund des Ausstoßes von Luft/Gas, der durch die Verdichtung des Firns angetrieben wird, möglicherweise etwas weniger schnell altert als das umgebende Eis.

Der CO2-Sprung ist auch mit der Zeit präsent

Abbildung 5 zeigt die CO2-Daten des antarktischen Firns sowohl in der Tiefe als auch im Gas-Zeitalter. In der Grafik zum Gas-Zeitalter ist auch vermerkt, ob die CO2-Daten aus der Atmosphäre, der Firn-DZ oder der Blasen-LIZ gemessen wurden. Es gibt Überschneidungen, wenn verschiedene Standorte kombiniert werden. Beachten Sie, dass um 1960 immer noch ein Sprung vorhanden ist.

Der CO2-Sprung im Gas-Zeitalter tritt auf, wenn man von überwiegend atmosphärischen und Diffusionszonen-CO2-Messungen zu überwiegend Blasen-LIZ-CO2-Messungen übergeht. Die Blasen-LIZ, die nur 10 Meter dick ist, macht einen signifikanten Anteil von über 80 Jahren in der Kurve des Gas-Zeitalters aus. Die zugrundeliegenden Trends zeigen, dass CO2 von 2000 bis etwa 1960 um 13 ppm pro Jahrzehnt abnimmt und sich dann auf 3 ppm pro Jahrzehnt von 1960 bis 1900 verlangsamt. Man beachte außerdem, wo CO2 von 1940 bis etwa 1960 flach ist. Mehrere Autoren wie Trudinger, 2002, und MacFarling, 2006, diskutieren, dass die Spitze von 1940 aufgrund der Glättung der Gase durch Firn reduziert wird und die wahre atmosphärische Variation größer ist.

Abbildung 5: Firn-Diffusionszone und LIZ-CO2-Messungen in der Tiefe in der linken Grafik. Die Firnstandorte sind zum direkten Vergleich am CO2-Sprung angeheftet. Die x-y-Achse stellt die Daten des Südpols dar. Die rechte Grafik zeigt CO2 aufgetragen als Gasalter nach Rubino, 2019 und Battle, 2011.

Es ist unwahrscheinlich, dass der CO2-Sprung ein echtes atmosphärisches Signal ist. Der CO2-Sprung in der Tiefe ist ein Ergebnis der diffusen Vermischung von Gasen im Firn gegenüber eingeschlossenem Gas in Blasen, die nun mit Eis im LIZ altern. Dieser CO2-Sprung ist auch 1960 noch sichtbar.

Atmosphärisches CO2 wird innerhalb des Firns geglättet

Viele Autoren haben eine Gasglättung in der Firnschicht aufgrund von vertikaler Gasdiffusion und allmählicher Blasenschließung während des Übergangs von Firn zu Eis dokumentiert (Trudinger, 2002; Spahni, 2003; MacFarling, 2006; Joos und Spahni, 2008; Ahn, 2012; Fourteau, 2019; Rubino, 2019). Die während der Firnverdichtung gemessenen Gaskonzentrationen sind ein Durchschnitt der atmosphärischen Konzentrationen, die von 10 Jahren an Orten mit hoher Akkumulation wie DE08-2 bis zu Hunderten von Jahren an Orten mit niedriger Akkumulation wie Dome C und Vostok reichen. Fourteau zeigt, dass die gemessene Änderungsrate von CO2 in Eisblasen dreimal niedriger sein kann als die tatsächliche atmosphärische Änderungsrate. Auch wenn Firnmodelle die gemessenen Gasprofile reproduzieren können, können sich die Gasaltersverteilungen laut Buizert 2012 erheblich unterscheiden. Er stellt fest, dass sich das mittlere Alter und die Verteilungsbreite der Gase im Firn zwischen den Modellen um bis zu 25 % an Orten mit geringer Akkumulation unterscheiden.

Beim Übergang von Firn zu Eis wird das atmosphärische CO2 aufgrund von Gasmischungsprozessen und Verdichtung, wie oben beschrieben, verändert. Die meisten CO2-Diagramme werden durch einfaches Aufspleißen von modernen atmosphärischen CO2-Messungen auf die CO2-Daten des antarktischen Eises dargestellt. Die notwendigen Korrekturen für die Abschwächung des CO2 im Eis aufgrund von Gasmischung und Vergrabungstiefe werden nicht angewandt oder sogar nicht einmal vermerkt. Durch die Vernachlässigung dieser Korrekturen sind die resultierenden Diagramme irreführend und verstärken den Unterschied zwischen modernen und älteren Eisbohrkern-CO2-Messungen, wie zum Beispiel dieses auf der Scripps-Website. Man messe dem CO2-Sprung keine Bedeutung bei, die er nicht hat! Er ist kein echtes atmosphärisches Signal, sondern ein Artefakt.

Acknowledgements: Special thanks to Donald Ince and Andy May for reviewing and editing this article.

References Cited

Ahn, J., E. J. Brook, L. Mitchell, J. Rosen, J. R. McConnell, K. Taylor, D. Etheridge, and M. Rubino (2012), Atmospheric CO2 over the last 1000 years: A high-resolution record from the West Antarctic Ice Sheet (WAIS) Divide ice core, Global Biogeochem. Cycles, 26, GB2027, doi:10.1029/2011GB004247.

Battle, M. O., Severinghaus, J. P., Sofen, E. D., Plotkin, D., Orsi, A. J., Aydin, M., Montzka, S. A., Sowers, T., and Tans, P. P.: Controls on the movement and composition of firn air at the West Antarctic Ice Sheet Divide, Atmos. Chem. Phys., 11, 11007– 11021, https://doi.org/10.5194/acp-11-11007-2011, 2011.

Bender, M., T. Sowers, and E. Brook. Gases in ice cores. PNAS 94 (16) 8343-834, 1997.

Birner, B., C. Buizert, T. Wagner and J. Severinghaus: The influence of layering and barometric pumping on firn air transport in a 2-D model, The Cryosphere, 12, 2021–2037, 2018 https://doi.org/10.5194/tc-12-2021-2018.

Buizert, C., Martinerie, P., Petrenko, V. V., Severinghaus, J. P., Trudinger, C. M., Witrant, E., Rosen, J. L., Orsi, A. J., Rubino, M., Etheridge, D. M., Steele, L. P., Hogan, C., Laube, J. C., Sturges, W. T., Levchenko, V. A., Smith, A. M., Levin, I., Conway, T. J., Dlugokencky, E. J., Lang, P. M., Kawamura, K., Jenk, T. M., White, J. W. C., Sowers, T., Schwander, J., and Blunier, T.: Erratum: Gas transport in firn: Multiple-tracer characterisation and model intercomparison for NEEM, Northern Greenland (Atmospheric Chemistry and Physics (2012) 12 (4259–4277)), Atmos. Chem. Phys., 14, 3571–3572, https://doi.org/10.5194/acp-14-3571-2014, 2014.

Fourteau, K., Arnaud, L., Faïn, X., Martinerie, P., Etheridge, D. M., Lipenkov, V., and Barnola, J.-M.: Historical porosity data in polar firn, Earth Syst. Sci. Data, 12, 1171–1177, https://doi.org/10.5194/essd-12-1171-2020, 2020.

Fourteau, K., Martinerie, P., Faïn, X., Ekaykin, A. A., Chappellaz, J., and Lipenkov, V.: Estimation of gas record alteration in very low-accumulation ice cores, Clim. Past, 16, 503–522, https://doi.org/10.5194/cp-16-503-2020, 2020.

Joos, F. and Spahni, R.: Rates of change in natural and anthropogenic radiative forcing over the past 20,000 years, Proc. Natl. Acad. Sci. USA, 105, 1425–1430, https://doi.org/10.1073/pnas.0707386105, 2008.

Macfarling Meure, C. et al., 2006: Law Dome CO2, CH4 and N2O ice core records extended to 2000 years BP. Geophysical Research Letters, 33. 2006.

Mitchell, L. E., Buizert, C., Brook, E. J., Breton, D. J., Fegyveresi, J., Baggenstos, D., Orsi, A., Severinghaus, J., Alley, R. B., Albert, M., Rhodes, R. H., McConnell, J. R., Sigl, M., Maselli, O., Gregory, S., and Ahn, J.: Observing and modeling the influence of layering on bubble trapping in polar firn, J. Geophys. Res., 120, 2558–2574, https://doi.org/10.1002/2014JD022766, 2015.

Rubino, M., Etheridge, D. M., Thornton, D. P., Howden, R., Allison, C. E., Francey, R. J., Langenfelds, R. L., Steele, L. P., Trudinger, C. M., Spencer, D. A., Curran, M. A. J., van Ommen, T. D., and Smith, A. M.: Revised records of atmospheric trace gases CO2, CH4, N2O, and 13C-CO2 over the last 2000 years from Law Dome, Antarctica, Earth Syst. Sci. Data, 11, 473–492, https://doi.org/10.5194/essd-11-473-2019, 2019.

Scripps CO2 Program.

Spahni, R., J. Schwander, J. Fluckiger, B. Stauffer, J. Chappellaz and D. Raynaud. 2003. The attenuation of fast atmospheric CH4 variations recorded in polar ice cores. J. Geophys. Res., 30(11), 1571. (10.1029/2003GL017093).

Trudinger, C. M., Etheridge, D. M., Rayner, P. J., Enting, I. G., Sturrock, G. A., and Langenfelds, R. L.: Reconstructing atmospheric histories from measurements of air composition in firn, J. Geophys. Res.-Atmos., 107, 4780, https://doi.org/10.1029/2002JD002545, 2002b.

Link: https://wattsupwiththat.com/2021/01/15/the-co2-kink-firn-to-ice-transition/

Übersetzt von Chris Frey EIKE

 




Die letzten Amtshand­lungen von Präsident Trump komplizieren Bidens Klimaziele

Die Trump-Regierung bot Öl- und Gaspacht-Verträge auf öffentlichem Land in Alaska (Januar) und Kalifornien (Dezember) an, und trotz der heute relativ niedrigen Öl- und Gaspreise boten Unternehmen auf die Pachtverträge und erhielten den Zuschlag. Im Fall von Alaska weigerte sich ein Bundesgericht, die Pachtverträge zu stoppen, mit der Begründung, dass die Bohrungen im Arctic National Wildlife Refugee (ANWR) nach fast vier Jahrzehnten des Ringens durch ein Bundesgesetz genehmigt wurden. Diese Aktionen werden Biden Steine in den Weg legen, sein Versprechen zu halten, neue Öl- und Gaspachtverträge auf Bundesland zu beenden.

Obwohl eine Biden-Regierung sich weigern kann, weitere Pachtverträge anzubieten (zum fiskalischen Nachteil der Regierung und der Steuerzahler), wird es schwieriger sein, die zukünftige Produktion aus Pachtverträgen zu verhindern, die die Trump-Regierung kürzlich genehmigt hat. Die Biden-Regierung wird es schwierig, falls nicht sogar unmöglich finden, die Entwicklung bereits angebotener Pachtverträge direkt zu blockieren, es sei denn, sie kann das Geld aufbringen, um die Pächter aus den Verträgen herauszukaufen oder die Unternehmen dafür zu entschädigen, dass die Regierung eine Übernahme der Pachtverträge eingeleitet hat.

Unter Bidens Kontrolle können die Bundesbehörden kraft ihres Amtes über US-Bundesstaaten mit Pachtverträgen strenge Auflagen für die Entwicklung dieser Pachtverträge machen und/oder die Umweltprüfung und den Genehmigungsprozess in die Länge ziehen, aber solange die Unternehmen die relevanten Gesetze und Richtlinien einhalten, sollten sie schließlich in der Lage sein, auf diesen Ländern aktiv zu werden. Diese Unternehmen haben im Laufe der Jahrzehnte unter zahlreichen Regierungen tausende Male diese bundesstaatlichen Hürden durchlaufen und wissen, wie sie durch den Regulierungsprozess kommen. Sofern die Unternehmen mit den Pachtverträgen nicht aufgekauft werden oder ihre Pachtverträge abtreten, sollte irgendwann neues Öl und/oder Gas aus Bundesstaaten fließen, trotz Bidens bester Bemühungen, dies zu verhindern.

Trump hat auch die Vereinigten Staaten aus dem Pariser Klimaabkommen zurückgezogen. Biden hat geschworen, uns wieder hineinzubringen, und das kann er auch, es sei denn, Trump legt es dem Lame-Duck-Senat* als Vertrag vor und der Senat ratifiziert es nicht. Selbst falls Biden die USA erfolgreich zurück in den Pariser Schoß bringt, werden die Maßnahmen der Trump-Administration es schwieriger machen, Paris-konforme Regelungen allein durch exekutive Maßnahmen umzusetzen.

[*Zwischen der Wahl eines neuen Präsidenten und dessen Amtseinführung werden alle Regierungs-Institutionen als lame duck bezeichnet, weil sie keine echte Regierungsarbeit leisten können. Anm. d. Übers.]

Um die Treibhausgasemissionen um die im Pariser Klimaabkommen vereinbarte Menge zu reduzieren, haben die Exekutivbehörden unter der Regierung von Präsident Barack Obama eine Reihe von Vorschriften erlassen, wie z. B. die Begrenzung der Kohlendioxidemissionen von Kraftwerken (der sogenannte „Clean Power Plan“) und der Methanemissionen aus der Öl- und Gasproduktion sowie den Förderaktivitäten auf Bundesland. Diese und andere Regeln blieben in gerichtlichen Auseinandersetzungen stecken, bis sie unter Präsident Trump aufgehoben und durch neue Regeln ersetzt oder von Bundesgerichten als rechtswidrig verworfen wurden.

Zu den jüngsten Maßnahmen der Trump-Regierung, die es in Zukunft schwieriger machen werden, Energie-beschränkende Klimaregelungen zu rechtfertigen und umzusetzen, gehörte die Entscheidung der US-Umweltschutzbehörde (EPA) im Dezember, die aktuellen nationalen Luftqualitätsstandards für Ozon und Feinstaub (PM) beizubehalten und eine Vorschrift zu verabschieden, die die Durchführung umfassender Nutzen-Kosten-Analysen (BCA) für alle zukünftigen Regelungen vorschreibt, die unter dem Clean Air Act (CAA) von 1970 umgesetzt werden, einschließlich einer detaillierten Festlegung, wie solche Analysen durchgeführt werden müssen. Anfang Januar hat Trumps EPA eine Regelung zur Verbesserung der Transparenz und der öffentlichen Kontrolle der Wissenschaft in Kraft gesetzt, die zur Rechtfertigung von Vorschriften verwendet wird.

Die Obama-Regierung rechtfertigte die meisten ihrer klimapolitischen Maßnahmen mit der Behauptung, sie würden Tausende von Leben und Milliarden von Dollar retten. Fast alle vermeintlichen Vorteile der Regelungen resultierten aus einer Doppelzählung: Die Vorteile von Beschränkungen für Schadstoffe wie Feinstaub und Ozon wurden so gezählt, als ob sie neue Vorteile aus der Begrenzung der Emissionen von ungiftigem Kohlendioxid wären. Andere angebliche Vorteile der Kohlendioxid-Beschränkungen resultierten aus der Einbeziehung von Vorteilen für Menschen im Ausland, während die Kostenberechnungen auf diejenigen beschränkt wurden, die innerhalb der Grenzen der Vereinigten Staaten anfallen. Gemäß der kürzlich verabschiedeten BCA-Regel der EPA müssen alle neuen CAA-Regeln von einem BCA begleitet werden, das eine Erklärung über die größten jährlichen Auswirkungen auf die allgemeine Wirtschaft oder eine unverhältnismäßig betroffene Industrie, Gruppe oder geografische Region enthalten muss.

Darüber hinaus muss jede neue CAA-bezogene Vorschrift eine Präambel enthalten, in der erklärt wird, welches Problem die vorgeschlagene Vorschrift angehen soll und welche Überlegungen und Forschungen in die Entscheidung eingeflossen sind, sowie einen separaten Bericht mit einer leicht verständlichen Präambel, in der erklärt wird, welche Vorteile für das Wohlergehen und die öffentliche Gesundheit die EPA von der Vorschrift erwartet und welche Kosten sie verursachen wird. BCAs werden nach den neuen Verfahren zwischen Vorteilen, die sich direkt aus der Vorschrift ergeben, und „Co-Benefits“ (zusätzliche, indirekte Vorteile, die sich aus anderen CAA-Anforderungen ergeben) unterscheiden, und sie werden inländische Vorteile von allen Vorteilen trennen, die die Vorschrift für Menschen in anderen Ländern bringt, und über beides berichten.

Da Trumps EPA die aktuellen Ozon- und PM-Standards für die nächsten fünf Jahre bestätigt und festgeschrieben hat und die betroffenen Gemeinden und Industrien bereits unter ihnen zurecht kommen müssen, dürfte es für die Biden-Regierung äußerst schwierig sein, „neuen“ Zusatznutzen von noch strengeren Beschränkungen für diese beiden regulierten Schadstoffe geltend zu machen, die sie vorschlägt.

Unter der endgültigen Transparenzregel, die die EPA am 5. Januar erlassen hat, muss die Biden-Regierung transparenter sein als jede andere Regierung in der Geschichte, was die Wissenschaft angeht, die zur Rechtfertigung neuer Klimaregelungen verwendet wird. Die Regel legt Anforderungen für die unabhängige Begutachtung der entscheidenden Wissenschaft fest. Darüber hinaus muss die Behörde nun bei Vorschlägen für bedeutende Regulierungsmaßnahmen die Forschung, auf die sich die Regel stützt, klar identifizieren und angeben, auf welche Studien sie sich bei der Erstellung der Regel stützt.

Die Vorschrift verpflichtet die EPA außerdem, Studien stärker zu berücksichtigen, für die die zugrundeliegenden Dosis-Wirkungs-Daten für eine unabhängige Validierung und öffentliche Prüfung verfügbar sind. Studien können auch in Betracht gezogen werden, falls die Daten nur eingeschränkt zur Überprüfung und erneuten Prüfung zur Verfügung stehen. In Fällen, in denen der EPA-Administrator feststellt, dass eine bestimmte Studie oder eine Reihe von Studien für das richtige Verständnis des Dosis-Wirkungs-Mechanismus von entscheidender Bedeutung ist, selbst wenn die Daten aus der Studie oder den Studien nicht für eine öffentliche oder auch nur eingeschränkte Überprüfung und erneute Prüfung zur Verfügung stehen, liegt es in seinem Ermessen, der EPA zu gestatten, die Forschung zur Gestaltung und Rechtfertigung einer Verordnung zu verwenden, aber der Administrator muss klar angeben, warum die Forschungsergerbnisse trotz der fehlenden Transparenz verwendet wurden.

An jeder der hier beschriebenen politischen Maßnahmen wurde schon lange gearbeitet, lange bevor irgendwelche Stimmen in der 2020 Präsidentschaftswahl abgegeben wurden. Als solche und angesichts der Tatsache, dass Trump dachte, er würde die Wiederwahl gewinnen – und allem Anschein nach immer noch glaubt, dass er das tat – waren die Regeln dazu gedacht, Trumps Bemühungen um amerikanische Größe und Unabhängigkeit zu fördern, nicht um Joe Biden von der Umsetzung seiner Klima-Agenda zu vereiteln. Tatsächlich können diese Regeln allein Biden nicht davon abhalten, zu versuchen, jede Klimapolitik durchzusetzen, von der er glaubt, dass er sie durchsetzen kann. Was diese Regeln jedoch tun, ist, Bidens Bemühungen transparenter zu machen und Grenzen zu setzen, die auf dem Gesetz und der öffentlichen Kontrolle basieren.

Die Biden-Regierung wird diese Richtlinien aufheben oder anderweitig überwinden müssen, bevor sie die Arten von Energierationierung und Einschränkungen der persönlichen Freiheit durchsetzt, die seine Energie- und Klimavorschläge als notwendig und gerechtfertigt zur Bekämpfung des Klimawandels proklamieren. Ich wünsche ihm bad luck bei diesen Bemühungen.

Quellen: USA Today; Reuters; U.S. Environmental Protection Agency; Washington Examiner; Heartland Daily News; U.S. Environmental Protection Agency

Link: https://www.heartland.org/news-opinion/news/trumps-final-moves-complicate-bidens-climate-goals

Übersetzt von Chris Frey EIKE

 




Der stratosphä­rische Polarwirbel – jetzt etwas anders als vor genau einem Jahr

Abbildung 1: Vergleich der Wetterlage im 50 hPa-Niveau, links vom 23. Februar 2020 (Quelle), rechts vom 19. Januar 2021 (Quelle)

Der Unterschied sieht recht eindrucksvoll aus. Wie jedoch die folgende Abbildung zeigt, hat sich dieser Vorgang noch nicht wesentlich in tiefer liegende Schichten der Atmosphäre durchgesetzt:

Abbildung 2: Vergleich der Wetterlage im 500 hPa-Niveau, links vom 23. Februar 2020, rechts vom 19. Januar 2021. Quellen siehe Abbildung 3

[Einschub zur Erklärung: „500 hPa-Fläche“ bedeutet, dass ähnlich einer topographischen Karte im Atlas die Höhe eingetragen wird, in welcher der Luftdruck bis genau 500 hPa abgenommen hat. Diese Höhe ist von der Temperatur abhängig. Je wärmer die Atmosphäre, umso höher muss man steigen, um genau 500 hPa zu erreichen. Die Bezifferung der Höhenlinien gibt die Höhe über NN an. Für die 50 hPa-Fläche gilt das Gleiche. Es muss dort oben also zu einer kräftigen Erwärmung gekommen sein, aus welchen Gründen auch immer (siehe weiter unten). Die Bezifferung der Linien zeigt die Höhe. – Ende Einschub]

Natürlich ändert sich die Wetterlage von Tag zu Tag, aber wenn man es integrierend betrachtet, sind grundlegende Unterschiede nicht erkennbar. Etwas anders stellt sich die Lage am Boden dar:

Abbildung 3: Vergleich der Wetterlage am Boden, links vom 23. Februar 2020 (Quelle), rechts vom 19. Januar 2021 (Quelle)

Hier ist augenfällig, dass sich über der Arktis ein kräftiges Boden-Hochdruckgebiet gebildet hat, welches aber im 500 hPa-Niveau keine Entsprechung hat. Der Jet Stream der Polarfront hat sich dadurch zwar zirkumpolar etwas nach Süden verschoben, aber noch nicht weit genug, um in Mittleren Breiten Auswirkungen zu zeitigen. Dies könnte lediglich ein Major Warming in der Stratosphäre bewirken, also eine Teilung (split) des stratosphärischen Polarwirbels in zwei eigenständige Wirbel. Davon wollen die Modell-Simulationen aber nichts wissen. Vielmehr wird eine Rückkehr des Polarwirbels in einen „ungestörten“ Zustand angenommen, wobei lediglich eine gewisse Asymmetrie zum geographischen Pol übrig geblieben ist:

Modellsimulation im 50 hPa-Niveau vom 19. Januar 2021 für den 29. Januar 2021 (Quelle)

Mehr zu diesem Thema gibt es im oben verlinkten Beitrag des Autors von vor einem Jahr (hier) und als Grundlagen-Information hier. Scrollt man hier nach unten, erscheint bei letzterem Link eine Zusammenstellung, aus der hervorgeht, dass eine „Störung“ des stratosphärischen Polarwirbels keineswegs immer gravierende Folgen für die Winterwitterung in den Mittleren Breiten nach sich zieht – zumal, wie oben schon erwähnt, diese „Störung“ aus heutiger Sicht (20. Januar 2021) nicht von Dauer sein soll.

Zu der Konstellation in diesem Jahr hat man sich nun auch anderswo Gedanken gemacht. Hier folgt die Übersetzung eines entsprechenden Beitrags bei WUWT (Link siehe unten):

In der Stratosphäre ist es in diesem Monat erheblich wärmer geworden. Welche Implikationen folgen daraus?

Reposted from The Cliff Mass Weather Blog

Anfang dieses Monats stiegen sich die Temperaturen in der Stratosphäre über einen Zeitraum von einigen Tagen um etwa 50°C, was als Sudden Stratospheric Warming (SSW) bekannt ist. Die Stratosphäre ist die Schicht der Atmosphäre von etwa 10 bis 50 km über dem Meeresspiegel.

Wie wir sehen werden, sind solche stratosphärischen Erwärmungen manchmal mit Verzerrungen und Veränderungen der Winde und Temperaturen in der unteren Atmosphäre verbunden, was zu anomalem Wetter von Hitzewellen bis zu Schneestürmen führt – und zu großen Veränderungen des berüchtigten Polarwirbels.

Es gibt eigentlich zwei Polarwirbel: einen hoch in der Stratosphäre und einen weiteren in der Troposphäre.

Aufgrund dieser beginnenden Erwärmung warnen einige Medien seit einigen Wochen vor schweren Unwettern, einschließlich großer Schneestürme über dem Osten der USA (siehe unten).

Die Erwärmung

Anfang Januar begannen die Temperaturen hoch in der polaren Stratosphäre plötzlich und tiefgreifend zu steigen. Veranschaulicht wird das in dieser NASA-Darstellung der Temperaturen bei einem Druck von 10 hPa (etwa 30.000 m über der Oberfläche) am Nordpol für dieses Jahr (rot/rosa) und letztes Jahr (blau) nach Datum. Die durchgezogene schwarze Linie zeigt die Durchschnittstemperaturen und die graue Schattierung illustriert die typische Variabilität der Temperatur an diesem Ort.

Anfang Januar gab es eine beachtliche Erwärmung auf etwa 250 K, etwa 50°C über dem Normalwert. Wow!

Dies ist eine plötzliche Erwärmung der Stratosphäre, etwas, das wir normalerweise einmal im Jahr im Winter sehen. Im vorigen Wingter kam es im März zu einem ähnlichen Ereignis (blaue Farben).

Bedeutsam: Die Erwärmung in diesem Monat hielt nicht lange an und wird voraussichtlich in der nächsten Woche vollständig verschwinden. Warum treten solche Erwärmungen auf? Viele Forschungen haben gezeigt, dass sie mit Wellen hoher Amplitude in der Troposphäre zusammenhängen, die sich vertikal in die Stratosphäre ausbreiten und dort die Strömung stören. Diese Wellen werden unter anderem durch Gebirgszüge und Land-Wasser-Kontraste verursacht. Ich habe persönlich zu solchen Themen geforscht, aber ich werde hier nicht ins Detail gehen.

Um die potenziellen Auswirkungen der Erwärmung der Stratosphäre zu verstehen, hier noch einmal die Abbildung oben im Blog, welche die beiden Polarwirbel zeigt. Während einer normalen Winterperiode gibt es in der oberen Stratosphäre in der Nähe des Nordpols ein Gebiet mit sehr kalter Luft, was nicht verwunderlich ist, wenn man bedenkt, dass es praktisch keine Sonneneinstrahlung gibt! Ein westlicher (von Westen kommender) Jetstream (der Polarnacht-Jet) umgibt die kalte Luft und bildet faktisch eine schützende Barriere um sie herum.

In der unteren Atmosphäre (Troposphäre) gibt es auch kalte Luft in der Nähe des Pols und einen westlichen Jet an seiner südlichen Grenze: allgemein als Jetstream bezeichnet und am stärksten von etwa 25.000 bis 35.000 ft über der Oberfläche.

Die Wellenbewegungen des Jetstreams und die damit verbundene kalte Luft im Norden haben einen GEWALTIGEN Einfluss auf das Wetter in Bodennähe.   Zum Beispiel kann eine südwärts gerichtete Welle eine Kältewelle und Schnee bringen; eine nordwärts gerichtete Welle hohe Temperaturen.

Wie die Erwärmung der Stratosphäre das Wetter an der Oberfläche beeinflusst

Wenn eine polare Stratosphären-Erwärmung auftritt, ist sie mit einem starken Absinken verbunden (was eine Erwärmung durch Kompression bewirkt); die Abschwächung des Temperaturunterschieds zwischen einem kalten Pol und wärmerer Luft im Süden führt dazu, dass der polare Nachtjet schwächer wird und stark mäandriert. Auch die stratosphärische Polarwirbelzirkulation schwächt sich ab und kann verzerrt werden oder sich sogar vom Pol entfernen.

Die Auswirkungen der polaren Erwärmung der Stratosphäre und der Mäander der kalten Luft neigen dazu, sich nach unten in die Troposphäre fortzupflanzen, wo sowohl der troposphärische Polarwirbel als auch der troposphärische Jetstream schwächer werden kann.

Für das Ereignis dieses Monats war es klar, dass sich der obere Jetstream während der Erwärmung abschwächte. Zur Veranschaulichung sind hier die nach Osten gerichteten (zonalen) Winde bei 60N für ein Niveau nahe der Grenze zwischen Stratosphäre und Troposphäre (150 hPa Druck, etwa 14.000 m) dargestellt. Der Wind (lila) schwächte sich unter den Normalwert ab, nachdem die Erwärmung Anfang dieses Monats begonnen hatte.

Aber hat diese stratosphärische Erwärmung einen großen Einfluss auf die Wellenbewegungen des Jetstreams weit unten in der Troposphäre, wo wir uns befinden?

Um dies zu untersuchen, habe ich die Differenz der Höhen der 500 hPa-Druckfläche (ca. 5.500 m) zur Normalen aufgetragen. Die Diagramme zeigen Durchschnittswerte über eine Woche.

Für die Woche vor der Erwärmung (26. Dezember bis 1. Januar) gibt es eine Menge starker Anomalien (Abweichung von der Norm)… einschließlich einiger anomaler Höhenrücken (Hochdruck über dem Pol):

In der Woche nach der Erwärmung (10.-16. Januar) hat sich die polare Erwärmung abgeschwächt, aber vielleicht ein wenig ausgebreitet. Eine große Veränderung war der Höhenrücken (Hochdruck) über der Westküste und der Trog über dem Osten der USA, aber es ist schwer, die Erwärmung als Ursache anzuführen. Und in der Tat war die östliche Hälfte der USA [und auch Mitteleuropa] in diesem Winter relativ mild… keine schweren Kälteausbrüche. Und anhaltende Blockierungen (kräftige Hochdruckgebiete in nördlichen Breiten) gab es in diesem Winter relativ wenig.

Mit Blick auf diese Woche, die Modelle gehen für kaltes Wetter später in der Woche … aber nicht in den östlichen USA, wohl aber über den Nordwesten.

Die neueste Vorhersage des Europäischen Zentrums [EZMW] für 500 hPa-Höhenanomalien (man denke an die Abweichung vom normalen Druck in 5500 m), zeigt höhere als normale Höhen über der Polregion und einen großen Trog (Tiefdruck) über dem Westen der USA. Diese Art von Muster tritt in La-Nina-Jahren (wie in diesem Jahr) häufiger auf.

Um es ganz klar zu sagen: Dieses Strömungsmuster führt nicht zu unternormalen Temperaturen in den östlichen USA, wie einige Medien bereits hinaus posaunt hatten.

Das gilt auch für Mitteleuropa. Anm. von Christian Freuer

Link: https://wattsupwiththat.com/2021/01/18/the-stratosphere-has-warmed-profoundly-this-month-what-are-the-implications/

Übersetzt von Chris Frey EIKE

 




Welche globale Erwärmung? 148 neue (2020) wissen­schaftliche Studien bestätigen, dass es in letzter Zeit keine Erwärmung gab…

Der Link zur Datengrundlage der im Jahre 2020 (und 2019) veröffentlichten Studien, welche belegen, dass es keine globale Erwärmung gab, ist hier:

Non-Global Warming Studies From 2020 & 2019

Es folgen 8 Beispiele der im Jahre 2020 veröffentlichten 148 Studien zur fehlenden globalen Erwärmung:

Martin et al., 2020: Die maximale Temperatur im Holozän in Frankreich (14°C) lagen um 7 K über dem heutigen Wert (7°C)

Moderne Klimaparameter wurden aus der instrumentellen Datenbank von Meteo-France an der 11 km entfernten Station Mazet-Volamont (1130 m) für den Zeitraum 2009-2017 gewonnen … Die Temperaturwerte wurden mit einem vertikalen Temperaturgradienten von 0,6°C/100 m korrigiert. Die mittleren Jahrestemperaturen variieren zwischen 6 und 9°C mit einem Mittelwert von 7°C. … Die mittlere Jahrestemperatur für das gesamte Holozän betrug 11,3°C, d.h. Sie lag um 4,1°C über dem modernen Wert. Das Maximum von 14°C und ein Minimum von 7,6°C wurden vor 7800 bzw. 1700 Jahren erreicht. … Die letzten 200 Jahre zeigen einen gegenläufigen Trend … MAAT sank um 3,1 und 3,3°C für die Seekalibrationen, Sun et al. (2011) und Russell et al. (2018), bzw. 2,1°C für die Bodenkalibrierung.“

————————————-

Hou et al., 2020: Der westliche tropische Atlantik war um 1 bis 5 K wärmer während der letzten Eiszeit (CO2-Gehalt 190 ppm)

Unsere Ergebnisse zeigen einen Mangel an ausgeprägter glazial-interglazialer Variabilität in der SST-Aufzeichnung, was uns dazu veranlasst, atmosphärischen pCO2 als direkten Treiber der SST-Variationen im südlichen WTA [westlicher tropischer Atlantik] auszuschließen.

————————————-

Xia et al., 2020: Die Sommertemperatur im subantarktischen Georgien „lag um 5 bis 10 K höher als heute“

Obwohl der Biomarker-basierte Paläo-Temperatur-Proxy für moderne Temperaturdaten regionaler Seen kalibriert wurde, liegen die aus dem Fan Lake rekonstruierten Sommertemperaturen bis zu 14°C außerhalb des Bereichs ihres modernen Kalibrierungsdatensatzes, in dem der wärmste Standort eine Sommertemperatur von nur 10°C aufweist (Foster et al, 2016) … Die CARs stiegen auf bis zu 140 g C pro m² und Jahr vor 4000 bis 3500 Jahren und 70 g C pro m² und Jahr vor 3200 bis 2700 Jahren, als die Sommertemperatur um etwa 10°C bzw. 5°C höher war als heute.

————————————-

Gebbie, 2020: Die derzeitige Wärme in den Ozeanen beträgt nur etwa ein Drittel dessen, was zum Erreichen des Niveaus im Mittelalter erforderlich ist.

[Die Studie liegt hinter einer Zahlschranke. Anm. d. Übers.]

————————————-

Wangner et al., 2020: Im Südosten von Grönland war es von den 1920er biks zu den 1940er Jahren wärmer als heute

Die kalten Jahrzehnte nach 1950 fallen mit der Großen Salzgehalts-Anomalie in den späten 60er bis frühen 70er Jahren zusammen, die durch die langfristige Abnahme des Index‘ der Nordatlantischen Oszillation (NAO) verursacht wurde und den Export von Süßwasser und Eis durch die Framstraße in die EGC [Ostgrönland-Strom] begünstigte (Dickson et al., 1996). Innerhalb von zwei bis drei Jahren erreichte die damit verbundene Salzgehalts-Anomalie die Labradorsee, was zu einer Reduktion der Konvektion und einer anschließenden Abschwächung der Atlantic Meridional Overturning Circulation (AMOC) führte. Dieser Mechanismus erklärt die niedrige Temperatur auf dem SE-Grönland-Schelf und die positive AMV während dieses Zeitraums (Ionita et al., 2016, Abbildung 6d). … In der alkSST-Aufzeichnung von Skjoldungen sowie in den CTD-Messungen vor Skjoldungen (Abbildung 5d) zeigt sich eine Rückkehr zu niedrigeren Temperaturen nach 2006, was auf die außergewöhnlich hohen Temperaturen um das Jahr 2000 hinweist. … Unsere Studie zeigt, dass, obwohl die Schmelzwasserproduktion durch das Klima beeinflusst worden sein könnte, die Position des Gletscherrandes und das Kalben von Eisbergen im 20. Jahrhundert relativ konstant geblieben sind. Dies könnte auf die Lage des Gletschers mit einer begrenzten Eis-Ozean-Grenze und einem 90°-Zuflusswinkel zurückzuführen sein, der als Pinning-Punkt in seiner aktuellen Position wirkt. Unsere Studie veranschaulicht, dass die Wärme des Ozeans einen begrenzten Effekt auf einige Meeresgletscher haben kann.

————————————-

Sun et al., 2020: Keine Erwärmung in Nordwest-China seit dem 17. Jahrhundert, Abkühlung seit den 1950er Jahren

————————————-

Weckstrom et al., 2020: Abkühlung des nördlichen Nordatlantiks und zunehmendes Meereis seit den 1930er Jahren

————————————-

Singh et al., 2020: Auf dem antarktischen Kontinent ist es während der letzten 7 Jahrzehnte nicht wärmer geworden.

Geringe kontinentale Klimasensitivität der Antarktis aufgrund hoher Eisschild-Orographie … Der antarktische Kontinent hat sich in den letzten sieben Jahrzehnten nicht erwärmt, trotz eines monotonen Anstiegs der atmosphärischen Konzentration von Treibhausgasen.

————————————-

Link: https://notrickszone.com/2021/01/14/what-global-warming-148-new-2020-scientific-papers-affirm-recent-non-warming-a-degrees-warmer-past/

Übersetzt von Chris Frey EIKE

 




Kohlendioxid hält in Bayern einen Dauerschlaf

Wir fragen uns: Wie verhalten sich die Temperaturen?

Schauen wir uns zunächst die Temperaturentwicklung des größten Bundeslandes seit über 100 Jahren an:

Abb.1: Seit 1898 wurde es wärmer in Bayern. Gleichzeitig stieg auch der CO<sub>2</sub>-Gehalt der Atmosphäre von damals geschätzten 290 ppm auf heute 417 ppm.

Doch betrachten wir die Temperaturkurve näher, dann sehen wir erst im letzten Viertel der Grafik einen Anstieg, während die CO2-Kurve gleichmäßig gestiegen ist, zu Beginn leicht nach dem Kriege jedoch immer deutlicher.

Deshalb unterteilen wird den Temperaturverlauf Bayerns in 2 Abschnitte:

a) 1898 bis 1987 und vergleichen mit der CO2-Anstiegskurve im selben Zeitraum

b) Seit 1988 bis heute

Abb. 2: Die Jahrestemperaturen Bayern blieben von 1898 bis 1987, also 90 Jahre lang ziemlich gleich, die Trendlinie ist eben. Im gleichen Zeitraum sind die CO<sub>2</sub>-Konzentrationen der Luft von knapp unter 290 ppm auf 350 ppm gestiegen.

Ergebnis: Trotz des Anstiegs der CO2-Konzentrationen sind die Jahrestemperaturen in den 90 Jahren des Betrachtungszeitraumes nicht gestiegen. Demnach hat CO2 keinen oder kaum einen Einfluss auf die Jahrestemperaturen in Bayern.

B) Der Zeitraum von 1988 bis heute in Bayern.

Abb.3: Seit 1988 bis 2020 sind die Jahrestemperaturen in Bayern plötzlich stark gestiegen. Ein Temperatursprung verbunden mit einer allgemeinen Klimaerwärmung setzte ein.

Die Frage ist: Was sind die Gründe dieser plötzlichen Erwärmung?

Der kleine Temperatursprung von etwa einem halben Grad im Jahre 1988 hat natürliche Ursachen, denn Kohlendioxid sorgt für keine Temperatursprünge. Das wird auch von niemandem behauptet. Jedoch: Die Weitererwärmung Bayerns seit 1988 korreliert durchaus mit der zunehmenden globalen CO2-Kurve. Doch handelt es sich hierbei um einen Zufallskorrelation, die Begründung des Zufalls ist wissenschaftlich einfach zu führen: Da die kontinuierliche CO2-Zunahme von 1898 bis 1987 zu keiner erkennbaren Erwärmung führte, scheidet Kohlendioxid auch als hauptsächlicher Erwärmungsgrund für die letzten 33 Jahre aus. Wir müssen nach anderen Erwärmungsgründen suchen. Die Erklärung gestaltet sich somit wesentlich schwieriger als angenommen.

Auf der Suche nach Lösungen unterteilen wir die Jahrestemperaturen in die Jahreszeiten. Vor allem die drei Sommermonate im Vergleich zu den 3 Wintermonaten liefern erste Lösungsansätze.

Abb. 4a/b: Vor allem die drei Sommermonate sind in Bayern seit 1988 wärmer geworden, während sich die drei Wintermonate im Schnitt aller DWD-Wetterstationen weniger erwärmt haben. Insgesamt erhöht sich damit der Jahresschnitt.

Versuch einer Erklärung der Sommer- Winterunterschiede:

Global wirkende Klimagründe kann man wohl weitgehend ausschalten, denn eine eventuell stärker wirkende Sonne oder eine Vermehrung an kosmischen Teilchen kann nicht jahreszeitenbedingt und auch nicht nur in Bayern wirken. Auch eine allgemeine Verschiebung von Klimazonen nach Norden müsste sich ebenso im Winterhalbjahr bemerkbar machen. Lediglich von den zunehmenden Wärmeinseleffekten bei den Wetterstationen wissen wir, dass sie im Sommer stärker wirken.

Wärmeinseleffekte sind vom Menschen erzeugt. Streng genommen handelt es sich um eine Naturzerstörung. Die ständige Bebauung und Trockenlegung um die Stationen herum wirkt sich im Sommer viel stärker aus als im Winter. Eine Asphaltstraße ist nur in den Sommermonaten ein heißes Wärmeband in der Landschaft. Im Winter sind auch trockengelegte Flächen nass, so dass im Winter kaum Temperaturunterschiede zwischen einer Straße und der Wiese daneben auftreten. Lediglich die Heizwärme der Gebäude erzeugt auch in den Wintermonaten in der Siedlung leicht höhere Temperaturen. Und wie hier vermutet, verhalten sich auch die Temperaturreihen der beiden Jahreszeiten

Zunächst eine WI-arme Wetterstation: Die Wetterstation Memmingen lag bis vor kurzem im Stadtpark beim Friedhof, sie ist nun ganz außerhalb des Ortes.

Abb. 5: Bei einer WI-armen Station wurden die Sommermonate leicht wärmer, die Wintermonate blieben gleich seit 1988

Krasse Gegensätze bilden die meisten anderen bayrischen Wetterstationen mit ihren zunehmenden WI-effekten wie Hof (Land). Die Station wächst in ein Gewerbegebiet ein. Die meisten bayrischen Wetterstationen sind Wärmeinsel-Wetterstationen.

Abb. 6: WI-starke Wetterstationen zeigen eine kräftige Sommererwärmung seit 1988, in den Wintermonaten wirkt der WI-effekt nicht so stark, deshalb ist die Erwärmung vorhanden, jedoch deutlich schwächer als in den Sommermonaten.

Damit erhalten wir ein vorläufiges Ergebnis: anthropogen und natürlich.

An der Erwärmung Bayerns seit 1988 ist der Mensch sehr stark beteiligt. Die Zunahme der Wärmeinseleffekte bei den Messstationen, die zunehmende Bebauung der einst freien Landschaft und die damit verbundenen Landschaftstrockenlegungen tragen erheblich zur Sommererwärmung bei den DWD-Messstationen bei, was sich letztlich auf die Jahresstatistik auswirkt.

Natürliche Gründe der Erwärmung: Sie sorgten für den Temperatursprung von 1987 auf 1988, der bei allen Wetterstationen im Sommer wie im Winter auftritt. Zu nennen wäre eine Änderung der Großwetterlagen. Allgemein ist das Klima in diesem Zeitraum in Süddeutschland mediterraner geworden. Die Südwestlagen haben im Sommer zugenommen, genauso wie die Anzahl der Sonnenstunden. Mehr Sonne wirkt in den Sommermonaten erwärmend, in den Wintermonaten bisweilen sogar abkühlend, wenn lange Winternächte wolkenlos bleiben sollten.

Konsequenzen für die Politik: Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt der Politik und des menschlichen Handelns gestellt wird. Sauberes Wasser in genügender Menge ist ein Grundbedürfnis des Menschen, genauso wie saubere Luft. Die großzügige Bebauung der Freiflächen muss reduziert werden, das Regenwasser sollte vor Ort aufgefangen und verbraucht oder auf Freiflächen versickert werden. Ein Weiter so führt zur weiteren Sommererwärmung in den Wärmeinseln samt trockengelegter Umlandflächen, die inzwischen mehr als 20% der Landesflächen ausmachen. Ein weiter sinkender Grundwasserspiegel verbunden mit zunehmender Wasserknappheit auch in Bayern würde auf Dauer die Folge sein.

Flächenverbrauchszähler für Deutschland: Derzeit ist ein Siebtel der Gesamtfläche versiegelt. Jede Sekunde wird in der Bundesrepublik Deutschland 5,22 m2 Boden neu als Siedlungs- und Verkehrsfläche beansprucht! Quelle.

 




Unsere Politiker sollten sich endlich darum kümmern, wie man mit Corona leben kann und nicht umgekehrt

Der Rückgang der Zahlen durch den Lockdown fällt nicht sehr beeindruckend aus …

sagt B. Palmer (der GRÜNE Bürgermeister von Tübingen) und spricht damit ein Thema an, welches ganz offensichtlich ist: Sieht unsere Politik überhaupt noch das Ziel, oder stochert sie nur mit immer größerem Aufwand im Nebel herum?

B. Palmer: [1] Es wird nur noch darüber geredet, ob der Lockdown … halt so lange dauern soll, bis Lauterbachs Ziele erreicht sind. Alternativen? Fehlanzeige.
… Taiwan und Südkorea zeigen, wie man mit moderner Kontaktverfolgung eine Pandemie in Schach hält. … Schweden wird für seinen Weg bei uns nur gescholten. Dabei haben die nicht mehr Tote als Österreich und viel weniger als Frankreich oder Belgien, in denen es mehrfach harte Lockdowns gab.
Die Schweiz hat Geschäfte und Restaurants den ganzen Winter offen gehalten. Die Infektionszahlen sind höher, aber die Krankenhäuser haben 30% freie Intensivbetten. Das Durchschnittsalter der Toten steigt immer weiter an. Mittlerweile sind wir deutlich jenseits der 80. Die Übersterblichkeit in Deutschland bewegte sich 2020 im Rahmen einer schweren Grippe. Eine Überlastung der Intensivkapazitäten in Deutschland droht nicht mehr. Und: Der Rückgang der Zahlen durch den Lockdown fällt nicht sehr beeindruckend aus.
In so einer Situation nur mehr vom Gleichen zu fordern, ist mindestens einfallslos … aber … auch völlig unverständlich.
B. Palmer ist allerdings eher so etwas wie der „Sarrazin der GRÜNEN“ und wird deshalb konsequent ignoriert (so lange man ihn nicht aus der Partei entfernen kann).

Und so wundert es nicht, dass der Bayerische Ministerpräsident Söder getreu Frau Merkels Corona-Maßnahmen-Eskalation hinterhertrottet und solche Fragen erst gar nicht stellt. Als zum Populisten mutierter Landesvater setzt er dazu allerdings noch etwas drauf und zeigt dazu, wie Kritik an der Coronapolitik – und an ihm – zu verorten ist:
WELT 09.01.2021 Söder holt zum Rundumschlag aus – und vergleicht Corona mit der Pest
Söder warnte vor allem vor der Gefahr, dass sich Mutationen ausbreiten, und verglich das Virus mit der Pest: „Corona ist wie die Pestilenz. Sie kriecht in jede Ritze.“
Kein Verständnis habe er daher für Corona-Leugner und Politiker, die die Lage auszunutzen versuchten. „Es erschüttert mich zutiefst, wie
die AfD und der ganze ,Querdenker‘-Klub versuchen, das kaputt zu machen“, so Söder in Bezug auf die Maßnahmen zur Pandemiebekämpfung.
„Es ist verheerend. Endlose Fake News und Lügen führen dazu, dass Leute sich in Scheinwelten und Parallelwelten begeben. Es ist wie eine sektenähnliche Entwicklung. Die Leute werden wie einer Gehirnwäsche unterzogen.“ Daher müsse gelten: „Wir lassen uns unsere Demokratie nicht kaputt machen.“

In Kurzform meint Söder (rein private Interpretation des Autors, die durch nichts belegt ist): Unter mir hat selbstverständlich jeder das Recht auf eine eigene Meinung, so lange es die Gleiche ist …

Sogar seinen Koalitionspartner – die Freien Wähler – regt er damit auf. Was die Tageszeitung des Autors allerdings veranlasst hat, Söder vor seinem Koalitionspartner in Schutz zu nehmen und zu zeigen, dass ihre Redaktion auch nicht gescheiter ist.

Betrachtet man vor diesem Hintergrund die aktuell publizierten Lockdown-Verschärfungsforderungen von Merkel und Landesfürsten, meint man zu Ahnen, dass solche „Wissensqualität“ eine erhebliche mit-Entscheidungsbasis sein wird.

Und wer die wirklichen „Querdenker“ sind, sei anbei nochmals gezeigt. Söders „eigener“ Staatsfunk meldete einst:
Sendung im Bayerischen Rundfunk am 30. Januar 2020: Quer erklärt: Wer behauptet, das Coronavirus sei so gefährlich, dass Grenzen geschlossen, der Verkehr eingeschränkt und manche Berufe eingestellt werden müssen, sei ein rechter Verschwörungstheoretiker in Paranoiaproduktion mit Endzeitpsychose.
Im Niedermachen und Verleumden anderer Meinungen sind sich im Merkeldeutschland Politik wie Medien einig.

Schaut man sich die Coronadaten an, stellt sich allerdings schon die Frage, wer eher eine Gehirnwäsche bekommen hat. Deshalb anbei eine Aktualisierung zum vorhergehenden „Corona-Bericht“ des Autors [2].

Aktuell dargestellter Status

Die Sterbezahlen des Statistischen Bundesamtes lahmen der Zeit leider immer vier Wochen hinterher. Um das Jahr 2020 zu bewerten, reicht jedoch der Zeitraum bis zur dort aktuell (zum Zeitpunkt der Editierung dieses Artikels) hinterlegten KW 51 aus. Um in den Grafiken das Gesamtjahr abzubilden, wurde in denen des Autors notgedrungen die fehlende KW 52 mit den Werten der KW 51 gefüllt. Der mögliche Datenfehler dürfte i den Grafiken kaum sichtbar sein.Die auf der Homepage des Statistischen Bundesamtes gezeigte Sterbegrafik zeigt – wie dort auch berichtet wird – eine Übersterblichkeit durch Corona:
… Im April lagen die Sterbefallzahlen deutlich über dem Durchschnitt der Vorjahre. Gleichzeitig war ein Anstieg der Todesfälle zu beobachten, die mit dem Coronavirus in Zusammenhang stehen (Quelle: Robert-Koch-Institut (RKI)). Als diese zurückgingen, bewegten sich ab Anfang Mai auch die Sterbefallzahlen zunächst wieder etwa im Durchschnitt. Im August waren sie allerdings wieder erhöht. Dies geht offenbar auf eine Hitzeperiode zurück. Auch die Sterbefallzahlen im September lagen etwas über dem Durchschnitt der Vorjahre. Nach durchschnittlichen Sterbefallzahlen in der ersten Oktoberhälfte steigen die Sterbefallzahlen seit der zweiten Oktoberhälfte über den Durchschnitt hinaus an. Zeitgleich ist erneut ein Anstieg der COVID-19-Todesfallzahlen zu beobachten.

Bild 1 Sterbezahlen Deutschland. Quelle: Statistisches Bundesamt. Screenshot vom 11.01.2021

Bild 2 RKI-Corona-Dashboard, Screenshot vom 11.01.2021. Anmerkung: Der Spitzenwert beim „Meldedatum“ datiert auf den 17.12., im Bild also vor ca. 3 1/2 Wochen

Auf einem anderen Portal sieht der Verlauf der Meldungen zum Schlussdatum etwas anders aus.

Bild 3 Daten von Bild 2 auf einem anderen Portal

Die beim Register DIVI hinterlegten Intensiv-Zahlen sagen wenig aus, da Vergleiche zu Grippejahren fehlen.

Bild 4 DIVI-Intensivregister Screenshot vom 11.01.2021

Bild 5 DIVI-Intensivregister. Screenshot vom 11.01.2021

Allerdings zeigt das DIVI, warum die Krankenhäuser so überlastet sind: Nicht die Anzahl der belegten Intensivbetten hat zugenommen, sondern deren Reserve wurde abgebaut. Ein Teil davon dürfte wohl auf Personalmangel zurückzuführen sein.

Bild 6 DIVI-Intensivregister. Screenshot vom 11.01.2021

Übersterblichkeit

Reiht man die Sterbedaten Deutschland (Bild 1) hintereinander, ergibt sich das folgende Verlaufsbild (Bild 7). Allerdings lässt sich daraus keine eindeutige Aussage zur Übersterblichkeit ableiten. Deshalb im Folgebild (Bild 8) ein Jahresvergleich.

Bild 7 Deutschland, Sterbezahlen von 2016 – 2020. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Bis zur KW 50 war das „Coronajahr“ 2020 in der Jahres-Sterbesumme nicht schlimmer, als das Grippejahr 2018.

Bild 8 Deutschland, Sterbezahlen von 1.2016 – 2020. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Erst am Jahresende (die noch fehlende Kalenderwoche hochgerechnet mit dem Wert der KW 51) sieht man, dass das „Coronajahr“ 2020 in der Jahres-Sterbesumme der letzten fünf Jahre ganz leicht am Höchsten liegt (siehe dazu Bild 21 mit den tabellierten Werten).

Wegen der 1,53 %, bzw. 14.589 im Jahr 2020 mehr als im Grippejahr 2018 verstorbene Personen,
oder anteilig zur Gesamtbevölkerung 0,016 % Corona-„Überverstorbenen“,
sind unsere Politiker der festen Überzeugung, Deutschland und das gesamte öffentliche Leben ruinieren zu müssen (und es zu dürfen).

Bild 9 Deutschland, Todesursachen. Bild vom Autor bei den „Frauen“ um den Coronaanteil von ca. 3,3 % ergänzt. Quelle: WIKIPEDIA

Mit dem folgenden Bild der Jahresmortalität seit 1920 nochmals eine Darstellung, wie das angeblich so schlimme Coronajahr 2020 wirklich einzuordnen ist.
Damit sieht man die völlig unspektakuläre Sterberate des Jahres 2020 – die nun jedes Jahr alleine aufgrund des Sterblichkeitstrends ob „mit oder ohne Corona“ eintreffen wird.

Bild 10 Deutschland, relative, jährliche Sterbezahlen seit 1950. Fehlender Wert 2020 KW 52 vom Autor mit den Daten KW 51 ersetzt und ab 2016 korrigierte Daten. Grafik vom Autor erstellt. Datenquelle: destatis.de (verlinkt über das Statistische Bundesamt)

Es stellt sich somit die Frage, warum Herr Söder nur bei den anteilig ca. 3 % Corona-Verstorbenen jedes Mal einen „Stich ins Herz“ bekommt und „um jedes Leben kämpft“, wo es parallel noch 96,7 % aus anderen Gründen Verstorbene gibt, die sicher nicht weniger „Wert“ sind als Corona-Opfer und bei denen er sich auch „bewähren“ könnte.
WELT DE: Corona live: Markus Söder fordert längeren und härteren Lockdown – WELT:
Panorama 09.01.2021 Markus Söder fordert längeren und härteren Lockdown: Söder sagte … Die wahren Opfer seien aber die fast 40.000 Toten im Zusammenhang mit dem Virus. „Es ist jedes Mal ein kleiner Stich ins Herz.“ Um jedes Leben werde gekämpft, versprach Söder. „Jeder Tag ist eine neue Bewährungsprobe.“

Und obwohl trotz Lockdown die Inzidenzwerte stetig nur weiter steigen (Bild 3) – aber als fast alleiniges Reverenz-Maß genommen werden – wird diese sich als nicht zielführend zeigende Maßnahme immer verbissener weitergeführt.

Bild 11

MSN 14.01.2020: Merkel: Deutschland droht Horror-Szenario wegen Corona-Mutation
Nach Ansicht von Bundeskanzlerin Angela Merkel droht Deutschland aufgrund der in Großbritannien aufgetauchten Corona-Mutation ein Horror-Szenario … Bundeskanzlerin Angela Merkel denkt bereits über eine Lockdown-Verlängerung bis Ostern 2021 nach …

Bild 12

Tichys Einblick, 14.01.2020: GEGEN JEDE REALITÄT Die Bundesregierung plant wohl noch schärferen Einheitslockdown
… Der Knaller: Die Bundeskanzlerin persönlich forciert wohl eine Verschärfung. Wie die Bild berichtet, will sie möglicherweise am 20. Januar eine Ministerpräsidentenrunde einberufen und die Maßnahmen im Land verschärfen und vereinheitlichen. „mega-Lockdown“ nennt die Bild-Zeitung das. Unter anderem sind wohl die Schließung der öffentlichen Nahverkehrs und Ausgangssperren wie etwa in Frankreich in der Diskussion.
Die Begründung? Die mutierten Viren aus Großbritannien und Südafrika. Eine wissenschaftliche Evidenz, dass diese Mutation in irgendeiner Weise schlimmer ist gibt es nicht.

Stimmt B. Palmers „Altersansage“?

B. Palmer: Das Durchschnittsalter der Toten steigt immer weiter an. Mittlerweile sind wir deutlich jenseits der 80.

In einem Podcast des Prof. Nieden vom Statistischen Bundesamt wird diese wichtige Aussage ebenfalls getätigt. Doch stammt dieser Podcast noch aus der ersten „Welle“.
Deshalb anbei eine Sichtung, ob diese Aussage wirklich noch aktuell ist. Stimmt sie immer noch, ist es der Beleg, dass die „Schrotflintenpolitik“ und Wegsperren aller Jüngeren im bisherigen und dem aktuellen Lockdown barer Unsinn ist und gezieltes Schützen der Problem-Altersgruppe viel effektiver – und mit Sicherheit auch viel, viel billiger – wäre.

Schon eine erste, einfache Sichtung der Sterbezahlen dieser Altersgruppe zeigt, wie recht Herr Palmer hat: Die Altersgruppe bis 80 hat auch derzeit keine höhere Mortalität als in einem „kleinen“ Grippejahr und in der Jahressumme zu den vergangenen fünf Jahren sogar die niedrigste.

Bild 13 Deutschland, Sterbezahlen von 2016 – 2020 für die Altersgruppen unter-/über 80 Jahre. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Die Jahressummen der Sterbezahlen dieser zwei Altersgruppen zeigen zusätzlich, dass die Gruppe bis 80 Jahre auch mit Covid überhaupt keine erhöhte Sterblichkeit aufweist.

Bild 14 Deutschland, Sterbezahlen Jahreswerte von 2016 – 2020 für die Altersgruppen unter-/über 80 Jahre. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Vorsichtshalber die gleiche Sichtung mit der Altersgruppe von 70 – 80 Jahren. Beide Grafiken zeigen, dass nicht einmal die Altersgruppe von 70 bis 80 Jahren – die auch als Hoch-Risikogruppe angegeben ist – durch Corona eine wirkliche Übersterblichkeit aufweist.

Bild 15 Deutschland, Sterbezahlen von 2016 – 2020 für die Altersgruppen 70 – 80 Jahre/über 80 Jahre. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Bild 16 Deutschland, Sterbezahlen Jahreswerte von 2016 – 2020 für die Altersgruppen 70 – 80 /über 80 Jahre. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Nun noch die Meldung der Helios-Klinikgruppe zu Corona. Während nach vielen Berichten die Kliniken „überlaufen“, ist die Helios-Klinikgruppe inzwischen weniger belastet und weist gegenüber dem Vorjahr über alle Zeiträume eine erhebliche Unterauslastung auf.

Bild 17 Helios-Kliniken. Bericht 11. Januar 2021

Tübingen, die Stadt des GRÜNEN „Querdenkers“

Herr Söder (und die ganze Berliner Polit-Schickeria) täten gut daran, sich endlich zu informieren, wie (einzelne Länder im Ausland, in Deutschland allerdings anscheinend nur) Tübingen „Coronawunder“ vollbringt.

Weiterhin sind für die Stadt Tübingen im WEB keine Zahlen zu Corona zu finden. Deshalb muss zur Darstellung des „Tübinger Coronaweges“ weiterhin auf die Daten der Universitäsklinik Tübingen als Stichprobe ausgewichen werden (in [2] im Detail ausgeführt und erklärt).

Anbei die aktuellen Coronadaten der Klinik (Bild 19) zum Vergleich mit den Corona-Deutschlandwerten (Bild 18). Auch wenn die Werte inhaltlich nicht direkt vergleichbar sind, haben die Verläufe eine erhebliche, relative Signifikanz. Und diese zeigen weiterhin, dass in Tübingen durch Palmers einfache Maßnahmen – konsequenter Schutz der Personen über 80 Jahre – noch weit vor dem ersten Impfen, das Verhalten der Wellen Eins und Zwei umgedreht werden konnten.
Davon ist der Rest von Deutschland mit Merkels „alternativlosen“ Maßnahmen und Herrn Söders markig-arroganten Sprüchen immer noch meilenweit entfernt, eher ist überhaupt kein Weg dorthin erkennbar.

Bild 18 Deutschland Coronadaten 2020 (Tageswerte)

Bild 19.1 Uniklinik Tübingen. Behandlungsdaten Corona-Patienten 2020 (vom Autor aus deren liebloser Homepagehinterlegung mühsam abgetippt und grafisch umgesetzt)

Ein Land kaputt zu machen ist immer einfacher, als es mit Bedacht zu regieren

Es scheint sich inzwischen eine echte Manie mit einem Wettbewerb entwickelt zu haben, alleine beim nutzlosen Weg des immer härteren und immer längeren Lockdown zu bleiben und andere Wege aus Prinzip nicht in Erwägung zu ziehen. Streng nach der in Deutschland bisher gängigen Regel, einen Feind – egal wie übermächtig er sei – grundsätzlich (bis zum bittersten Ende) versuchen zu vernichten, auch wenn es das eigene (Über-)Leben kostet, anstelle ihn zu akzeptieren und mit ihm zu kooperieren (Anm.: Nur wo es um die eigenen Fleischtöpfe geht – wie in den politischen Einheitsmeinungs-Parteien – wird davon abgewichen). Der Berliner „Tagesspiegel“ zeigt es symptomatisch:
Tagesspiegel 11.01.2020: Corona-Bekämpfung sollte verschärft werden: Die neue Mutante ist schnell – wir müssen schneller sein

Und damit reiht sich die aktuelle Pandemiebekämpfung Deutschlands nahtlos in der unfehlbaren Merkels „Alternativlosigkeiten“ ein, öfters optische Bilder (Fukushima, von Greenpeace gelbrot eingefärbte Wasserdampfwolken von Kohlekraftwerken, Kinder an der Grenze, Särge in Bergamo) zum Anlass ihres Handelns zu nehmen.

Die Särge von Bergamo

Die erschütternden Bilder Anfang des letzten Jahres aus Bergamo mit von einem Militärlastwagen-Konvoi auf offenen Ladeflächen abtransportierten Särgen sagen etwas vollkommen anderes aus, als es den deutschen Bürgern von der Politik und den Medien weisgemacht wurde, wurde in deutschen Medien und seitens der Politik (nach Meinung des Autors) nie richtiggestellt:
[3] THE EUROPEAN 14.05.2020: Italiens Pandemie-Gesetz und seine Folgen
… Ein wunderbares Beispiel der Wirkung gesetzlicher Logik. Die zentrale Norm dazu ist das italienische Pandemie-Gesetz, das vorschreibt, dass an einem Pandemie-Virus Verstorbene nicht beerdigt werden dürfen, sondern verbrannt werden müssen. Wer Italien kennt …, weiß wie gut-katholisch sie sind … und hat … die richtige Assoziation von den landesweit üblichen, traditionellen Beerdigungszeremonien.
… dass die Zahl der in Italien sehr selten genutzten Krematorien nicht ausreicht, um plötzlich alle Verstorbenen zu verbrennen … Jawohl alle! … die Folge der zwingenden, gesetzlichen Angst-Vorschrift: Die Särge durften nicht abgeholt werden, sie stapelten sich vor den Krankenhäusern und wurden nicht wie sonst üblich, Stück für Stück einzeln auf die Dörfer und zu den Kirchen transportiert. Am Ende lagerten so viele übelriechende Särge vor den Krankenhäusern, dass man in dieser Notlage das Militär und seine Lagerkapazitäten einsetzen musste. Was bei diesen Einsätzen produziert wurde, waren wunderbare, bewegte und bewegende TV-Bilder, die die Welt erschreckten.
… Aber das Ganze hatte noch einen gesetzlichen Verstärker … jedenfalls ist es … nach den in ganz Italien geltenden Vorschriften nur sehr schwer möglich, als Kranker von einem Krankenhaus in ein anderes verlegt zu werden. Diese strenge Regel bewirkte, dass die Krankenhäuser im Süden Italiens leer waren und die Krankenhäuser im verdichteten italienischen Norden teilweise übervoll.
Auch diese gesetzliche Vorschrift verstärkte die Sichtbarkeit der Todesfälle, denn eine bessere Verteilung innerhalb des Landes hätte auch sonst die Berichterstattung entzerrt. Die Bilder von der geballten Ladung überlasteter Krankenhäuser im Norden Italiens … beflügelte die Angstmacherei unserer Mainstream-Medien.
… Dass diese Erkenntnisse bislang nicht aufgedeckt wurden, ist deshalb eine der schlimmsten Journalismus-Versagen unserer Zeit. Und die Drohung wirkt immer noch, Tag für Tag: Ja nicht zu schnell öffnen, sonst könnten wir unsere Erfolge wieder aufs Spiel setzen, verlautet es vom Kanzlerinnen-Thron. Von welchen Erfolgen redet sie denn bitte?

Übersterblichkeit

Auf die Rede des Herrn Söder mit dem „täglichen Corona-Flugzeugabsturz“ und der Erklärung hoher Übersterblichkeit durch Corona fragte der Autor über die Bayerischen Servicestelle beim Bayerischen Staatsministerium für Gesundheit und Pflege nach Belegen für die vom Ministerpräsidenten angegebene Übersterblichkeit nach.
Nach Mahnungen und längerer Wartezeit kam eine Antwort. Darin wird richtig informiert, dass eine „Übersterblichkeit“ nur zeitweise bestand und sich diese am Jahresende wahrscheinlich ausmittelt. Die Übersterblichkeit durch eine Pandemie wird am Wert des Vorjahres (und nicht denen ähnlicher Jahre mit Grippewellen) „festgemacht“. Weiter wird mitgeteilt, dass Deutschland eigentlich gar nicht „so schlimm“ betroffen ist, man sich aber am Ausland orientiert:
Ministerium, Antwort: … Nach Prof. Felix zur Nieden haben sich die Sterbezahlen erhöht.
„Im Frühjahr hatten wir im April zum Beispiel eine Erhöhung um zehn Prozent im Vergleich zum Durchschnitt der Vorjahre“, so zur Nieden. „Und auch regional ist es eben immer genau da auffällig, wo auch die höchsten Covid-19-Inzidenzen und Todesfallzahlen [zu finden sind].“ Das sei etwa in der ersten Welle in Bayern und Baden-Württemberg so gewesen. Laut zur Nieden lagen die Sterbefallzahlen in der Spitze dort um fast 30 Prozent über dem Vorjahresdurchschnitt.“
Nach einer Entspannung im April wurden Ende November und Dezember eine Anhäufung registriert.
Wahrscheinlich gleicht sich aber im Jahresvergleich die Rate der Übersterblichkeit aus. Zieht man jedoch einen europäischen Vergleich so ist eine 30 – 40 %ige Erhöhung laut des europäischen Projektes EuroMOMO zu verzeichnen. Dieses zeigt auf, dass der bisherige Weg der Regierung unser Land mit den verhängten Maßnahmen vor Schlimmeren bewahrt hat.

Prof. Nieden findet sich beim Statistischen Bundesamt. Von ihm ist auf der Homepage des Statistischen Bundesamtes ein Podcast „Podcast mit Dr. Felix zur Nieden, Experte für Sterbefallzahlen im Statistischen Bundesamt.“ hinterlegt.“
Darin führt er bezüglich der Ermittlung der Corona-Übersterblichkeit aus: … Übersterblichkeit bestand ausschließlich in Bayern und Baden-Württemberg. Andere Bundesländer waren kaum oder gar nicht betroffen. Wenn man sich das Ganze bezüglich der Altersstruktur ansieht, dann waren es vor allem die über 80jährigen, die davon betroffen waren. Da lagen die Zahlen teilweise 20 % über dem Vorjahresdurchschnitt. Wegen der zunehmenden Alterspyramide betrug deren Übersterblichkeit allerdings auch nur ca. 10 %.
Zudem definiert er in seinem Podcast die Übersterblichkeit (wie es die Bayerische Landesregierung übernommen hat): Übersterblichkeit liegt vor, sobald die Zahl der Sterbefälle im Krisenzeitraum über der des Vorkrisenniveaus liegt. Zufügung: Oder höher ist als im Vorjahr.

Bild 20 Deutschland, Sterbezahlen von 2016 – 2020 (fehlende KW 52 mit dem Wert der KW 51 gefüllt). Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Herr Prof. Nieden definiert Corona-Übersterblichkeit also nicht, indem er ein Pandemiejahr mit ähnlichen (Grippejahren) der Vergangenheit vergleicht und prüft, ob es aktuell signifikant „schlimmer“ oder „nicht so schlimm“ ist, sondern vergleicht einfach mit dem vorhergehenden Jahr.

Wie herrlich sich bei solchen Definitionen „Aussagen“ alleine über die letzten fünf Jahre generieren lassen anbei:
In den letzten fünf Jahren hatten:
– drei Jahre eine Übersterblichkeit (gegenüber dem Vorjahr),
– zwei Jahre eine Übersterblichkeit gegenüber dem Mittelwert

Bild 21 Deutschland, Jahreswerte Verstorbene gesamt der letzten 5 Jahre (Jahr 2020 hochgerechnet). Daten vom Statistischen Bundesamt

Mit der Definition des Prof. Nieden hätte die Politik somit schon die letzten fünf Jahre mehrmals „pandemisch“ tätig sein müssen. Hat sie aber nicht im Entferntesten getan. Was zeigt, dass es ihr diesmal im Kern eher um ein selbst aufgestelltes „Exempel“ und nicht um wirkliche, langfristig sinnvolle Pandemiebewältigung geht. Wobei sich eine Generalfestlegung stellt: Ab welcher deklarierten Übersterblichkeit hat die Politik nun vor, Deutschland jedes Mal konsequent „plattzumachen“?

Mit der Festlegung der Übersterblichkeit von Herrn Prof. Nieden sei nun geprüft, was diese für Auswirkungen auf das politische Handeln haben müsste. Dazu ein Hinweis. beim Statistischen Bundesamt finden sich Tabellen mit den Sterbezahlen seit 1950 und 1990, sowie eine Sonderauswertung „Sterbefälle – Fallzahlen nach Tagen, Wochen, Monaten ,,, Deutschland 2016 – 2020“. Zwischen beiden unterscheiden sich die Sterbezahlen etwas. Der Autor hat deshalb in allen entsprechenden Grafiken bis 2015 die Werte der Langzeittabellen und ab 2016 die der Sonderauswertung verwendet.

Bild 10 zeigt, dass die Sterblichkeit seit 2004 in Deutschland stetig ansteigt. Zieht man die Sterbewerte ab 2004 heraus, sieht man es deutlich als Trend:

Bild 22 Sterbefälle je 1000 Einwohner (Sterberate) seit 2004. Grafik vom Autor erstellt. Datenquelle: destatis

Daraus lässt sich ableiten:
– die Festlegung der Übersterblichkeit als Differenz zum Vorjahreswert ist barer Unsinn,
– die Corona- „Übersterblichkeit“ des Jahres 2020 kann genau so gut aus einem „natürlichen“ Trend der Sterberaten-Erhöhung erklärt werden und wird in Zukunft häufiger geschehen.

Als Basis für politische Maßnahmen bis hin zur Zerstörung Deutschlands ist diese Definition somit vollkommen ungeeignet.
Das folgende Bild mit den gleichen Werten in anderer Darstellung verdeutlicht es zusätzlich, weil es ausweist, wie oft die angeblich so schlimme Corona-Übersterblichkeit bereits vorgekommen ist (und nie zu besonderen Maßnahmen geführt hat).


Bild 23 Differenz zum Vorjahreswert der Sterberate seit 1950. Grafik vom Autor erstellt

Bild 24 Differenz zum Vorjahreswert der Sterberate, aber nur Jahre mit positiven Differenzwerten zum Vorjahr, also einer „Übersterblichkeit“. Grafik vom Autor erstellt

Nach der Übersterblichkeitsdefinition des Statistischen Bundesamtes hätten und müssen in Zukunft unsere Politiker regelmäßig Lockdowns mit allen Folgen und Kosten einleiten, wie es die Bilder mit den Vorjahresdifferenzen zeigen. Dass sie es bisher trotz „eindeutiger“, statistischer Vorgaben früher nicht getan haben, sagt aus, dass die Definition wohl nur „aus dem Hut gezaubert“ wurde, um die Lockdown-Maßnahmen nachträglich (pseudo-)„wissenschaftlich“ zu belegen.

Würden es die Politiker mit dieser Definition wirklich ernst meinen, bekämen sie ein immer größeres Lockdown-Zukunftsproblem.

Bild 25 Differenz zum Vorjahreswert der Sterberate seit 2004 (Ausschnitt aus Bild 24), aber nur Jahre mit positiven Differenzwerten zum Vorjahr, also einer „Übersterblichkeit“. Grafik vom Autor erstellt

Zum Thema passend:
[5] Achgut 14.01.2021: Fallender Grenznutzen, steigende politische Dummheit
[4] Tichys Einblick 11. Januar 2021: Corona-Versagen: Dreht die Politik jetzt durch?
… Immer lauter, immer schriller, immer dümmer: Wenn man der Politik zuhört, kann einem Angst und Bange werden. Nicht vor dem Virus, sondern angesichts der Unfähigkeit, eigene Fehler einzuräumen und zu korrigieren.

Tichys Einblick, 15.01.2021: „Illegaler Kindergeburtstag“ – Medien und Polizei im Dauereinsatz gegen Bürger

Abschließend zur Frage: Warum immer wieder Corona? – Weil die Verdummung der Bürger und das Vorgehen der Politik – und nun der auf diesen Zug aufspringenden NGOs – eine direkte Äquivalenz zum Klimawandel darstellt (rein persönliche Überzeugung des Autors die wissenschaftlich nicht belegt ist).

Und die Akteure sind auch schon die Gleichen:
WELT 14.01.2020: Initiative will Europas Wirtschaft komplett runterfahren – bis null Neuinfektionen
Eine Initiative von Wissenschaftlern, Aktivisten und Gesundheitspersonal fordert angesichts der Corona-Krise ein europaweites Herunterfahren auch für die Wirtschaft.
„Die Initiative hält die bisherigen Versuche, die Pandemie zu kontrollieren, für gescheitert“, hieß es in dem Aufruf. Die Maßnahmen schränkten das Leben dauerhaft ein und hätten dennoch Millionen Infektionen und Zehntausende Tote gebracht. Durch Mutationen breite sich das Virus nun noch schneller aus. Die Infektionszahlen auf null zu drücken sei Voraussetzung, um die Krise bewältigen zu können.
Zu den Erstunterzeichnern gehören nach Angaben der Initiative etwa die Klimaaktivistin Luisa Neubauer, die Autorinnen Margarete Stokowski und Teresa Bücker sowie der Sea-Watch-Aktivist Ruben Neugebauer.

Quellen

[1] THE EUROPEAN 09.01.2021: Der Rückgang der Zahlen durch den Lockdown fällt nicht sehr beeindruckend aus

[2] EIKE 11.12.2020: Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterblichkeit“ zu finden

[3] THE EUROPEAN 14.05.2020: Italiens Pandemie-Gesetz und seine Folgen

[4] Tichys Einblick 11. Januar 2021: Corona-Versagen: Dreht die Politik jetzt durch?

[5] Achgut 14.01.2021: Fallender Grenznutzen, steigende politische Dummheit

 




Freie Rede? Kann man vergessen!

Hier sind die neuesten „Nachrichten“: David Legates und Ryan Maue, Wissenschaftler im White House Office of Science and Technology Policy, wurden aus dem Weißen Haus versetzt und der National Oceanic and Atmospheric Administration (NOAA) zugewiesen, wo sie zuvor beschäftigt waren.

Was haben sie getan, um auf diese Weise degradiert zu werden?

Sie veröffentlichten, was die New York Times CERES als „widerlegte wissenschaftliche Berichte“ bezeichnete, auf einer „Klimaleugner“-Website (die von einer privaten Forschungsgruppe, dem Center for Environmental Research and Earth Sciences gesponsert wird). Sie taten dies ohne die Zustimmung von Kelvin Droegemeier, dem Leiter des Büros für Wissenschaft und Technologie.

Seltsamerweise erfuhr Droegemeier erst durch die Medien von dem Posting.

Die Times schrieb über die Aktion: „Der Schachzug schien ein schurkischer Versuch zu sein, die Unterschrift der US-Regierung unter eine Forschung zu setzen, die darauf abzielt, die etablierte Wissenschaft des Klimawandels zu untergraben.“

Schurkisch? Bis zum 12. Januar war David Legates Leiter des US-Forschungsprogramms für globalen Wandel, und die Beiträge handelten vom globalen Klimawandel. Vielleicht war das Ziel, die Öffentlichkeit mit einigen Forschungsergebnissen zu versorgen, die eine Alternative zu den apokalyptischen Behauptungen bieten, die jetzt ungenau als „etablierte“ Wissenschaft bezeichnet werden? („Etablierte“ Wissenschaft, jawohl.)

Schauen wir uns einige Formulierungen an, welche die Times in diesem angeblichen Nachrichtenbeitrag verwendet hat:

Sie spielte die Qualifikationen herunter. Legates wurde als „ein Klima-Leugner im vergangenen Jahr von der Trump-Administration installiert, um die wissenschaftliche Arbeit über den Klimawandel zu überwachen.“ Tatsächlich ist er ein Professor in der Abteilung für Geographie und Raumwissenschaften und dem Physical Ocean Science and Engineering Program in der School of Marine Science and Policy an der University of Delaware, die jetzt mit der NOAA und dem Weißen Haus zusammenarbeitet. Er ist ein Klimatologe.

Roy Spencer wird als ebenfalls als „Klimaleugner“ bezeichnet. Tatsächlich ist er Leiter des US-Wissenschaftsteams für das Advanced Microwave Scanning Radiometer (auf dem Aqua-Satelliten der NASA) sowie leitender Forscher an der University of Alabama in Huntsville (UAH) und Meteorologe.

William Happer bekam nicht nur eine allgemeine Beschreibung, sondern seine Erkenntnisse spielten die zweite Geige bei dem Versuch der Times, ihn extrem klingen zu lassen. Er ist „ein Physiker, der die Dämonisierung von Kohlendioxid mit der ‚Dämonisierung der armen Juden unter Hitler‚ verglichen hat.“ Tatsächlich ist er Cyrus Fogg Brackett-Professor für Physik, emeritiert, in Princeton.

Ein wenig mehr Hintergrund: die „widerlegten Berichte“ waren als Broschüren gedacht, so CERES, die man als Reaktion auf „eine Reihe von ‚Hit Piece‘-Artikeln in den Medien“ von seiner Website genommen hat. CERES hat die Dateien fallen gelassen, gleichzeitig aber auch versucht, das Projekt zu erklären.

Die ursprüngliche Version dieser Webseite wurde ursprünglich als ein temporäres „Spiegel“-Archiv einer Sammlung von 10 pdf-Dateien von einer Reihe von Forschern gepostet, darunter ein pdf von CERES. Es wurde kein Kontext zur Verfügung gestellt, da der ursprüngliche Zweck lediglich der Austausch per E-Mail mit einigen Kollegen war. Die Webseite sollte einen einfachen Zugriff auf die Dateien zu Diskussionszwecken ermöglichen. Angesichts des großen Medieninteresses, das dies hervorgerufen hat, haben wir diese Webseite jedoch aktualisiert, um zusätzliche Informationen bereitzustellen.“

Nachdem die PDFs eine Zeitlang nicht verfügbar waren, findet man sie jetzt auf ClimateRealism.com.

[First posted at the Liberty and Ecology Blog.]

Link: https://www.heartland.org/news-opinion/news/free-speech-forget-it

Übersetzt von Chris Frey EIKE




Green New Deal: Ideologie, Phantaste­reien und Realitäten

Doch stattdessen verschwören sich Big Media und Big Tech mit den Demokraten, den Grünen, der innerstaatlichen Gewalt und anderen autoritären Elementen, um jede Diskussion von jedem zu unterbinden, der ihre Klima- und Energieagenda nicht unterstützt. Wut und Frustration bauen sich unter den zunehmend entrechteten Menschen auf. Unsere Zukunft ist in der Tat beunruhigend.

Joe Biden, Kamala Harris, AOC, die Demokratische Partei und US-Umweltschützer wollen den Klimawandel, den Green New Deal (GND) und den Ersatz fossiler Brennstoffe durch Wind-, Solar-, Batterie- und Biokraftstoffenergie zum Kernstück ihrer Außen- und Innenpolitik machen.

Sie behaupten, der Übergang wäre einfach, erschwinglich, ökologisch, nachhaltig und schmerzlos. Das ist Ideologie und Fantasie, nicht Realität.

Wind und Sonne sind sicherlich sauber und erneuerbar. Sie zu nutzen, um Amerika anzutreiben, ist es nicht.

Der GND würde amerikanische Familien, Arbeitsplätze, den Lebensstandard und die Umwelt hart treffen. Die westlichen US-Bundesstaaten würden die Hauptlast zu spüren bekommen, weil ihre Steuereinnahmen über fossile Brennstoffe, Lizenzgebühren, Arbeitsplätze und Steuereinnahmen verschwinden würden, wenn Bohrungen, Fracking und Kohleabbau auf öffentlichen Ländereien eingestellt werden. Ihre Freiflächen, landschaftlichen Ausblicke, Lebensräume für Wildtiere und die Tierwelt würden durch Windturbinen, Solarpaneele und Übertragungsleitungen entwertet werden, um weit entfernte städtische Wohnblöcke zu bedienen, die Energie- und Landnutzungsentscheidungen weit über die Stadtgrenzen hinaus diktieren.

[Hervorhebung im Original]

Kohle, Öl, Erdgas und Petroleumflüssigkeiten liefern immer noch 80 % der US-Energie. Im Jahr 2018 erzeugten sie 2,7 Milliarden Megawattstunden (MWh) Strom – die im Rahmen eines allumfassenden Green New Deal, der zig Billionen Dollar kosten würde, ersetzt werden müssten.

Weitere 2,7 Milliarden MWh Erdgas versorgten Fabriken, Notstromanlagen sowie Öfen, Herde und Warmwasserbereiter in Restaurants, Wohnungen und anderen Gebäuden. Autos, Lastwagen, Busse, Sattelschlepper, Traktoren und andere Fahrzeuge verbrauchten das Äquivalent von weiteren 2 Milliarden MWh.

Insgesamt sind das 7,4 Milliarden Megawattstunden pro Jahr, die der GND ersetzen müsste! Darüber hinaus bräuchten wir mindestens weitere 150 Millionen MWh an Wind- und Solarstrom-Erzeugungskapazität, um die Batterien immer wieder aufzuladen, um nur eine Woche lang eine landesweite Notstromversorgung aufrechtzuerhalten und/oder um Blackouts zu vermeiden.

Je mehr wir versuchen, dies zu tun, desto mehr müssten wir Turbinen und Paneele an Standorten errichten mit geringer Wind- und Solarausbeute. Dort erzeugen sie nur 15-20% des Jahres Strom, 80-85% unter der „Nennleistung“.

Natürlich könnten wir all diese fossile Energie durch Kernkraft ersetzen. Aber radikale Grüne innerhalb und außerhalb der baldigen Biden-Regierung verabscheuen und lehnen Atomkraft genauso ab wie fossile Brennstoffe.

Es würde die größte Ausweitung von Bergbau und Produktion in der Geschichte der Menschheit erfordern.

[Hervorhebung im Original]

Das bedeutet, dass diese Transformation zu einer rein elektrischen Nation Millionen von Onshore-Windturbinen, Tausende von Offshore-Turbinen, Milliarden von Solarmodulen, Millionen von Fahrzeugbatteriemodulen, Milliarden von Backup-Energiespeichermodulen, Tausende von Kilometern neuer Übertragungsleitungen, Millionen von Ladestationen, zig Milliarden Tonnen Beton, Stahl, Kupfer, Kunststoff, Kobalt, Seltene Erden und unzählige andere Materialien erfordern würde – und das Ausgraben Hunderter Milliarden Tonnen Abraum und Erzen!

Falls die USA und die Welt den Willen aufbringen könnten, genügend Metalle und Mineralien abzubauen, zu verarbeiten und zu schmelzen – und all diese Turbinen, Paneele, Batterien und Übertragungsleitungen herzustellen, zu transportieren und zu installieren – würde der GND die größte Ausweitung von Bergbau und Fertigung in der Geschichte der Menschheit erfordern.

Aber radikale Grüne innerhalb und außerhalb der Biden-Regierung verabscheuen und bekämpfen den Bergbau und die Produktion in den USA fast so sehr, wie sie fossile Brennstoffe verachten. Das bedeutet, dass wir für diese essentiellen Metalle und Mineralien nach Übersee gehen müssten – in erster Linie nach China und Russland, die sie innerhalb ihrer Grenzen oder unter ihrer Kontrolle in verschiedenen afrikanischen, asiatischen und lateinamerikanischen Nationen abbauen.

Sie haben auch keine Vorbehalte oder Bedenken, sie auszugraben und zu verarbeiten – ohne Rücksicht auf Kinder-, Sklaven- oder Zwangsarbeit, Sicherheit am Arbeitsplatz, Luft- und Wasserverschmutzung, Rekultivierung des abgebauten Landes oder andere Standards, auf die wir in Amerika bestehen. Und es ist höchst unwahrscheinlich, dass ein Team Biden verlangen würde, dass diese Länder solche Standards umsetzen – oder dass es sich weigern würde, die Metalle, Mineralien und fertigen „grünen“ Technologien zu importieren, solange China, Russland und ihre ausländischen Tochtergesellschaften sich nicht an unsere Regeln und Vorschriften halten. Der gesamte GND (und vieles mehr) würde ohne diese unethisch gewonnenen Rohstoffe zusammenbrechen.

Darüber hinaus würden fast alle diese Bergbau-, Verarbeitungs- und Herstellungsprozesse Benzin, Diesel, Erdgas und Kohle in diesen fremden Ländern benötigen, da diese Operationen nicht mit Wind-, Solar- und Batteriestrom durchgeführt werden können. Die Nutzung fossiler Brennstoffe und die Emissionen würden außerhalb der USA stattfinden, aber nicht verschwinden. In der Tat würden sie sich wahrscheinlich verdoppeln oder verdreifachen. Die Kohlendioxid-Emissionen würden das globale atmosphärische Niveau erhöhen und – Team Biden besteht darauf – Klima-Chaos und Extremwetter verschlimmern.

Tatsächlich findet der größte Teil des Abbaus, der Verarbeitung und der Herstellung von Wind-, Solar- und Batteriewerken bereits in Übersee statt, unter wenigen oder gar nicht existierenden Gesetzen zur Arbeitssicherheit, zu fairen Löhnen, Kinderarbeit und Umweltschutz. Etwa 40.000 kongolesische Kinder schuften neben ihren Eltern für ein paar Dollar am Tag, während sie ständig giftigem, radioaktivem Schlamm, Staub, Wasser und Luft ausgesetzt sind, um den heutigen Kobaltbedarf zu decken. Man stelle sich die GND-Kosten vor.

Um Öl und Gas für Petrochemikalien, Pharmazeutika und Kunststoffe zu ersetzen, müssten diese Rohstoffe ebenfalls importiert werden – oder es müssten Millionen von Hektar mit Raps, Sojabohnen und anderen Biokraftstoffpflanzen bepflanzt werden. Der Bedarf an Wasser, Dünger, Pestiziden, Traktoren, Erntemaschinen, Verarbeitung und Transport wäre astronomisch.

All diese Arbeiten und Industrieanlagen würden Hunderte Millionen Hektar landschaftlicher Gebiete, Anbauflächen und Lebensräume für Wildtiere beeinträchtigen. Raubvögel, andere Vögel, Fledermäuse, Wald-, Grasland- und Wüstenbewohner würden erhebliche Verluste erleiden oder zum Aussterben verurteilt werden.

Die meisten dieser Auswirkungen würden auch im Mittleren Westen und Westen Amerikas auftreten, weit entfernt von den Wahlzentren und verdächtigem Wahl verhalten, die Team Biden ins Amt gebracht haben. Aber wie man so schön sagt: Aus den Augen, aus dem Sinn – in den Hinterhöfen der anderen.

Der GND würde auch bedeuten, dass perfekt funktionierende Erdgasgeräte herausgerissen und durch Elektromodelle ersetzt werden müssten, dass Schnellladesysteme für Fahrzeuge installiert werden müssten und dass die elektrischen Systeme der Haushalte, der Nachbarschaft und des Landes aufgerüstet werden müssten, um die zusätzlichen Lasten zu bewältigen – was weitere Billionen Dollar kosten würde.

Die Stromkosten würden sich verdoppeln, verdreifachen, vervierfachen – oder viel schlimmer

Familien, Fabriken, Krankenhäuser, Schulen und Unternehmen, die gewohnt sind, 7-11 Cent pro Kilowattstunde für Strom zu bezahlen, würden 14-22 Cent pro kWh zahlen, wie sie es bereits in „grünen“ US-Bundesstaaten tun – oder sogar die 35 Cent, die Haushalte derzeit in Deutschland zahlen. Sobald sie mehr als eine willkürlich festgesetzte „maximale Grundmenge“ Strom pro Monat verbrauchen, werden sie eher 45¢ pro kWh bezahlen, wie es Familien in Kalifornien bereits tun.

[Hervorhebung vom Übersetzer]

Wie Unternehmen überleben werden, wie viele Arbeitsplätze verschwinden werden, wie viele Familien sich in die Riege derer einreihen werden, die zwischen Heizung und Essen wählen müssen – das weiß niemand.

GND-Technologien sind zu fast 100 % abhängig von Metallen und Mineralien aus China, Russland, der Ukraine und chinesischen Unternehmen in Afrika und Lateinamerika. E-Mails aus Hunter Bidens Laptop unterstreichen die Bedenken, dass Amerikas Außen-, Verteidigungs- und Innenpolitik in Geiselhaft genommen würde, während bestimmte gut vernetzte Politiker, Familien und Wind-, Solar-, Batterie- und Biokraftstoffunternehmen reich werden.

All diese Themen erfordern eine offene, robuste Debatte – die zu viele Schulen und Universitäten, Nachrichten und Soziale Medien, Unternehmens- und politische Führer sowie und Antifa-Schläger und Brandstifter weiterhin zu zensieren und zu verhindern versuchen. Diese Zensur und das Schweigen müssen aufhören, bevor irgendwelche Abstimmungen oder andere Maßnahmen zu einem Grünen New Deal getroffen werden. Leider ist das Gegenteil der Fall.

[Hervorhebung vom Übersetzer]

Big Media und Big Tech verschwören sich mit Demokraten, Grünen und anderen autoritären Elementen, um jedwede Diskussion mit jedem abzuwürgen, der nicht ihre Agenden unterstützen. Andere scheuen keine Mühen, Präsident Trump und jeden mit seiner Regierung und Politik verbundenen Menschen zu verfolgen.

[Hervorhebung im Original]

Da Wut und Frustration unter den zunehmend entrechteten Menschen zunehmen, könnten Amerika und die Welt in der Tat auf eine beängstigende Zukunft zusteuern.

Paul Driessen is senior policy advisor for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books, reports and articles on energy, environmental, climate and human rights issues

Link: https://www.iceagenow.info/green-new-deal-ideologies-fantasies-and-realities/

Übersetzt von Chris Frey EIKE




Corona in Deutschland 2020 : Die Rückkehr der harten Lockdowns, Unter- und Übersterb­lichkeit und der fällige Offenba­rungseid der Corona-Politik

Ebenfalls am 28. Oktober entwickelten auf einer Pressekonferenz der Vorstandsvorsitzende der Kassenärztlichen Bundesvereinigung (KBV) Andreas Gassen gemeinsam mit den Professoren Hendrik Streeck (Bonn) und Jonas Schmidt-Chanasit (Hamburg) ein moderates Gegenmodell zum autoritären Containement-Modell der herrschenden Virologenschule. Seine Kernthesen waren (in wörtlicher Wiedergabe ) :

  • Abkehr von der Eindämmung allein durch Kontaktpersonennachverfolgung.

  • Einführung eines bundesweit einheitlichen Ampelsystems anhand dessen sowohl auf Bundes- als auch auf Kreisebene die aktuelle Lage auf einen Blick erkennbar wird.

  • Fokussierung der Ressourcen auf den spezifischen Schutz der Bevölkerungsgruppen, die ein hohes Risiko für schwere Krankheitsverläufe haben.

  • Gebotskultur an erste Stelle in die Risikokommunkation setzen“

Die letzten beiden Spiegelstriche bedeuten die implizite Absage an das Instrument des Lockdowns.

Während diese Kernthesen vielleicht auch den Beifall von Mitgliedern der „Querdenken“-Bewegung finden könnten, ist dies sicherlich nicht der Fall beim Festhalten der Gruppe an den fünf Corona-Benimmregeln: Maske, Abstand, Hygiene, Lüften und Warn-App.

Hier wäre zu wünschen gewesen, dass die Reformgruppe um KBV-Chef Gassen eine Erklärung dafür gibt, dass die offiziellen Fallzahlen seit Oktober in die Höhe schießen, obwohl das Regime der Corona-Benimmregeln schon Monate zuvor in Kraft getreten ist. Immerhin hatte bereits die Einführung der Maskenpflicht am 22. April d. J. keinen messbaren Effekt gehabt (CIDM. online, 2020, Graphik Aktuelles Corona-Monitoring 2 / 2).

Die Empfehlungen aus Wissenschaft und Ärzteschaft (laut Gassen 200 000 Kassenärzte !) konnten nur für sehr kurze Zeit die mediale Aufmerksamkeit beanspruchen. Als sich immer mehr herausstellte, dass sich die Corona-Fallzahlen nicht dem staatlichen Steuerungsoptimismus fügen wollten und auf relativ hohem Niveau verharrten, ergriff unsere Staatslenker einmal mehr eine Panikattacke. Den Anfang machte wieder einmal MP Markus Söder, der den Vorreiter im Corona-Abwehrkampf gab und am 6. Dezember den Katastrophenfall für Bayern verkündete Im Zuge dessen weitete die Landesregierung die Kontaktbeschränkungen aus und kippte die für Silvester vorgesehenen Lockerungen. Von nun an gab es kein Halten mehr und ein Bundesland nach dem anderen kündigte Verschärfungen an. Dabei war die spektakulärste wohl die Ankündigung eines „harten“ Lockdowns in Sachsen. Dem folgte wenig später MP Günther für SH.

In dem panischen Aktionismus ging der Vorschlag der KBV vollständig unter. Offenbar erfüllte er auch nicht den Begriff von Wissenschaftlichkeit, den Merkel meinte, als sie sich in ihrer Haushaltsrede am 9. Dezember zur Verteidigung ihrer Position härterer Corona-Schutzmaßnahmen ausdrücklich auf die „Wissenschaft“ berief. Damit war offensichtlich nur der harte Lockdown-Vorschlag der Nationalen Wissenschaftsakademie Leopoldina gemeint, den diese für die Weihnachtszeit gemacht hatte.

Wie schon bei der Klimapolitik anerkennt Merkel offenbar nur die Form von Wissenschaft, deren Ergebnisse ihr aus welchem Grund auch immer zupass kommen. Mir ihrer Ignorierung des pluralistischen Charakters moderner Wissenschaft, auch von Naturwissenschaft, lässt sie erkennen,. dass sie von Wissenschaft gar nichts versteht. Darüber hinaus kann man erkennen, dass sie innerhalb der ihr genehmen Wissenschaftsvariante die jeweilige Hardliner-Position favorisiert.

Dabei hat der am Schutz der Risikogruppen orientierte Ansatz der KBV die statistische Wahrheit für sich: 90 % aller „Coronatoten“ sind laut RKI über 70 Jahre alt, der Altersmedian liegt bei 83 Jahren. Diese Menschen haben in aller Regel zumindest eine schwere Vorerkrankung. Was liegt da näher, als die Ressourcen auf diese Gruppe zu konzentrieren? So könnte man an eine regelmäßige satte staatliche Bonuszahlung über eine längere Zeit an die Beschäftigten im Kranken- und Altenpflegebereich denken, um das seit langem bestehende strukturelle Personaldefizit in diesem Bereich dauerhaft zu beheben. Eine derartige Ausgabe erscheint deutlich zielführender als milliardenschwere Kompensationszahlungen an durch Lockdowns geschädigte Restaurantbetreiber und Einzelhändler.

Ähnlich einseitig die Position der Bundesregierung beim Klimaschutz. Hier war jahrelang engster Berater Merkels der frühere Präsident des PIK Hans-Joachim Schellnhuber, der es in einer Veröffentlichung 2018 unter Berufung auf das Eintreten fiktiver „Kippelemente“ tatsächlich fertig brachte, die Gefahr einer Erderwärmung um bis zu 8 Grad in diesem Jahrhundert an die Wand zu malen – etwa das Doppelte des negativsten Szenarios des Weltklimarats IPCC (zur Kritik vgl. Nahamowitz 2020 a). Die ausführlich begründete klimaskeptische Gegenposition entthront das CO2 als Haupttreiber des Klimas und ersetzt es zumindest zu 50 % durch die Sonne und diverse ozeanische Oszillationen. Sie ist kürzlich noch einmal ausführlich von Vahrenholt / Lüning (2020) begründet worden – und bleibt von der Politik und den Mainstream-Medien unbeachtet, obwohl sie mit ihrer (m.E. selbst wieder problematischen) grundsätzlichen Anerkennung des CO2 als etwa hälftigem Klimaverursacher zwischen dem alarmistischen und dem skeptischen Klimaparadigma eine vermittelnde Position einnimmt.

Bei Corona ist Merkels engster Berater der Berliner Virologe Christian Drosten, der zusammen mit dem RKI schon bei der Schweinegrippe ( 2009 / 2010 ) durch völlig übertriebene Warnungen aufgefallen war (Reiss, Bhakdi 2020, 121 f). Seit kurzem ist als ihr Berater der Braunschweiger studierte Physiker Meyer-Hermann hervorgetreten, der aber seinem Kollegen Drosten in seiner Vorliebe für harte Lockdowns in nichts nachsteht und der wahrscheinlich bei der Lockdown-Empfehlung der Leopoldina eine treibende Kraft war. Diese in Deutschland und europaweit dominierende Position hat das Ideal eines unbarmherzigen Schlages in Form eines möglichst harten Lockdowns, der das Virus ein für alle Mal vertreibt oder zumindest – so bescheiden ist man zum Teil mittlerweile geworden – eine Zeitlang still stellt, so dass das Gesundheitssystem vor Überlastung bewahrt wird.

Diese Strategie ist mittlerweile dabei, sich selbst ad absurdum zu führen, wird sie gegenwärtig in Deutschland doch zum zweiten Mal probiert und in Österreich und Italien zum dritten Mal – innerhalb von 9 Monaten. Diese Strategie ist frustran und teuer, ihre Protagonisten sollten anerkennen, dass das Virus gekommen ist, um zu bleiben. Auch mit der Grippe existiert in den modernen Gesellschaften eine ( mitunter spannungsvolle ) Koexistenz. Die mögliche Konsequenz daraus kann nur sein: Die finanzielle und personelle Ausstattung des Gesundheitssystems zu optimieren, auch in Vorsorge gegen künftige Epidemien, die wirklich gefährlich sind, anstatt dort nach gewohntem Muster zu sparen.

Die epidemiologisch vorzüglich begründete, explizit auf Evidenz basierende Gegenposition wird in Deutschland vor allem vom Professoren-Ehepaar Reiss / Bhakdi (2020), dem früheren Amtsarzt und Bundestagsabgeordneten Wolfgang Wodarg und auf internationaler Ebene vom Stanford-Professor John Joannidis (2020) vertreten. Diese Richtung hebt ab auf die relativ niedrige, einer mittelstarken Grippe vergleichbare Letalitätsrate von SARS-CoV-2, auf den quantitativ und qualitativ erheblichen Unterschied von „an“ und „mit“ Corona Verstorbenen sowie die Unterscheidung von Infizierten und Erkrankten. Sie betont die Unzuverlässigkeit des nicht validierten und nicht für die klinische Diagnose zugelassenen PCR-Tests und macht auf den systematischen Zusammenhang von ansteigenden Fallzahlen und Zunahme der Testungen aufmerksam. Nicht zuletzt gewinnt sie ein realistisches Bild von der quantitativen Bedeutung der Corona-Sterbezahlen, indem sie diese in Beziehung setzt zu anderen Todesarten wie Herz-Kreislauferkrankungen, Krebs, Lungenentzündung u.a.

Als praktische Handlungsempfehlung folgt aus diesem Konzept 1. die sofortige Beendigung der repressiven Containment-Politik für die allgemeine Bevölkerung, 2. die Konzentration der Ressourcen auf die verwundbaren Gruppen der Bevölkerung, vor allem die über 70-jährigen mit Vorerkrankungen sowie 3. die Aufhebung der erwiesenermaßen wirkungslosen Maskenpflicht, soweit sie die Alltagsmasken betrifft. In diesem dritten Punkt sowie in dem Verzicht auf das bundesweite Ampelsystem bestehen die entscheidenden Unterschiede zur Reformgruppe um Gassen und Streeck.

Das Ohr der Politik erreichen beide Reformgruppen nicht, Merkel und die Länder-MP setzen ihre unbeirrt lernresistente Linie fort. Angesichts der nahezu weltweiten Lernresistenz der Politik erkennt Joannidis keine Corona-Krise, sondern eine „Krise der Evidenz“.

Zweifel an der Urteilsfähigkeit Merkels sind nicht nur in Sachen Wissenschaft, sondern auch bei relativ banalen Angelegenheiten angebracht. Man erinnere ihren Versuch, dem Fernsehpublikum die Funktionsweise des Reproduktionswerts R zu erklären, Bekanntlich bedeutet R = 1, dass ein Infizierter einen anderen Menschen ansteckt, Was aber bedeutet R = 1,1 oder R = 1,3 ? Bei dem Versuch. diese Frage zu beantworten, gerät die promovierte Physikerin Merkel so vollständig in die Konfusion, dass die Antwort unverständlich ausfällt. Der Zuschauer ist ratlos, sollte die Kanzlerin tatsächlich intellektuell überfordert sein?

Bei den Hausberatungen in der ersten Dezemberhälfte zeigt Merkel einmal mehr ihr unzureichendes Verständnis der Corona-Realität, wenn sie angesichts der RKI-Zahlen des Tages klagt : „ 590 Tote ! Es tut mir so leid“. Der Ausspruch deutet darauf hin, dass sie erstens nicht weiß, dass in Deutschland die durchschnittliche tägliche Sterbezahl bei 2600 liegt, die doch alle wohl ebenfalls Mitleid verdienen und ihr zweitens unbekannt ist, dass mindestens 80 % keine „echten“ Corona-Tote, sondern nur „mit“ dem Virus Gestorbene sind. Bei so viel Unwissenheit wird man schließlich nicht von ihr verlangen können, dass sie die für Deutschland auch im Corona-Jahr 2020 relevanten Phänomene der Untersterblichkeit bzw. nur leichten Übersterblichkeit (s. unten unter 3.) kennt.

Bei der Haushaltsrede Merkels am 9. Dezember ereignete sich auch noch ein bezeichnender Zwischenfall. Auf den Zwischenruf eines AfD-Abgeordneten : „Das ist doch alles nicht bewiesen“. antwortet sie direkt – und zwar unter Bezug auf ihr Physikstudium in der DDR – mit dem Hinweis auf die unabänderliche Kraft der „Schwerkraft“ und der „Lichtgeschwindigkeit“. Was genau sie damit meint, bleibt unklar. Anscheinend möchte sie wohl der von ihr verfolgten Strategie der Corona-Abwehr den Status unverbrüchlicher Naturgesetzlichkeit verleihen. Die ignorante Schlichtheit des Arguments macht ziemlich fassungslos.

Schon während der Haushaltsberatungen drang zunehmend der Ruf einiger Länder-MP nach einem baldigen harten Lockdown durch. Hinter dem Vorschlag steht ein fehlgeleitetes Coronaverständnis, welches erstens Corona als verhängnisvolles Killervirus und zweitens als ein radikal aus dem Land zu vertreibendes Agens auffasst. Diese unterkomplexe Auffassung wird vor allem von den traditionellen Virologen vertreten. Epidemiologen sehen Corona zumeist differenzierter. Zwischen den traditionalistischen Virologen a` la Drosten, Lauterbach, Wieler und Co. einerseits und den evidenzbasierten Epidemiologen um Reiss /Bhakdi und Joannidis andererseits nimmt die Gruppe um die Virologen Streeck und Schmidt-Chanasit sowie den KBV-Vorstandsvorsitzenden Gassen so etwas wie eine Mittelstellung ein.

Streeck fasst sie gerne in die Formel, dass das Corona-Virus einerseits zwar „ernst zu nehmen“, andererseits aber „nicht zu überdramatisieren“ sei. Mit letzterer Wendung wird der Lockdown als Instrument der Infektionsbekämpfung implizit ausgeschlossen. Auch vertritt er die Auffassung, dass das Corona-Virus hier sei, um zu bleiben und sich den anderen vier schon seit Jahrzehnten hierzulande residierenden Corona-Virenstämmen bei zu gesellen.

Beides dürfte der wesentliche Grund dafür sein, dass die Gruppe, obwohl anders als Bhakdi, Joannidis und Co. fest im deutschen medizinischen Establishment verankert, keine Chance hatte, das Ohr der Kanzlerin und der MP zu erlangen. Die politische Vereinigung der Corona-Dilettanten aus Bund und Ländern sträubt sich mit aller Macht gegen epidemiologische Aufklärung.

Am 13. Dezember nun wurde ein harter Lockdown von eben dieser Dilletantenrunde zunächst einmal bis zum 10. Januar beschlossen. Die einzelnen Bestandteile eines harten Lockdowns sind aus dem Frühjahr bekannt, ich gehe nicht näher auf sie ein.

Nur Weihnachten erhielt eine spezielle Regelung. Das weihnachtliche Feiern machte der Politik größte Sorgen. So bemühten sich etwa Gesundheitsminister Spahn und Bundespräsident Steinmeier, den Bürgern die altruistischen Vorteile ungeselliger Weihnachtsfeiern (z.B. zugunsten des Pflegepersonals) schmackhaft zu machen. Ein Eindämmungskonzept, welches sich derartiger Überredungsstrategien glaubt bedienen zu müssen, zeigt sehr deutlich seine Hilflosigkeit.

Die Auseinandersetzung zwischen den konkurrierenden Corona-Konzepten fand ihren vorläufigen Abschluss durch einen kürzlich erfolgten Aufruf hunderter europäischer Wissenschaftler zu Gunsten einer strengen Politik des Containement für einen längeren Zeitraum und abgestimmt unter den europäischen Staaten. Der Aufruf wurde im renommierten Fachjournal „Lancet“ am 19. Dezember d. J. veröffentlicht. Im Kern verfolgt er die gleiche stramm virologische Konzeption wie auch die Leopoldina., welcher der deutsche harte Lockdown-Beschluss nahezu nahtlos gefolgt war.

Es verwundert daher nicht, dass der Aufruf von den deutschen strammen Virologen-Virologen Drosten, Wieler und z.B. Brinkmann unterzeichnet ist, Ebenso unterzeichnet haben die Präsidenten der Leopoldina und der großen Wissenschaftsorganisationen. Bei letzteren ist freilich keine Sachkompetenz zu unterstellen, genauso wenig wie bei dem mitunterzeichnenden Ökonomen und IfO-Präsidenten Clemens Fuest.

Ziel ist die Senkung der Fallzahlen auf den Stand von Ländern wie China und Australien. Mit „entschlossenem Handeln“ und „tiefgreifenden Interventionen“ soll innerhalb von 2 Wochen der R-Wert auf 0,7 gesenkt und die 7-Tage-Inzidenz von 200 auf 50 gesenkt werden. Diese Holzhammertherapie soll offenbar an die in Deutschland und anderen Ländern seit Wochen exekutierten Lockdowns angeschlossen werden. Das ultimative Zeil ist aber noch weit ehrgeiziger: eine Inzidenz von maximal 7 auf 100 000 Einwohner , zu erreichen „spätestens im Frühjahr“.

Der Aufruf scheint mir das typische Produkt enthemmter Virologenphantasien zu sein, welcher die Folgebereitschaft einer bereits sehr Corona-müden Bevölkerung deutlich überschätzt und die mannigfachen Folgeschäden der Therapie mit dem Holzhammer unterschätzt. In China jedenfalls dauerte die Phase des harten Lockdowns nur 4 Wochen. Dass dieses riesige Land nun gänzlich frei von Corona ist, lässt m.E. nur eine Erklärung zu: Es wird – im Vertrauen auf die relativ geringe Gefährlichkeit des Virus – nicht mehr getestet.. Dann wird das Virus auch nicht mehr gefunden. Aufgrund seiner relativ geringen Letalitätsrate birgt diese Strategie auch kein untragbares Risiko für die Machthaber.

Im übrigen weist der Appell die bekannten epidemiologischen Defizite auf und zeigt noch einmal. dass die Virologen die Epidemiologie nicht können. Ich nenne drei prinzipielle Kritikpunkte :

  1. Es wird ignoriert, dass SARS-CoV-2 die Gefährlichkeit nur eines mittleren Grippevirus hat. Ein solches hat noch nie auf der Welt staatliche Zwangsmaßnahmen hervorgerufen. Typisch für die unzureichende wissenschaftliche Qualifikation der Verfasser ist, dass das Bulletin der WHO vom 14. Oktober ignoriert wird, in dem die Organisation das Ergebnis der umfangreichen Metaanalyse von John Joannidis sich zu eigen macht. Nach ihr liegt die Median-Covid-19-Infektionssterblichkeitsrate bei nur 0,23 % und damit auf dem Niveau eines mittelstarken Grippevirus. Das bedeutet 2300 Tote auf 1 Mio. Infizierte (bei gegenwärtig gut 1,7 Mio. positiv Getesteten in Deutschland), was denjenigen nicht zu erschrecken braucht, der weiß, dass gegenwärtig hierzulande, wie bereits erwähnt, 2600 Menschen pro Tag sterben.

  2. Ausfluss der geringen Sterblichkeitsrate ist, wie im 3. Abschnitt belegt wird, dass Deutschland im Jahr mehrerer Lockdowns keine signifikante Übersterblichkeit und damit auch keine „epidemische Lage von nationaler Tragweite“ aufweist. Damit entfällt überhaupt die Grundlage für Zwangsmaßnahmen nach dem InfektionsschutzG.

  3. Unbekannt ist den Initiatoren ebenfalls, dass der rasche Anstieg der Fallzahlen seit September / Oktober überwiegend der Verdopplung der Testungen geschuldet ist (CIDM.online, Grafik 7 / 8). Die kritischen Beobachter des Infektionsgeschehens sprechen von „Labor -Pandemie“.

Einen Tag nach Veröffentlichung des Aufrufs erschien die Meldung, dass in England eine Mutation des Corona-Virus mit um 70 % erhöhter Infektiösität aufgetaucht sei. Damit scheint allen überambitionierten Eindämmungsphantasien bezüglich des Virus. wie sie der „Lancet“- Aufruf aufweist, ein Riegel vorgeschoben. Eindämmungszeit und / oder regulatorischer Eindämmungsaufwand müssten sich um den genannten Prozentsatz erhöhen. Und zwar in ganz Europa, denn das mutierte Virus hat inzwischen auf dem Festland Fuß gefasst. Am 5. Januar 2021 hat denn auch der englische Premierminister die Konsequenz gezogen und einen harten Lockdown angeordnet, begründet u.a. mit der Mutation des Virus. Der Chef von Biontech brauchte nur verdächtig wenige Tage um zu versichern, dass der Impfstoff von Biontech / Pfizer auch gegen das mutierte Virus wirke.

Zum Schluss noch einmal zurück zu Angela Merkel, und zwar zu ihrer Neujahrsansprache. Nun verwandelt sich die Irritation endgültig in Verärgerung. Die Kritiker der staatlichen Maßnahmen werden nach dem bereits sattsam Muster politischer Verunglimpfung als „unverbesserliche Leugner des Virus“ bezeichnet und mit „Verschwörungstheorien“ in Zusammenhang gebracht. Die Kritiker leugnen aber in der Regel nicht die Existenz des Virus, sondern kritisieren die überbordende Unverhältnismäßigkeit der Maßnahmen, von der eine auch nach 10 Monaten Krise immer noch schlecht informierte Kanzlerin auch nicht den Hauch einer Ahnung hat. Ich gebe nur zwei Stichworte: Erstens, die exponentiellen Fallzahlen existieren bei korrekter Zählung nicht und zweitens, die Todeszahlen sprengen nicht den Rahmen des Üblichen der letzten Jahre. Damit ist der staatlichen Containement-Politik der epidemiologische und rechtliche Boden entzogen. Darüber weiter unten mehr.

Der zweite Punkt ist der Drosten-Test, den die Kanzlerin als „zuverlässig“ bezeichnet. Hier stellt sich sehr unmittelbar die Frage, weiß sie es nicht besser oder lügt sie. Es ist allseits bekannt, dass der Test nicht validiert und demgemäß offiziell für die klinische Diagnose nicht zugelassen ist. Die kritischen Experten gehen bei den positiv Getesteten von eine Fehlerquote von 1-3 % aus („falsch positiv“). Der deutsche Rechtsanwalt Dr. Rainer Fuellmich, der mit amerikanischen Kollegen eine Sammelklage („class action“) auf Schadensersatz gegen die Herren Drosten, Wieler und Spahn vor einem amerikanischen Zivilgericht anhängig gemacht hat, geht von einer Fehlerquote bis zu 97 % aus. Andere Klagen, auch gegen staatliche Stellen, sind in weiteren Ländern (Österreich, England) in Vorbereitung oder bereits anhängig. Von dieser Seite könnte aus der „Jahrhundertaufgabe“ der Pandemiebekämpfung, von der Merkel spricht, eine Jahrhundertpleite für die Politik werden,

2. Die absurde Jagd auf die „Infektions“-Zahlen

Seit Ende September / Anfang Oktober befinden sich in Deutschland die absoluten Zahlen der positiv Getesteten in einem steilen Anstieg – der Anlass für die seit Anfang November hierzulande eingeschlagene Politik der Lockdowns. Deren politischen Initiatoren ist offensichtlich unbekannt, dass primärer Grund für den Anstieg der absoluten „Infektions“-Zahlen die Verdopplung der Testungen ab Mitte August ist – ein schockierender Fall staatlicher Ignoranz.

Oder doch nicht? Es ist öffentlich geworden, dass zumindest Gesundheitsminister Spahn und das RKI um den systematischen Zusammenhang von Fallzahlen und Häufigkeit der Testungen wissen. Die absoluten Fallzahlen verlieren ihren Schrecken, wenn sie richtigerweise korrigiert und auf 100 000 Testungen bezogen werden. Dann tritt an die Stelle der roten ( „exponentiellen“) „Panik“-Kurve die blaue „Real“-Kurve mit ihrem nur sanften Anstieg ( vgl. unten die Graphik 7 / 8 von CIDM. online ). Diese Graphik hatte ich schon in meinem letzten Artikel herangezogen (Nahamowitz 2020 c), nun geht ihre Zeitreihe bis zum Jahresende (KW 52).

Die Schlussfolgerungen bleiben die gleichen: Von einer „exponentiellen Infektionsdynamik“ und einer „drohenden Überforderung des Gesundheitswesens“ kann keine Rede sein, weder eine „erste“ noch eine „zweite“ Infektionswelle sind für das Jahr 2020 auffindbar. Der Kampf der Politik gegen die steigenden „Infektions“-Zahlen erinnert stark an den dichterisch beschriebenen Kampf des Don Quixote gegen die Windmühlen, die nur in der Phantasie des verblendeten spanischen Edelmannes eine Gefahr darstellten.

Die frühzeitige Veröffentlichung der „Realkurve“ schon im Frühjahr hätte die Hysterie um Corona im Keim erstickt. Dass sie unterblieben ist, stellt eine Amtspflichtverletzung der im RKI und im Gesundheitsministerium Verantwortlichen i. S. von Art. 34 GG / § 839 BGB dar und berechtigt die durch die Corona-Maßnahmen Geschädigten zu Schadensersatz gegen den Staat.

Sehr dubios ist auch die von Beginn an praktizierte kombinierte Zählweise des RKI der „an und mit“ Corona Gestorbenen. Schon diese Kombination ist eine permanente Verletzung ärztlicher Leitlinien (Reiss / Bhakdi, 18). Da kommt es gegenwärtig zu Zahlen von mehreren hundert bis über 1000 täglichen „Corona-Toten“ – Zahlen, die völlig unglaubhaft sind. Der Anteil der Atemwegserkrankungen an den Todesarten in Deutschland liegt seit langem bei ungefähr 10%, der von Krebs bei einem Viertel und der Anteil der Herz-Kreislauferkrankungen bei einem Drittel, Täglich sterben etwa 2600 Menschen in Deutschland. 1000 „an und mit“ Corona, welche eine Atemwegserkrankung ist, Gestorbene würden einen Anteil von über einem Drittel ausmachen – völlig unglaubhaft. Hier sind im großen Stil Umverteilungen innerhalb der Todesarten hin zu Corona vorgenommen worden. Daher ist von einer weiteren Amtspflichtverletzung des für die Zählung verantwortlichen RKI auszugehen..

Nach der kompetenten Schätzung der Corona Initiative Deutscher Mittelstand (CIDM) betrug im vergangenen Jahr der Anteil der „echten“ Corona-Toten, d.h. „an“ Corona Verstorbenen, an allen Verstorbenen nicht mehr als 1,1 % (CIDM. online, Graphik Sterbefallzahlen Deutschland). In absoluten Zahlen sind dies weniger als 30 täglich. Es wird Zeit, dass der schon bei der Schweinegrippe zu Tage getretene völlig übersteigerte Alarmismus des RKI beendet wird.

3. Über– und Untersterblichkeit in Deutschland

Für die Darstellung der Mortalität in Deutschland verwende ich die Daten von Euromomo (European mortality monitoring) in den alternativen Fassungen von Germany (Berlin) und Germany ( Hessen ). Die Daten des Statistischen Bundesamts (Destatis) finden keine Verwendung, da das Amt seit seinem Versuch, für die Corona-Monate im Frühjahr eine Phase von Übersterblichkeit für unser Land herbei zu rechnen, unter Manipulationsverdacht steht.

Schon mit bloßem Auge ist erkennbar, dass die Mortalitätsentwicklung gemäß Graphik Germany (Berlin) im Jahr 2020 flacher als in den Vorjahren ab 2017 verläuft, d. h. mit weniger Zacken nach oben (den Indikatoren für Übersterblichkeit). Das Jahr 2018 weist erkennbar die höchste Übersterblichkeit auf. In 2020 gibt es allein in KW 33 (3.8. – 9. 8.) einen Zacken etwas höherer Übersterblichkeit (Standardabweichung plus 3,44, wie uns der Cursor verrät). Dieser dürfte wie in den beiden Vorjahren der Sommerhitze geschuldet sein.

Von KW 47 (16. 11. – 22. 11.) an bis Jahresende , d.h. von der zeitlichen Mitte des Teil-Lockdown im November bis zum Jahresende befand sich das Land, wie uns der Cursor ebenfalls mitteilt, in einem Zustand leichter Untersterblichkeit. Aber der Öffentlichkeit wurde aus allen Rohren der Meinungsmanipulation, einschließlich der Alarmmeldungen des RKI, das Gegenteil erzählt. Und die Politiker, anscheinend von niemandem über die realen Mortalitäts- und damit Epidemieverhältnisse aufgeklärt, wurden zum Opfer ihrer eigenen Katastrophenlegenden (z. B.Söders Katastrophenalarm in Bayern Anfang Dezember).

Die Graphikvariante Germany (Hessen) ergibt ein etwas anderes Bild. Hier ist die Übersterblichkeit in 2020 etwas (nicht wesentlich) stärker vertreten. Zunächst einmal im Vergleich zu den Vorjahren 2017 und 2019, ohne deren Sterblichkeit freilich signifikant zu übertreffen. Das Jahr 2018 weist weiterhin die höchste Übersterblichkeit auf. Vor allem aber befinden sich die Wochen während der beiden Lockdowns (ab KW 45) fast durchgängig im Zustand einer leichten Übersterblichkeit – bis auf die KW 50 und 51 mit einer deutlicheren Übersterblichkeit, (Standardabweichung plus 5,44 und 4,30) die aber durch die deutlichere Untersterblichkeit der KW 52 (Standardabweichung minus 2,56) etwas ausgeglichen wird.

Nimmt man die Aussagen beider Kurven, die leichte Untersterblichkeit von Germany (Berlin) und die leichte Übersterblichkeit von Germany (Hessen), zusammen, ergibt sich für ganz Deutschland im Jahr 2020 grosso modo das Bild einer Mortalität, welche der durchschnittlichen Entwicklung seit vier Jahren entspricht. Daraus folgt, dass in Deutschland eine „epidemische Lage von nationaler Tragweite“, wie sie der Bundestag gem. §5 Abs.1 Infektionsschutzgesetz festgestellt hat, zu keiner Zeit auffindbar war. COVID-19 ist keine „bedrohliche übertragbare Krankheit““ i.S. des § 5 Abs. 1 Nr. 1 und 2 IfSG. Der Beschluss des Bundestags gehört daher schon lange aufgehoben.

Auch im internationalen Vergleich ist die Mortalität Deutschlands nicht besorgniserregend. Euromomo unterscheidet sechs Stufen der „Exzess-Mortalität“, reichend von „No excess“ bis „Extraordinary high excess“.

Die Rangfolge der Länder ( Stand: Ende 2020, KW 52 ) :

No excess: Germany (Berlin), Sweden, Finland, Norway, Estonia, Ireland. UK (Wales), UK (Scotland), Hungary, Spain.

Low excess : Germany (Hessen), France, Denmark, Belgium, Greece, Estonia.

Moderate excess , UK (England), Austria, Netherlands, Italy, Portugal.

High excess : Slovenia.

Very high excess: Switzerland.

Extraordinary high excess :

Bemerkenswert ist die Position Deutschlands (Hessen), die sich im Dezember innerhalb eines Tages um zwei Stufen auf moderate excess verschlechtert hatte, aber in KW 52 auf low excess zurück gegangen ist. Germany (Berlin) hingegen blieb durchgängig auf No excess. Die gute Performance unseres Landes bei der Mortalität zeigt sich auch international.

Erfreulich auch die sehr gute Stellung Schwedens, welches allen, vor allem deutschen Anfeindungen (einschließlich dreisten fake news) zum Trotz, als einziges Nicht-Lockdown-Land eine Reihe von Lockdown-Ländern hinter sich gelassen hat und mit anderen auf der gleichen Stufe No excess steht.

4. Der fällige Offenbarungseid der Corona-Politik

Das von verschiedenen Variationen staatlicher Corona-Eindämmung regulierte Jahr 2020 zeigt nach seiner Beendigung, dass für die `überkommene Corona-Politik die Zeit des Offenbarungseids gekommen ist. Der politische Offenbarungseid hätte offen zu legen, dass die Daten von 2020 nicht mit den Zielen der Corona-Politik überein stimmen, die „Infektions“-Zahlen auf die 7-Tage-Inzidenz von 50/100 000 zu reduzieren und so zu einer deutlichen Entlastung der krisenhaft überlasteten Intensivstationen zu kommen.

Denn die „Infektions“-Zahlen sind bei korrekter Zählung, welche sie auf 100.000 Testungen bezieht, weder exponentiell ansteigend noch sonst besorgniserregend. Die „Realzahlen“ zeigten im Frühjahr und zeigen gegenwärtig nur einen sehr sanften Anstieg. Dies gilt es von der Politik nun anzuerkennen. Und die Mortalität des zu Ende gegangenen Jahres übersteigt nicht die durchschnittliche Mortalität der letzten vier Jahre. Gegenüber 2018 ist sie sogar erkennbar geringer. 2018 sprach niemand von der Gefahr überlasteter Intensivstationen, und sie ist auch gegenwärtig nicht gegeben. Auch dies gilt es von der Politik nun anzuerkennen.

Dies ist die Voraussetzung für die Änderung einer im Kern verfehlten Krisenpolitik. Eine Bundeskanzlerin, die in ihrer Neujahrsansprache für die Krisenüberwindung entscheidend auf das freiwillige Engagement der Bürger setzt, nachdem sie vorher monatelang deren Freiheitsbetätigung stranguliert hat, gibt damit das Scheitern der Repressionspolitik unfreiwillig zu. Um aus der Sackgasse unbotmäßiger Fallzahlen herauszukommen, die nicht ausreichend sinken wollen, gilt es, sich den alternativen Konzepten der Corona-Behandlung, wie sie eingangs dieses Artikels vorgestellt worden sind, zu öffnen.

Der Notwendigkeit eines solchen drastischen Politikschwenks wird die offizielle Corona-Politik nicht durch die Perspektive der Impfung enthoben. Erstens ist das letzte Wort über deren Wirksamkeit, vor allem aber deren Sicherheit, noch nicht gesprochen. Zweitens steht die Impfbereitschaft der deutschen Bevölkerung durchaus in Frage. Und drittens wird, auch wenn das Projekt Impfung alle Versprechungen hält, ein allgemeiner Immunschutz für die Bevölkerung erst in Monaten erreicht sein.

Was bleibt, ist dann nur noch die Hoffnung auf das Frühjahr mit dem Abklingen des saisonalen Infektionsgeschehens in seinem Gefolge. Dies ist für eine rationale Politik, die auch mit dem Widerstand eines mutierten Virus mit erhöhter Infektiösität zu rechnen hat, eine sehr dünne Perspektive, die auch erst ab März / April zum Tragen kommen könnte. Soll so lange der Lockdown bestehen bleiben?

Es ist Zeit für die Politik, ihre oft genug manifestierte Lernresistenz abzulegen und einen grundlegend anderen Ansatz für die Krisenbewältigung zu wählen. Was liegt näher, als das eingangs vorgestellte moderate Reformkonzept der Gruppe um Gassen und Streeck zu wählen? Dieses müsste doch auch für den politischen Mainstream akzeptabel sein.

5. Der Offenbarungseid wird nicht geleistet

Am 5 Januar beschloss die Runde der notorisch Unkundigen aus Coronakabinett mit der Kanzlerin an der Spitze und den MP der Bundesländer die Verlängerung des Lockdowns bis Ende Januar, der sogar verschärft wurde. So wurden etwa die privaten Kontakte weiter eingeschränkt und in den Hotspots ab einer Inzidenz von 200/100.000 die räumliche Bewegungsfreiheit auf 15 km begrenzt.

Ende Januar wird die drastische Einschränkung der sportlichen Betätigung durch die Schließung von Schwimmhallen, Sportstätten und Fitnessstudios im Gefolge dreier Lockdowns seit drei Monate andauern. Dies hat negative Konsequenzen für das vor Infektionen schützende natürliche Immunsystem und die Gesundheit allgemein der sportlich orientierten Teile der Bevölkerung. Der Autor z.B. war es seit Jahrzehnten gewohnt, mehrfach in der Woche Schwimmen zu gehen. Der Mangel an sportlicher Betätigungsmöglichkeit dürfte freilich für einige seiner maßgeblichen Urheber nicht von Wichtigkeit sein: Der seit Jahren übergewichtigen Kanzlerin und ihrem adipösen Kanzleramtsminister Braun sowie den Herren Spahn und Söder mit ihren sichtbar wachsenden Bauchansätzen dürfte sportliche Betätigung wenig bis nichts bedeuten. Dem entspricht die Nonchalance, mit der die Lockdownpolitik durchgezogen wird.

Eine bewusste staatliche Förderung von Gesundheit und Immunsystem durch systematische Aufklärung über richtige Ernährung, Bewegung, gesunden Schlaf und wichtige Nahrungsergänzungsmittel wie Omega 3 und Vitamin D findet denn auch nicht statt. Anscheinend wird die Sorge um die Gesundheit der Schulmedizin und der Pharmaindustrie überlassen.

Durch ihre Verlängerung wurde der an sich fällige Offenbarungseid der bisherigen Corona-Politik vermieden. Im Wirtschaftsleben würde man von Insolvenzverschleppung sprechen. Es ist auch kaum damit zu rechnen, dass die angestrebte Inzidenz von 50/100.000 bis Ende Januar tatsächlich erreicht wird. Nicht zuletzt die aufgrund der Mutation gesteigerte Infektiösität des Virus spricht dagegen. Manche Forderungen sind sogar noch ehrgeiziger und zielen auf eine noch niedrigere Inzidenz, z.B. 25/100.000 oder sogar 7/100.000, ab.

Es ist immer wieder schockierend, mit welcher Chuzpe die politisch Verantwortlichen und ihre Berater die empirische Evidenz ignorieren, z. B. die Erfahrungen Israels. Israel hatte im September bei laut worldometer über 6000 täglichen Neu-“Infektionen“ Ende des Monats einen harten Lockdown angeordnet, der die Fallzahlen bis Mitte November auf etwas über 600, also auf ein Zehntel, drückte. Diese sind aber Anfang Januar 2021 wieder auf über 6000 gestiegen. Der Erfolg hatte also eine Verfallszeit von gerade gut 6 Wochen.

Auch die wissenschaftliche Evidenz wird ignoriert. In einer hochrangigen aktuellen Studie des amerikanischen National Bureau of Economic Research wird gezeigt, dass Lockdowns, Schließungen, Reisebeschränkungen, Quarantänemaßnahmen, Sperrstunden und Masken keinen Einfluss auf die Übertragungsraten des Corona-Virus und die Todesfälle haben ( Atkeson, Kopecky, Zha 2020 ).

Quellen :

Atkeson, Andrew, Kopecky, Karen, Zha, Tao 2020 : Four stylized Facts about COVID-19, Working Paper 27719, National Bureau of Economic Research.

Nahamowitz, Peter 2020 a : Klimawandel und CO2: falsche Alarmzeichen für die Weltgesellschaft, scienceFiles, Blaue Reihe, Bd. 8.

Nahamowitz, Peter 2020 b: Sechs kurze Begründungen für die Verfassungswidrigkeit des Shutdown in Deutschland, EIKE-Publikation vom 17. Mai.

Nahamowitz, Peter 2020 c: Corona-Panik, die dritte: Zentrale Gründe für die Verfassungswidrigkeit des Teil-Lockdown vom 28. Oktober 2020, EIKE-Publikation vom 25. 11.

Reiss, Karina, Bhakdi, Sucharit 2020: Corona Fehlalarm?, Berlin.

Vahrenholt, Fritz, Lüning, Sebastian, 2020: Unerwünschte Wahrheiten. Was Sie über den Klimawandel wissen sollten, München.

Zum Autor :

Peter Nahamowitz war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Leibniz Universität Hannover. Er ist seit 2007 im Ruhestand.