1

Die Hitzetoten des Dr. von Hirschhausen

Der Klimafolgen-Fachmann von Hirschhausen

Laut Herrn Hirschhausen haben Hitzewellen eine so hohe Sterberate, dass Covid-19 dagegen eher nebensächlich ist, weil Hitze das wirkliche – neue – Mortalitätsproblem aufgrund des Klimawandels wäre: [2] um die größte Gesundheitsgefahr, nämlich die Klimakatastrophe anzugehen … Die Welt vorher war nicht normal, wir schliddern in diesem Jahrzehnt auf die entscheidende Phase zu, in der sich entscheidet, ob Menschen überhaupt auf dieser Erde bleiben können.“
.. „Wir haben 20.000 Hitzetote im letzten Jahr gehabt! Das waren sehr viel mehr sozusagen Übersterblichkeit im Sommer als an Covid. Hat keiner drüber geredet. Wir sind das Land mit den dritthäufigsten Hitzetoten nach China und Indien. Warum kommt das in den Medien nicht vor?“ …

Dass solche Aussagen in den Medien nicht (auch) vorkämen, stimmt natürlich nicht. Und unsere – von jeglichem Wissen zum Klima und seinem regelmäßigen Wandel befreite (rein persönliche Meinung des Autors, die durch nichts belegt ist) – Umweltministerin ist ja ebenfalls dieser Ansicht:
[3] Merkur 26.11.2019: (Sv. Schulze) „Alarmierend“ Immer mehr „heiße Tage“: Ministerin mit drastischem Urteil über Klima-Folgen für Deutschland … Der Klimawandel hinterlässt in Deutschland immer heftigere Spuren. Laut einem neuen Bericht der Bundesregierung kam es wegen der Hitze sogar zu mehr Todesfällen.
… Die Folgen des Klimawandels lassen sich immer besser erkennen. Bundesumweltministerin Svenja Schulze spricht über „alarmierende“ Befunde …
Nur können Hitze-„Todesmeldungen“ eher selten gebracht werden, denn Herrn Hirschhausens Aussage hat einen gravierenden Fehler: Sie stimmt nicht. Zur Veranschaulichung dieser These, vorab der Verlauf der Sterblichkeit in Deutschland über die letzten fünf Jahre mit Kennzeichnung der „Hitzewellen-Überversterbung“ 2019 und den bisher Covid-19 zugeordneten Sterbewerten:

Bild 1 Deutschland, Verlauf Sterbezahlen 2016 – 2020. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Was ist bei uns mortaler? Hitze oder Kälte?

Glaubt man offiziellen „Informationen“, dann muss Sommerhitze ein zunehmendes Sterblichkeits-Problem geworden sein. Zum Beispiel listet der deutsche Klimabericht 2019 dazu Schlimmes, während zur Mortalität im Winterhalbjahr allerdings keine Angaben oder Hinweise enthalten sind:

Bild 2 Deutscher Klima-Monitoringbericht 2019, Angaben zur Hitzemortalität

Auch das Ärzteblatt berichtete darüber:
Ärzteblatt 2019 MEDIZINREPORT: Studien im Fokus: Übersterblichkeit bei Hitzewellen in Deutschland: Zahl der hitzebedingten Todesfälle zwischen einigen Hundert und vielen Tausenden
… In Deutschland traten 11 der extremsten Hitzewellen seit 1950 nach der Jahrtausendwende auf. Dazu gehörten die Sommer der Jahre 2003, 2006, 2013, 2015 und 2018 …

Ein unbedarfter Bürger muss danach annehmen, dass inzwischen wohl die Sommerhitze die im Jahr „anfallenden“ Über-Verstorbenen „erzeugt“ und in den restlichen Jahreszeiten – schließlich werden die Winter immer wärmer – anscheinend keine Übermortalität vorliegt. Wie es schon Bild 1 zeigt, ist allerdings genau das – weiterhin – nicht der Fall.

Eine Studie

Über das „Ärzteblatt“ findet sich eine Studie zur hitzebedingten „Übersterblichkeit“ vom RKI: [5] ärzteblatt.de 37/2020: MEDIZIN: Originalarbeit Hitzebedingte Mortalität – Eine Analyse der Auswirkungen von Hitzewellen in Deutschland zwischen 1992 und 2017,
worin Mortalitätsangaben in einer Grafik ab 1967 und tabelliert ab 1993 angegeben sind.

Die Langzeitgrafik in der Studie ist recht undeutlich abgebildet. Trotzdem zeigt sie die teils extremen Kälte-Mortalitätsspitzen und anhand der kaum erkennbaren roten Hitzemortalitäten, wie vergleichbar niedrig diese sich dagegen ausmachen.

Bild 3 Mortalitätsverlauf seit 1967. Quelle: [5] GRAFIK 1b, Teilbilder vom Autor zusammengesetzt
Die tabellierten Werte der Studie beginnen mit dem Jahr 1992. Diese anbei umgesetzt und dabei gleich mit den Werten des Klimaberichtes 2019 (Bild 2, ab dem Jahr 2001) verglichen.
Sofort spring ins Auge, dass die hitzebedingte Mortalität seit langem abnimmt und von einer Erhöhung überhaupt keine Spur zu sehen ist. Hätte man das nach den Aussagen von Herrn Hirschhausen (und unserer Umweltministerin [3]) auch nur entfernt vermutet?

Bild 4 Deutschland, hitzebedingte Sterbefälle. Tabelle vom Autor erstellt. Daten [5], eTabelle 1 und Klima-Monitoringbericht 2019, Tab. GE-1-2
Absolutwerte sind nicht vergleichend. Deshalb noch die Relativzahlen. Man muss sich diese ganz in Ruhe durch den Kopf gehen lassen, um zu erkennen, für welch kleines, medial jedoch gnadenlos hochgepuschtes (Pseudo-)Problem auch der Wahnsinn an Aufwand und Ausgaben in Billionenhöhe durch CO2-Verhinderung betrieben wird:

Bild 5 Prozentualer Anteil der Hitze-Sterbefälle an der Jahres-Gesamt-Sterbezahl. Tabelle vom Autor erstellt

Und selbst dieses wirklich kleine Problem lässt sich sehr gut vor Ort einfach und billig lösen. Die Studie des RKI hat dazu eine Schlussfolgerung:
[5] … Insgesamt wird der Effekt von Hitze auf die Mortalitätsrate über die betrachteten Dekaden schwächer. Dies deutet auf Anpassungsprozesse hin, die auf einer physiologischen Anpassung (34) beruhen können, aber vermutlich vor allem durch Hitzewarnungen (35) und anderen Präventivmaßnahmen, besonders in der Betreuung älterer Menschen, verursacht wurden …
Solche „Anpassungsprozesse“ sind: Vor allem zur Verhinderung einer Dehydrierung ausreichend Wasser trinken und vielleicht auch endlich einmal den Komfort von Klimatisierung im Altersheim.
Herr Hirschhausen möchte als „Lösung“ dagegen unbedingt weltweit CO2 verhindern und inzwischen auch Bürgerrechte – für Aktivitäten welche CO2 emittieren – einschränken.
Ein besseres Beispiel für den idiotischen, da (falls überhaupt etwas wirksam) hoffnungslos überteuerten und uneffektiven CO2-Wahnsinn, mit dem alleine Deutschland mit Billiardenaufwand vesucht, die Welttemperatur bis zum Jahr 2100 um sagenhafte (nicht einmal gesicherte) 0,035 Grad zu reduzieren [6], findet man selten.

Eigentlich könnte der Artikel nun enden. Wer sich mit dem Thema näher beschäftigt, stellt allerdings fest: Nahezu immer fehlen bei Angaben zur ach so schlimmen Hitzemortalität Vergleiche mit der Mortalität im Winter. Nicht einmal der dicke Klima-Monitoringbericht 2019 erwähnt etwas dazu.
Dieser Mangel soll mit dem nun folgenden Kapitel behoben werden.

Übersterblichkeit

Wie schon bei der Bewertung von Coronadaten stellt sich auch bei der von Hitzewellen-Übersterblichkeit die Frage, wie eine Übersterblichkeit überhaupt definiert wird. Bei „Corona“ gibt es „offiziell“ eine, welche allerdings recht augenscheinlich falsch und unbrauchbar ist [4], was führende Politiker jedoch nicht hindert sie anzuwenden, weil diese sicher alarmistische Ergebnisse liefert und ihnen damit „in den Kram“ passt.

zur Hitzemortalität hat der Autor keine gefunden. Auch anderen scheint es so zu gehen, denn es gibt erhebliche Zahlendifferenzen zwischen einzelnen Publikationen. Deshalb vor der Auswertung der Versuch einer Definition dazu.

Daten zur Langzeit-Sterberate lassen sich finden. Anbei ein Datensatz, der beim Statistischen Bundesamt über einen Link hinterlegt ist.

Bild 6 Deutschland, Sterbezahlen ab 1995 (Auszug der zeitlich längeren Gesamtdaten). Grafik vom Autor erstellt. Datenquelle: eurostat data-explorer

Betrachtet man die Daten, stellt man verblüffend fest, dass die Werte bis zum Jahr 2000 bezüglich der Auflösung deutlich anders aussehen, als die danach. Und ausgerechnet die wichtigen „Sommer“-Sterbewerte sind in den Daten vor dem Jahr 2000 darin deshalb nicht zu finden. (Wieder) ein exemplarisches Beispiel für die teils erschütternd schlechte Datenqualität in unserem Hochtechnologie-Land und ein Hinweis, Daten nie „Blind“, also rein schematisch oder über so etwas wie „Künstliche Intelligenz“ auszuwerten. Vielleicht auch ein Grund, warum die „Hitzemortalität“ erst seit dem Jahr 2000 (in den Medien) so präsent ist? Jedenfalls sind die Daten erkennbar erst ab dem Jahr 2000 verwertbar.

Den Mortalitätsverlauf seit dem Jahr 2020 zeigt das folgende Bild. Ergänzend zum Bild 1 zeigt es auch die nach Herrn von Hirschhausen besonders erwähnenswerte, „hohe“ Übersterblichkeit im Sommer 2019 im zeitlich längerem Kontext:

Bild 7 Deutschland, Sterbezahlen ab 2000 bis 2020. Jahre mit besonders hoch „ausgewiesener“ Hitze-Übersterblichkeit eingetragen. Grafik vom Autor erstellt. Datenquelle: eurostat data-explorer

Die zusätzlich eingetragenen, besonderen „Hitze“-Übersterblichkeits-Jahre sind im Monitoringbericht 2019 (Bild 2) deklarierte Jahre und im „Ärzteblatt“ im Jahr 2019 angegebene.

Im Bild 7 muss man die Überverstorbenen der Sommerhitze wirklich suchen, da diese aufgrund der hohen „Wintersterblichkeit“ stark zurücktreten.

Zur Festlegung einer Definition für „Übersterblichkeit“ nun eine Überlegung. Betrachte man die Sterbezahlen der Einzelmonate im Bild 8,

Bild 8 Sterbewerte im Kalendermonat. Grafik vom Autor erstellt

ist erkennbar, dass die minimalen Sterbewerte recht stabil um den Monaten Juni und September liegen. Daraus wäre zu folgern, dass diese Monate sozusagen minimal-Mortalitäts-„Idealtemperatur“ haben. Es erscheint also angebracht, diese zwei Monate als Referenz anzuziehen und Abweichungen von den Sterbewerten dieser „minimal-idealen“ Monate als „Überverstorben“ zu bezeichnen.
Getan, zeigt sich das Ergebnis von Bild 9. Die Fehler dieser Festlegung sind erkennbar (negative Werte), jedoch sehr gering.

Bild 9 Sterbedaten von Bild 7 nach dem Kriterium von Bild 8 bewertet und als positive Abweichungen dargestellt. Grafik vom Autor erstellt

Danach lassen sich die Monate bewerten und die Übermortalität für die Sommerhitze und Winterkälte separieren. Erstmals bekommt man damit ein „Gefühl“ für den Einfluss von Winter- und Sommerzeiten auf die „Übersterblichkeit“.

Bild 10 Bild 9 ausgewertet und die Übermortalitäten als positive Abweichungen separiert. Jahre mit im Klimabericht 2019 besonders hoch „ausgewiesener“ Hitze-Übersterblichkeit eingetragen. Grafik vom Autor erstellt

Nicht nur ein „Gefühl“, sondern die konkreten Jahreswerte, und somit einen effektiven Vergleich liefert die Grafik der separierten Jahressummen.
Über die angeblich extrem vielen Hitze-Verstorbenen im Jahr 2019 (rot eingerahmt) hat sich Herr Hirschhausen ganz besonders entrüstet. Wobei sich dazu wirklich die Frage stellt: Ist dieser Herr noch bei Sinnen?

Bild 11 Übersterblichkeiten von Sommerhitze- und Kältezeitraum getrennt als vergleichbare Jahreswerte. Hitzemortalität im Sommer 2019 gekennzeichnet. Grafik vom Autor erstellt

Nochmals der Hinweis, dass die Grafiken Bild 10/11 auch negative Werte haben. Das ist der im Bild 9 erkennbare Überlappungs – und damit fehlerbehaftete Bereich der Separierung. Nimmt man diesen „weg“, was sicher datengemäß nicht einfach zulässig ist, sondern aufwendig korrigiert werden müsste. zeigt sich das folgende Verhältnis zwischen Winter- und Sommer-Übersterblichkeit:

Bild 12 Daten von Bild 11 ohne negative Werte. Grafik vom Autor erstellt

Bleibt noch zuzufügen, dass die Trennung nach der Definition „Überverstorben“ des Autors natürlich zu anderen Werten als in der Studie und im Klimabericht führt. Komischerweise erscheint die größte Abweichung beim oft publizierten, „ganz schlimmen“ Hitze-Mortalitätsjahr 2003.
Eine mögliche Folgerung wäre: Die Übersterblichkeitsangaben für dieses Jahr sind nicht aus Messzahlen abgeleitet, sondern entstammen fiktiven Hochrechnungen (der Autor hält dies auch für Wahrscheinlich).

Bild 13 Vergleich der Hitze-Mortalitätswerte Klimabericht 2019/nach Definition Autor. Mit zugefügter Sommer-Temperaturanomalie. Grafik vom Autor erstellt

Fazit

Alleine anhand der Datenlage würde jeder wirklich an im Jahresdurchschnitt minimalisierter Mortalität Interessierte folgern, dass dazu auf keinen Fall die Hitze verringert, sondern die Kälte weiter reduziert, es also wärmer werden müsste.

Diese einfach zu belegende und dazu auch noch eindeutige Erkenntnis ist für unsere Klimaalarmisten jedoch schon alleine aus ideologischen Gründen nicht entfernt akzeptabel. Und so werden in den Publikationen zur Hitzemortalität in der Regel einfach die Angaben zur wesentlich höheren Mortalität der kühlen bis kalten Jahreszeiten weggelassen, um die Bürger – welche die Maßnahmen bezahlen und immer weiter gehende Einschränkungen ertragen müssen – nicht zu verunsichern und gar „ins Grübeln“ zu bringen
Zwar reduziert dies die Aussagen auf ein fachliches Niveau von Kindergarten- bis Schulkindern, aber die „Experten“ müssen sich so weit herablassen, sonst könnten sie nicht mit denen gemeinsam gegen solche Fakten „hüpfen“.

Herr Hirschhausen ist inzwischen ein reiner Klima-Agitator. Welchen fachlich wirklich extremen Unsinn er dazu unwidersprochen im „Öffentlichen“ vorträgt und auch darf, wurde nun gezeigt. Dass in Talkshow-Runden, woran angeblich so etwas wie wenigstens im Ansatz fachlich zum Thema informierte Personen teilnehmen, es niemand bemerkt, ist inzwischen schon zum „Öffentlichen Markenzeichen“ geworden und zeigt die durchschlagenden Erfolge der Klimapropaganda und Verdummung in Deutschland, auch bei unserer angeblichen „Intelligenz“.

Zufügung: Der Autor tut Herrn Hirschhausen etwas unrecht. Dieser plappert ja nur treu nach, was ihm vorgegeben und gefordert wird, um im lukrativen „Öffentlichen“ auftreten zu dürfen. Vielleicht hat sein kompromissloser Schulterschluss mit den Freitagshüpfern auch solche Gründe. Schließlich wäre es nichts Verwerfliches, auf ein Einkommen angewiesen zu sein.
Fachlich dürfte Herr Dr. med. v. Hirschhausen sehr wohl in der Lage sein, die Faktenlage zu überblicken. Schließlich sind fast alle medizinischen Dissertationen mehr oder weniger statistische Fallanalysen. Seine dürfte dazu gehören: Promotionstitel: Wirksamkeit einer intravenösen Immunglobulintherapie in der hyperdynamen Phase der Endotoxinämie beim Schwein

Personen wie unsere Umweltministerin sind für die Faktenbetrachtung allerdings wirklich zuständig. Wenn solche gegen die Faktenlage Gleiches behaupten, sind sie ihren Amtseid Missachtende. Doch dazu lässt sich hinzufügen: Wäre Frau S. Schulze nicht ohne jegliches belastende Wissen über das Klima und seinem stetigen Wandel (Wiederholung: Rein persönliche Meinung des Autors und unter wirklichen Klima-Fachpersonen nicht belegt), hätte sie unter der unfehlbaren Merkel den Minister*innen-Job niemals bekommen. Das war schon bei ihrer fast schon krankhaft klimahysterischen Vorgängerin so und bei einer ganzen Ministerkette davor ebenfalls.

Quellen

[1] EIKE 19. Januar 2021: Klimawarner Eckart v. Hirschhausen: Mehr Hitzetote als Corona-Opfer

[2] Achgut, 17. Januar 2021: Der Klima-Wendler: Dr. Eckart von Hirschhausen

[3] EIKE 27.11.2019: Deutscher Klima-Monitoringbericht 2019, S. Schulze spricht über alarmierende Befunde

[4] EIKE 17. Januar 2021: Unsere Politiker sollten sich endlich darum kümmern, wie man mit Corona leben kann und nicht umgekehrt

[5] ärzteblatt.de 37/2020: MEDIZIN: Originalarbeit Hitzebedingte Mortalität – Eine Analyse der Auswirkungen von Hitzewellen in Deutschland zwischen 1992 und 2017

[6] EIKE 16.12.2020: Wie „DIE LINKE“ die Tigermücke besonders effektiv verhindert




Der Wechsel von Tag und Nacht erklärt das Fehlen eines äquatorialen Hotspots in der Atmosphäre

Ich bedanke mich bei der EIKE-Redaktion dafür, dass sie einem breiten Spektrum von konträren wissenschaftlichen Positionen jenseits des wissenschaftlichen „97%“-Mainstreams ein öffentliches Forum bietet. Sehr eigenartig finde ich dagegen die wiederkehrende Kritik einzelner Leser, EIKE würde keine einheitliche Realisten-Position abbilden. Denn eine solche einheitliche Realisten-Position gibt es gar nicht; aber alle diese Positionen konvergieren auf einer Meta-Ebene mit einem „natürlichen atmosphärischen Treibhauseffekt“ als einem „NON-PROBLEM“ und gar keinem oder einem sehr geringem Einfluss des Menschen auf das globale Klimageschehen.

Die wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt hatte ich bereits ausführlich diskutiert (Darstellung, Diskussion, Ergebnis). Allein mein hemisphärischer S-B-Ansatz kann die Widersprüche des konventionellen 24h-Tag=Nacht-THE-Ansatzes auflösen. Das THE-Paradigma behandelt Tag und Nacht völlig gleich und tut so, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von 235W/m² senkrecht einstrahlen. Nun hat aber noch kein THE-Anhänger erklären können, wie aus einer planaren solaren Einstrahlung eine terrestrische radiale Abstrahlung entsteht. Und, was noch viel offensichtlicher ist, eine atmosphärische „Gegenstrahlung“ von ca. 300 W/m²würde verhindern, dass es irgendwo auf unserer Erde jemals kälter als 270K (-3°C) wird. Das konventionelle THE-Modell für unsere Erde mit den globalen Eckwerten von (33°C und 155W/m²) ist also streng eindimensional und beinhaltet keinerlei Abhängigkeit von der Tages- oder Jahreszeit und von der geographischen Breite. Mein hemisphärisches S-B-Modell kann dagegen die „gemessene“ Realität von etwa 15°C widerspruchsfrei abbilden und stimmt mit den tatsächlichen Beobachtungen überein (hier Tabelle 1).

Abbildung 1: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Das 24h=Faktor4-THE-Paradigma benötigt dagegen eine zweite Sonne für die 235W/m² der Nachtseite

Das hemisphärische S-B-Modell kann als vieljährige Durchschnittsbetrachtung unserer realen Erde die oben genannten räumlichen und zeitlichen Abhängigkeiten der solaren Einstrahlung sehr wohl abbilden und erfasst damit alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Beschreibung der Temperaturgenese auf unserer Erde. Nehmen wir mal ein ganz einfaches Beispiel, die Erzeugung von Solarstrom in Deutschland:

Abbildung 2: Realisierte Erzeugungsleistung und tatsächlicher Stromverbrauch im Zeitraum 14.-25. September 2020 (Quelle: SMARD)

Aus dieser Abbildung wird unmittelbar der natürliche Tag&Nacht-Rhythmus bei der Erzeugung von Solarstrom deutlich. Im Umkehrschluss liefert also der Verlauf der Solarstromerzeugung den Beweis, dass der Wechsel von Tag und Nacht wesentliche physikalische Unterschied beinhaltet, ganz wie es mein hemisphärisches S-B-Modell beschreibt. Und dieser Tag&Nacht-Wechsel sollte sich eigentlich auch korrekt in den Klimamodellen abbilden, die sich aber lediglich auf einen 24h-Tag&Nacht-Durchschnitt stützen. Weiterhin wird die hemisphärische Tag&Nacht-Ungleichheit auf der realen Erde durch das Land-Seewind-System und dessen gegenläufigen Tag#Nacht-Verlauf nachgewiesen. Und auch die sogenannte oberflächennahe „Skin“-Schicht der Ozeane schwankt zwischen bis zu 10 Metern am Tage und weniger als einem Millimeter in der Nacht (hier, erster Absatz).

Kann ein globaler 24h-Durchschnitt solche Tag&Nacht-Unterschiede abbilden? – Nein, das kann er natürlich nicht: Es fängt schon damit an, dass die 24h-Tag&Nacht-Gleichheit des THE-Paradoxons im natürlichen Ablauf von Tag und Nacht gar nicht beobachtet werden kann. Und auch die besten mathematischen Ableitungen verlieren ihre physikalische Aussagekraft, wenn vorher die planare solare Einstrahlung auf der Tageshemisphäre der Erde in einen skalaren globalen Durchschnitt umgewandelt wird. Die Strahlungstransferberechnung leitet also aus der Differenz einer physikalisch fehlerhaften globalen 24h-S-B-Inversion als „Gleichgewichtstemperatur“ für die solare Einstrahlungsleistung (-18°C) und der sogenannten „gemessenen“ globalen Durchschnittstemperatur (NST=14,8°C) den ominösen THE (33°) her. Und auch das immer wieder vorgebrachte Argument, die ominöse „atmosphärische Gegenstrahlung“ würde den 2.HS der Thermodynamik erfüllen, entbehrt jeder physikalischen Beweiskraft.

So stellen Ozawa et al. (2003) in einer Veröffentlichung über das Prinzip der maximalen Entropie im globalen Klimasystem ein Berechnungsschema für die Entropie vor und wenden es auf die Erde an:

Abbildung 3: Fig.3 und 5a aus Ozawa et al. (2003) zur Entropie. Links Fig. 3: “A schematic of heat transport through a small system (C) between two thermal reservoirs with different temperatures (A, cold and B, hot). By the heat transport from hot to cold, entropy of the whole system increases…” Übersetzung: Ein Schema des Wärmetransports durch ein kleines System (C) zwischen zwei Wärmespeichern mit unterschiedlichen Temperaturen (A, kalt und B, heiß). Durch den Wärmetransport von heiß zu kalt nimmt die Entropie des gesamten Systems zu… Rechts Fig. 5a: “Energy and entropy budgets for the Earth. (a) Global-mean (surface-area mean) energy flux components (i.e., shortwave radiation, longwave radiation, vertical turbulent heat transport), in W/m². Übersetzung: Energie- und Entropiebudgets für die Erde. (a) Global-mittlere (Oberflächenmittelwert) Energieflusskomponenten (d. h. kurzwellige Strahlung, langwellige Strahlung, vertikaler turbulenter Wärmetransport) in W/m²

Einmal vorausgesetzt, das Schema von Ozawa et al. (2003) zur Ermittlung der Entropie in deren Fig.3 sei korrekt, dann ist es insofern auf die reale Erde adaptiert worden, als dass in deren Fig.5a die allgemein bekannten Durchschnittstemperaturen korrekt aufgeführt worden sind. Allerdings ist deren jeweilige Entsprechung als spezifisches S-B-Strahlungsäquivalent quantitativ nicht nachzuvollziehen. Zunächst fehlt in Fig.5a schon einmal die Solarkonstante von 1.367W/m², die schließlich das maximal mögliche S-B-Temperaturäquivalent von ca. 120°C auf unserer Erde bestimmt. Vielmehr wird dort der temperaturwirksame Anteil der solaren Einstrahlung nach dem Faktor4-Tag=Nacht-THE-Flacherdeansatz mit 240W/m² entsprechend einem S-B-Temperaturäquivalent von (-18°C=255K) beziffert. Und erstaunlicherweise taucht die ominöse „atmosphärische Gegenstrahlung“ im Betrag von 300-333W/m² ebenfalls nicht auf, sodass diese Abbildung aus sich heraus gar nicht erklären kann, wie sich aus einer Einstrahlung von 142W/m² an der Erdoberfläche die angegebenen 288K herleiten sollen; denn die (vernachlässigbare) natürliche mittlere Wärmestromdichte aus dem Erdinneren beträgt an der Erdoberfläche lediglich 0,065W/m².

Anmerkungen: Eine wissenschaftliche Abbildung sollte insoweit vollständig sein, als dass sie alle wesentlichen Komponenten zum Verständnis des beschriebenen Vorgangs enthält. Die näheren Erläuterungen können dann im Fließtext erfolgen. Eine unvollständige Abbildung, die ausgerechnet strittige Komponenten wie die ominöse „atmosphärische Gegenstrahlung“ ausschließt, ist völlig inakzeptabel und wahrscheinlich nicht einmal für THE-Gläubige verständlich.

Erklärung für den Begriff „Entropie“, Zitat Wikipedia: „In einem sich selbst überlassenen System in einem beliebigen Anfangszustand bewirken dann die spontan ablaufenden inneren Vorgänge, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände realisiert sein kann, also die höchstmögliche Entropie hat.“ Das ist schwerer Tobak, eine recht gute Ableitung findet man hier auf EIKE.

Und hier noch ein ganz einfaches Beispiel aus dem vollen Leben: Das Kinderzimmer war eben noch aufgeräumt, dann haben die lieben Kleinen den ganzen Nachmittag gespielt und am Ende herrscht dort Chaos. Im Kinderzimmer hat sich damit die Entropie als Maß für dessen Unordnungszustand erhöht. Und um diese Unordnung dann wieder zu beseitigen, müssen Sie Arbeit (=Leistung*Zeit) verrichten. Denn jedes System, auch das Kinderzimmer, kann seine Entropie nicht ohne zusätzlich eingebrachte Arbeit wieder verringern.

Ergebnis: Der 2. Hauptsatz der Thermodynamik macht auch vor dem Kinderzimmer nicht halt, denn die Aufräumungsarbeiten im Kinderzimmer machen sich nun mal nicht von alleine…

Fassen wir zusammen: Die von Ozawa et al. (2003) in Fig. 5a angegebenen Werte für die spezifische Strahlungsleistung entstammen einem unvollständigen Faktor4-Tag=Nacht-THE Flacherdeansatz und treffen daher nicht auf die reale Erde mit Tag und Nacht zu. Aber die dort angegebenen Temperaturen stimmen dann erstaunlicherweise trotzdem mit den realen Werten überein, Oberflächentemperatur gleich 288K (~+15°C) und Temperatur auf der „Abstrahlungshöhe“ von ca. 5.000 Metern gleich 255K (~-18°C). Ozawa et al. (2003) sagen nun, die theoretischen Abschätzungen von Paltridge (1978) würden in annehmbarer Übereinstimmung mit den tatsächlichen Beobachtungen stehen:

Abbildung 4: “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)). Reprinted from Paltridge [1978]” aus Ozawa et al. (2003, Figure 4) Übersetzung: Globale Verteilung(en) von (a) mittlerer Lufttemperatur,…, vorhergesagt unter der Bedingung der maximalen Entropieproduktion (Gleichung (9)). Nachdruck aus Paltridge [1978]
Deutlich wird hier allerdings, dass die 273K (~0°C) Isotherme bei Paltridge (1978) deutlich polferner (um 50° N und S) verläuft, als die durchschnittliche Oberflächentemperatur der Ozeane in der NASA-Abbildung (um 70° N und S):

Abbildung 5: Globale Durchschnittstemperaturen (Abbildungen in E-W-Richtung gestaucht) Links: Paltridge [1978] aus Ozawa et al. (2003, Figure 4) “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)).” Rechts: NASA “Annual Mean Ocean Surface Temperature” based on observed data up until 1994
Wir können also feststellen, dass der Faktor4-Tag=Nacht-THE-Flacherdeansatz trotz unklarer/fehlender Zwischenschritte von einer fehlerhaften „Gleichgewichtstemperatur“ (-18°C) zu einem vergleichbaren Ergebnis wie die tatsächlich gemessenen Daten (+15°C) kommt, sich also in der Zielsetzung streng an der gemessenen Realität orientiert. Ergebnis ist eine MATHEMATISCHE Strahlungstransfer-Berechnung zwischen einer PHYSIKALISCH fehlerhaften „Gleichgewichtstemperatur“ und der sogenannten „gemessenen globalen Durchschnittstemperatur“. Diese Lücke zwischen fehlerhafter Theorie und gemessener Realität wird dann mathematisch durch eine willkürliche „atmosphärische Gegenstrahlung“ als imaginärer Antrieb eines „natürlichen atmosphärischen Treibhauseffektes“ von 33° geschlossen, die dem 2.HS der Thermodynamik widerspricht. Denn ein Übergang von Wärme von einem kalten zu einem wärmeren Körper ist PHYSIKALISCH nach dem 2.HS der Thermodynamik ohne zusätzlich aufgebrachte Arbeit völlig unmöglich, wie eben auch das Aufräumen eines Kinderzimmers.

In der nachfolgenden Abbildung wird ein älteres Beispiel aus meinem hemisphärischen Modell, das die Entropie der solaren Strahlungsleistung beschreibt (A), durch eine aktuelle Abbildung von Joe Postma (B) nochmals bestätigt:

Abbildungen 6 A&B zum Wärmetransport nach dem 2.HS der Thermodynamik

A – Abbildung Weber: Der Strahlungsdurchschnitt von 470 W/m² (korrekt: 940W/m²*cosPHIi) umfasst einen Strahlungsbereich von 0-940W/m² für die tagseitige Hemisphäre mit einem maximalen S-B-Temperaturäquivalent von 85,7°C @ 940W/m². Bei der globalen Mittelung der tagseitigen solaren Einstrahlung (235W/m²) fällt also genau derjenige Teil der spezifischen solaren Strahlungsleistung (größer 235W/m²) weg, der Temperaturen oberhalb von (-18°C) erzeugen kann.

B – Abbildung Postma: Die schwarze Kurve zeigt die Differenz der IR-Spektren von (22°C=rot) und (-18°C=blau). Es wird deutlich, dass das (-18°C)-Spektrum diese Differenz, insbesondere zu den hohen IR-Frequenzen hin, gar nicht im erforderlichen Umfang enthält.

ERGO: Beide Abbildungen 6 A und B beweisen, dass ein kalter Körper (=hohe Entropie) gar nicht die notwendige physikalische Ordnung besitzt, um einen wärmeren Körper (=geringe Entropie) noch weiter zu erwärmen. Die Entropie erklärt übrigens auch die allgemein bekannten Vorgänge in der unbelebten Natur, beispielsweise die geologische Erosion. Denn während die inneren Kräfte der Erde gerade neue Gebirge auftürmen, beginnt an der Oberfläche bereits deren Erosion. Und das Ergebnis dieser Erosion landet zunächst als Erosionsschutt an der tiefsten topographischen Stelle mit der geringsten potentiellen Energie, also in irgendeinem Tal. Um diesen Schutt dann weiter zu bewegen, sind erneut Kräfte erforderlich, diesmal die Kräfte des gravitativ abfließenden Wassers.
Und die Entropie würde selbstverständlich auch „zerstreuend“ auf einen äquatorialen Hotspot wirken. Und deshalb kann sich ein solcher Hotspot nur in einem Computerprogramm entwickeln, das nach dem 24hTag=Nacht-THE-Ansatz entwickelt worden ist. Nach 10, 100, 1000 oder noch mehr 24h-Tag=Nacht-Zyklen entsteht dann eine solche digitale Wissenschaftsschimäre aus einem physikalischen Ansatz, der nicht mit der alltäglichen Tag#Nacht-Beobachtung in der realen Welt übereinstimmt. Und deshalb konnte dieser theoretische Hotspot bisher auch noch nirgendwo nachgewiesen werden, wie die nachstehende Abbildung aus Henney & Monckton zeigt:

Abbildung 7: (a) prophezeites und (b) gemessenes vertikales Temperaturprofil der Atmosphäre – links: IPCC (2007, Abb. 9.1c), rechts: Lanzante et al. (2006) (Abbildung 15 aus Henney & Monckton)

Denn ein solcher äquatorialer Hotspot würde eine ständige solare Energiezufuhr erfordern, wie sie nur rein rechnerisch in einem 24h-Tag=Nacht-Modell vorhanden ist. Die Realität des täglichen 24h-Zykus wird dagegen regelmäßig durch die hemisphärische Nacht unterbrochen. Und in dieser hemisphärischen Nacht wirkt die Entropie zerstreuend auf die geringste herausgehobene Energiekonzentration, sodass sich ein solcher vorhergesagter Hotspot aus 24h-durchschnittlichen Computerberechnungen in der Realität niemals aufbauen kann. Joe Postma fasst eine solche Situation mit den Worten zusammen, „Kann man Laufen speichern, um schneller zu laufen?“.

Die menschengemachte Klimakatastrophe ist auf eine Physik-Wende zurückzuführen

Highspeed-Computerspekulationen sind die Astrologie unserer Tage. Aufgebaut auf undurchsichtigen und/oder unzureichenden Algorithmen verbreiten sie Zukunftsvisionen, ohne je den Beweis für die physikalische Richtigkeit ihrer Algorithmen an historischen Daten nachgewiesen haben zu müssen. Und solange die Freiheit der Wissenschaft darin besteht, voll alimentiert gesellschaftspolitisch erwünschte Ergebnisse liefern zu dürfen, wird sich daran auch nichts ändern; den Plot dazu finden Sie hier. Das politisch und medial allgegenwärtige „Hört auf DIE Wissenschaft!“ müsste nämlich eigentlich heißen, „Hört auf UNSERE Wissenschaft!“.

Das hemisphärische S-B-Modell definiert den THEORETISCHEN GRENZWERT der terrestrischen Temperaturgenese aus sich selbst heraus zu (+15°C) und stimmt ohne einen sogenannten THE mit der „gemessenen globalen Durchschnittstemperatur“ von (+15°C) überein. Diese (+15°C) sind übrigens nur abhängig von der Solarkonstanten und der terrestrischen Albedo. Das THE-Paradigma definiert dagegen den fehlerhaften ANFANGSWERT („Gleichgewichtstemperatur“ von -18°C) seiner atmosphärischen Resonanzfunktion (-18°C=>Gegenstrahlung=>THE=>+15°C), kann aber einen konkreten Endpunkt dieser Resonanz aus sich selbst heraus gar nicht bestimmen. Es rekurriert mit seiner „Gegenstrahlung“ vielmehr direkt auf die „gemessene globale Durchschnittstemperatur“, und das könnten dann auch (-5°C), (+20°C) oder (+45°C) sein. So würden beispielsweise die Schwankungen des Paläoklimas allein durch eine veränderte „Gegenstrahlung“ erklärt werden können, man muss dort einfach nur die erforderlichen Zahlenwerte einsetzen.

Also noch einmal in aller Kürze: Es gibt keinen „natürlichen atmosphärischen Treibhauseffekt“, weil die Sonne nur am Tage scheint. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwellig (solar=niedrige Entropie) zu langwellig (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie, und das ist nur auf der Tagseite der Erde möglich:

(Solare HF-Einstrahlung) => (Erwärmung von Materie @2PIR²) => (IR-Abstrahlung @4PIR²)

Solange aber der Klimamainstream den längst widerlegten Hockeystick, der ein konstantes Paläoklima in den IPCC-Bericht AR3 hinein gezaubert hatte, weiterhin als Vorhersagekrücke benutzt, liefert eine Physik-Wende die für einen anthropogenen Klimawandel zwingend erforderliche sogenannte „Klimasensitivität“ des CO2-Moleküls. Und schon hat man sich durch eine solche Physik-Wende in den Klimawissenschaften einen schönen neuen CO2-Motor für das Paläoklima gebastelt, der dann eine Energie-Wende erfordert – und eine Agrar-Wende – und eine Verkehrs-Wende – und eine Industrie-Wende – und schließlich auch noch den Großen Reset mit einer anthropogenen Existenz-Wende zurück in ein ökologisches, ökonomisches und intellektuelles Mittelalter. Diesem Wahnsinn steht nicht nur mein hemisphärisches S-B-Modell entgegen, sondern auch das Aktualitätsprinzip der Geologie – aber wer kennt das nach der Bildungs-Wende überhaupt noch…

Es folgen drei Beispiele für den Fußabdruck meines hemisphärischen S-B-Modells in den real existierenden Klimawissenschaften: Das hemisphärische S-B-Modell ermöglicht in Form von einfachsten Plausibilitäten einen qualitativen Blick auf die räumlichen und zeitlichen Abhängigkeiten des Klimageschehens auf unserer realen Erde und entzaubert damit die supercomputer-gestützten Weissagungen der modernen Klimaforschung.

1. Beispiel: Die Sommerpole unserer Erde sind gar keine Temperatur-Hotspots.
Klimamodelle sind nicht in der Lage, die von jedermann zu beobachtende Realität in Form des natürlichen Wechsels von Tag und Nacht abzubilden. Und wenn dort auch noch auf die Polarzonen fokussiert wird, dann kommt es zu ganz eigenartigen klimawissenschaftlichen Stilblüten, die sich wiederum jeder realen Beobachtung entziehen. Eine der Kernerzählungen der Klimareligion ist das Abschmelzen der Polkappen durch den „menschengemachten Klimawandel“, wodurch weite Teile der heute besiedelten Tiefländer der Welt unbewohnbar werden sollen. Manche Klimarealisten sehen in dem Spiegel-Titel „Die Klima-Katastrophe“ Nr. 33/1986 mit dem versinkenden Kölner Dom den Beginn der medialen Klimahysterie.

In der Mainstream-Klimawissenschaft ist es üblich, die physikalischen Einheiten „Leistung (WATT)“ und „Arbeit (JOULE = WATT x ZEIT)“ über die ZEIT, meist den 24h-Tag, nach Belieben aus der jeweils anderen Größe abzuleiten. Der sogenannte „natürliche atmosphärische Treibhauseffekt“ leitet sich nun wiederum aus einer globalen 24-Stunden Mittelung der solaren Einstrahlung her, bei der ein gemeinsamer Mittelwert der Sonneneinstrahlung für Tag und Nacht für die Weiterverwendung in Klimamodellen berechnet wird. Das bedeutet, die tagseitige Sonneneinstrahlung (Solarkonstante S0=1.367W/m²) wird rechnerisch so verteilt, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von lediglich 235W/m² (=S0*(1-Albedo)/4) senkrecht einstrahlen. Und um diesen physikalisch fehlerhaften Ansatz etwas zu verbessern, führen manche Wissenschaftler nun eine breitenabhängige (zonale) Mittelung der globalen Sonneneinstrahlung ein. So wird, wie bereits gezeigt wurde, aus 24h-Zeitintegralen der solaren Strahlungsleistung ein physikalisch sinnfreier breitenabhängiger spezifischer Leistungsdurchschnitt abgeleitet, der am Ende zu rein rechnerischen Temperaturen jenseits jeglicher realer Beobachtungen führt, wie die nachstehende linke Abbildung mit dem jeweiligen Sommerpol als globaler Temperatur-Hotspot beweist:

Abbildung 8: Vergleich der „Daily mean values of (a) slab temperature” von Kramm et al. (2017) – Creative Commons License CC BY 4.0 (links) mit dem Jahresverlauf des örtlichen Maximums der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne (rechts)

Die tatsächliche Maximaltemperatur auf unserer Erde wird zwischen den Wendekreisen und bis in mittlere Breiten der Sommerhemisphäre erreicht. Die Sommerpole unserer Erde sind nämlich gar keine Temperatur-Hotspots, sondern dort ist lediglich die aus einer 24h-durchschnittlichen ARBEIT in JOULE abgeleitete 24h-Durchschnittsleistung ((Leistung @ 24h)/24h) aufgrund der polaren Tageslängen um die jeweilige Sommersonnenwende global gesehen am größten („Max. Arbeit“ in der nachfolgenden Abbildung 9 rechts). Und aus solchen 24h-Durchschnittswerten sollte man tunlichst keine Ortstemperaturen ableiten, sonst kommt es halt zu wissenschaftlichen Verwerfungen…

2. Beispiel: Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden lediglich das chaotische globale Wettergeschehen ab.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ soll durch eine „atmosphärische Gegenstrahlung“ verursacht werden, die wiederum aus der IR-Abstrahlung unserer Erde gespeist wird. Die beiden ursächlichen Steuergrößen für eine solche „atmosphärische Gegenstrahlung“, nämlich die aus den solaren Primärantrieben „tägliches solares Strahlungsmaximum“ und „örtliche Tageslängen“ induzierte Gesamtwärmemenge, lassen sich sekundär unter „jahreszeitlich maximale örtliche IR-Abstrahlung der Erde“ subsummieren. Der nachfolgende graphische Vergleich zeigt, dass die erforderliche Übereinstimmung zwischen den „menschengemachten“ IPCC-Temperaturdifferenzen und der maximalen örtlichen IR-Abstrahlung unserer Erde in der Farbgebung der IPCC-„Figure 1.SM.1“ jahreszeitlich nicht prägnant hervortritt:

Abbildung 9: Vergleich der IPCC-„Figure 1.SM.1“ (links) mit den tentativen jahreszeitlichen Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Anmerkung: Die jeweils zweistufige Farbskala für die Sommerhemisphäre in der Abb. links (Beispiel MAM und JJA für den Nordsommer) wurde im rechten Bild willkürlich in zwei einstufige Skalen für LEISTUNG (~JJA) und ARBEIT (~MAM) auf der jeweiligen Sommerhemisphäre aufgespalten und (nicht flächentreu) der tatsächlichen geographischen Lage zugeordnet. Deshalb können Farbsignaturen für Leistung/Arbeit (~JJA/MAM) in der jeweiligen geographischen Lage auch in umgekehrter Signatur (~MAM/JJA) auftreten; beispielsweise blau für LEISTUNG zwischen Äquator und mittleren Breiten.

Eigentlich müsste sich in der IPCC-Abbildung „Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015“ der zusätzliche THE-Anteil aus dem „menschengemachten“ CO2 aufgrund seiner vorgeblichen IR-Abhängigkeit als Temperaturanomalie proportional zur jahreszeitlich maximalen örtlichen IR-Abstrahlung unserer Erde abbilden. Das ist aber ganz offensichtlich nicht der Fall, denn insgesamt finden wir in „Figure 1.SM.1“ lediglich eine globale und unspezifische jahreszeitliche Durchmischung und sogar jahreszeitlich stark gegenläufige Anomalien. Der vorstehende Vergleich von „Figure 1.SM.1“ (links) mit den tentativen Auswirkungen der jahreszeitlich maximalen örtlichen IR-Abstrahlung aus meinem hemisphärischen S-B-Modell (rechts) verdeutlicht vielmehr, dass sich die erratisch verteilten Temperaturanomalien nicht mit den jahreszeitlichen Schwankungen erklären lassen, sondern viel eher mit deren zeitlicher Veränderung (also der 1. Ableitung), wobei das Maximum dieser Veränderung um die Äquinoktien liegt und jeweils beide jahreszeitlichen Hemisphären betrifft. Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden also lediglich das chaotische globale Wettergeschehen ab.

3. Beispiel: Der experimentelle Nachweis für den hemisphärischen S-B-Ansatz ist anhand von Satellitenmessungen gelungen.

Das IPCC-Modell KT97 gilt als Grundlage für alle computergestützten Klimamodelle. Herr Albert (Aulus) Agerius hatte auf Grundlage meines hemisphärischen Strahlungsmodells ein alternatives Klimamodell erstellt. In seinem BuchKritische Analyse zur globalen Klimatheorie: Widerlegung der Basisstudie KT97 des IPCC mit den Messwerten des ERBS Satelliten an einem neuen Modell“ deckt er erhebliche Widersprüche in der IPCC-Basisstudie KT97 auf:

Tabelle 1: Satellitenmesswerte des ERBS Satelliten in einem Modellvergleich (Quelle: A. Agerius)

Dem IPCC-Modell KT97 gelingt es also lediglich, 5 von 11 Messreihen abzubilden. Diesem IPCC-Modell KT97 stellt Agerius nun sein „Modell 5“ entgegen, das alle 11 Messreihen ohne einen atmosphärischen Treibhauseffekt abbildet und damit meinen hemisphärischen S-B-Ansatz voll betätigt.

Zum besseren Verständnis können Sie einmal die Perspektive eines Satelliten einnehmen: Die planare solare Einstrahlung erfolgt auf einer Kreisfläche (PIR²) und die jeweiligen Messwerte beziehen sich auf Schnittpunkte solcher Einstrahlungsflächen mit der entsprechenden Satellitenbahn (@4PIR²). Die Satellitenmesswerte für die Solarkonstante können die Erdkrümmung also gar nicht abbilden.

Nachtrag: Ich bitte höflich darum, im Interesse der objektiv interessierten Leser auf kreative Designerzitate und daraus abgeleitete sophistische Skandalisierungen zu verzichten. Das Stilmittel der sophistischen Skandalisierung einer ausschließenden gegenteiligen Eigenschaft (Disjunktion) fällt sofort auf, wenn es sich um Alltagswissen handelt. Ein Beispiel für den offensichtlichen Widersinn eines solchen skandalisierenden Sophismus‘ wäre die Aussage: „Der Dieselmotor widerspricht dem Prinzip der Elektromobilität“. Bei wissenschaftlichen Zusammenhängen, die zur Beurteilung einer Aussage zumindest die inhaltliche Abgrenzung zwischen Fachbegriffen erfordern, ist eine solche sophistische Skandalisierung für den interessierten Leser dagegen sehr viel schwerer zu erkennen, wie die nachfolgende Aussage beweist: „Ausgehend von dem Begriff des ‚solaren Klimas‘ wird nachgewiesen, dass die von Herrn WEBER (2019) in seinem Beitrag aufgestellten Behauptungen zur Ermittlung der global gemittelten Oberflächentemperatur einer Erde ohne Atmosphäre mit den theoretischen Grundlagen unvereinbar sind.“ Solche sophistischen Gegenargumente lassen sich nämlich für mein hemisphärisches S-B-Modell mittels einer oder mehrerer ausschließender gegenteiliger Eigenschaften jederzeit zurechtbiegen:

Sie können jetzt also sehr einfach mein hemisphärisches S-B-Modell skandalisieren, indem Sie ihm die Nichterfüllung seiner rechts aufgeführten ausschließenden Gegensätze vorhalten, also: Das hemisphärische S-B-Modell von Weber ist Mist, weil es

  • dem Prinzip der globalen Mittelung widerspricht,
  • dem Prinzip einer „Erde ohne Atmosphäre“ widerspricht,
  • dem anerkannten Lehrbuchwissen nach (Professor Dr. Beliebig) widerspricht.

Vielleicht erkennen Sie in diesen Aussagen ja den einen oder anderen Kommentar zu meinem hemisphärischen S-B-Modell wieder; sachlich korrekt oder gar verständnisfördernd sind solche Sophismen jedenfalls nicht. Für seriöse Verständnisfragen verweise ich gerne nochmals auf den Vergleich meines hemisphärischen Modells mit den wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt (Darstellung, Diskussion, Ergebnis) oder dessen direkten Abgleich mit dem sogenannten THE (hier Tabelle 1).

Einer physikalischen (nicht mathematischen) Beweisführung über eine Übereinstimmung der ominösen Faktor4-Tag=Nacht-Flacherde mit der tatsächlich beobachteten Tag#Nacht-Realität sehe ich mit Interesse entgegen.

 




Übersterblichkeit? „Sehr weit weg von allen Katastrophenszenarien“Eine mathematische Auswertung der Sterbefälle

Ein Gastbeitrag von Prof. Dr. Thomas Rießinger

Am 15. Januar 2021 hat das Statistische Bundesamt seine neue „Sonderauswertung zu Sterbefallzahlen des Jahres 2020“ vorgelegt, in der die Sterbefälle bis zum 20.12.2020 dokumentiert werden – ein Anlass, noch einmal auf meine Untersuchung der Sterbefälle des Jahres 2020 einzugehen, die am 29.12.2020 veröffentlicht wurde. Dazu gleich mehr.

Zunächst ist aber ein Wort der Verwunderung angebracht. Zum Zeitpunkt der Veröffentlichung der Sonderauswertung waren im neuen Jahr schon zwei Wochen ins Land gegangen. In wenigen Tagen wird das neue oberste Entscheidungsgremium Deutschlands, die in der Verfassung nicht vorgesehene Konferenz aus Kanzlerin und Ministerpräsidenten, neue verheerende Entscheidungen für die nächsten Wochen treffen. Hätte man nicht dafür sorgen können, dass dann wenigstens die – und seien es vorläufigen – Sterbefallzahlen für das gesamte Jahr 2020 vorliegen? Dem Bundesamt selbst und seinen Mitarbeitern kann man keinen Vorwurf machen, denn sie handeln dort wie in jeder Behörde auf Anweisung, und solange keine politischen Vorgaben vorliegen, wird man an der eigenen Vorgehensweise nichts ändern. Und genau hier liegt das Problem, denn selbstverständlich hätte es einer verantwortlichen Politik gut zu Gesicht gestanden, ihre oberste statistische Behörde mit den Mitteln und mit der Anweisung zu versehen, die nötigen Vorkehrungen zu treffen, um entscheidungsrelevante Daten schneller zur Verfügung zu stellen. Nun müssen wir auf die Daten für das Gesamtjahr voraussichtlich bis zum 29.01.2021 warten.

Man muss natürlich zugeben: Die Politik hatte Besseres zu tun, als sich um die schnelle Bereitstellung relevanter Daten zu kümmern. Schließlich war man vollauf damit beschäftigt, die Risikogruppen der Pandemie, die Alten mit Vorerkrankungen, die Insassen der Pflegeheime, zu vernachlässigen und ihren Schutz anderen Leuten zu überlassen. Schließlich musste man dafür sorgen, dass es in Anbetracht des Impfstoffes, der doch von der Regierung so sehnlich erwartet wurde, nicht zu einem verwerflichen Ausbruch von Impfnationalismus kommen konnte, indem man die Bestellung des Impfstoffs den bekanntermaßen schnellen und effektiven Gremien der Europäischen Union überließ. Schließlich kostete es ein gerüttelt Maß an Energie, alle Stimmen der Kritik an den Regierungsmaßnahmen im besten Fall zu ignorieren, wenn nicht gar zu diskreditieren. Und schließlich – um ein letztes Beispiel zu nennen – musste man selbstverständlich, da es offenbar keine bessere Mittelverwendung gab, mehr als eine Milliarde Euro für den lebensnotwendigen Kampf gegen Rechts in die immer gern bereiten Kanäle empfangswilliger Organisationen leiten. Man versteht, dass bei all diesen wichtigen Aktivitäten einfach weder Zeit noch Geld für die schnelle Beschaffung wichtiger Daten zur Verfügung stand. An den Mitarbeitern des Amtes liegt das nicht, sondern an den Prioritäten der Politik.

Nun aber zu den Daten, soweit sie bisher vorliegen. In meiner schon erwähnten Untersuchung war ich zu dem Schluss gekommen, dass eine Zahl von etwa 967.000 Sterbefällen für das Jahr 2020 im Normalbereich dessen liegt, was man auf Basis einer linearen Regression über die Sterbefälle für die Jahre von 2006 bis 2019 erwarten kann. Nach der neuen Sonderauswertung hat es bis zum 20.12.2020 941.199 Sterbefälle gegeben. Nimmt man für die letzten 11 Tage des Jahres eine mittlere Zahl von Todesfällen in der Höhe von 3.300 an, so kommt man auf eine Gesamtzahl von etwa 977.500, bei einer höher angesetzten mittleren Zahl von 3.400 ergeben sich entsprechend 978.600. Es wird also mehr Sterbefälle geben, als meine einfache Beispielrechnung erwarten ließ.Man kann damit nun auf zwei verschiedene Arten umgehen. Entweder man bleibt bei der ursprünglichen Analyse und stellt fest, welche Bedeutung die Abweichung hat, oder man unterzieht die Analysemethode einer Revision und sieht zu, zu welchen Ergebnissen genauere Methoden führen. Da es im Zuge der Coronakrise schon ein Übermaß an Einseitigkeiten gibt, werde ich hier das eine tun, ohne das andere zu lassen.

Gehen wir also für den Anfang von 978.600 Sterbefällen für das Jahr 2020 aus, das sind 11.600 mehr, als der von mir bisher berechnete Normalbereich der linearen Regression hergegeben hat. Auch wenn sich die absolute Zahl hoch anhört und jeder Einzelfall – heute muss man diese Selbstverständlichkeit immer wieder betonen, um nicht von den üblichen Vorwürfen umtost zu werden – unzweifelhaft traurig und schlimm ist, so handelt es sich doch nur um eine Erhöhung um 1,2 %, die man als Übersterblichkeit interpretieren kann. In den Jahren 2015 und 2018 gab es in diesem Sinne Übersterblichkeiten von etwa 1 %, und niemand hat das Ende der Welt ausgerufen. Noch deutlicher wird die Größenordnung, wenn man die Zahl der zusätzlichen Sterbefälle pro 10.000 Einwohner bestimmt: die liegt dann bei 1,4 zusätzlichen Toten pro 10.000 Einwohner. Eine mittelgroße Stadt wie mein Wohnort zählt knapp 44.000 Einwohner, woraus folgt, dass man hier sechs zusätzliche Tote zu registrieren hätte. Nicht pro Tag. Auch nicht pro Woche oder pro Monat, sondern im gesamten Jahr. Bei einer Gesamtzahl von etwa 500 Sterbefällen pro Jahr darf man sich fragen, ob diese Erhöhung ohne die immerwährend geschürte Coronafurcht zu einem gesonderten Eintrag im örtlichen Jahresrückblick geführt hätte. Man sollte zudem nicht ganz übersehen, dass diese Größenordnung der Übersterblichkeit weit unter den berichteten Zahlen von „an oder mit Covid19 Verstorbenen“ liegt und somit die Frage nahelegt, ob bei zwei Dritteln oder gar drei Vierteln dieser Sterbefälle selbst dann, wenn Covid19 ursächlich beteiligt war, nicht ansonsten eine andere Todesursache zum Tragen gekommen wäre und somit eine Verschiebung der Todesursachen stattgefunden hat.

Nun muss man aber bei den einmal gewählten Methoden nicht stehenbleiben. Ich darf daran erinnern, dass in meiner ersten Berechnung eine lineare Regression vorgenommen wurde, bei der die Anzahl der Sterbefälle direkt in Relation zu den Kalenderjahren gesetzt wurde, woraus sich eine deutliche lineare Tendenz ergab. Kommentatoren haben mir mit einem gewissen Recht vorgeworfen, ich hätte noch die Bevölkerungsentwicklung berücksichtigen müssen, denn je mehr Leute zu Beginn eines Jahres leben, desto größer wird voraussichtlich die Zahl der Sterbefälle sein. Das ist sicher wahr, und natürlich geht die Bevölkerungsentwicklung auch implizit in meine einfache Regression ein, aber da die Daten explizit vorliegen, werde ich jetzt nicht mehr nur die Gesamtzahl der Sterbefälle pro Jahr betrachten, sondern die jährlichen Sterbefälle pro 10.000 Einwohner. Die ist leicht herauszufinden. Im Jahr 2019 gab es beispielsweise 939.520 Sterbefälle, während die Bevölkerung am 1. Januar 2019 bei 83.019.213 Einwohnern lag. Pro 10.000 Einwohner sind daher 939.520*10.000/83.019.213, also 113,17 Menschen verstorben. Trägt man die vorliegenden Daten für die Jahre 2006 bis 2019 in eine Tabelle ein und bestimmt zusätzlich die Sterbefälle pro 10.000 Einwohner, so ergibt sich die folgende Auflistung.

Zur besseren Übersicht ist es sinnvoll, die Entwicklung der jährlichen Sterbefälle pro 10.000 Einwohner in einem Streudiagramm grafisch darzustellen.

Wie schon bei der Auswertung der Gesamtsterbezahlen geschehen, kann man nun die vertraute Regressionsgerade einzeichnen, gewonnen mit der üblichen Methode der linearen Regression. Offenbar gibt es eine steigende lineare Tendenz, deren Güte man wieder mit dem Korrelationskoeffizienten r berechnen kann; die Rechnung ergibt r=0,950. Hier ist es vielleicht nötig, die Rolle des Korrelationskoeffizienten noch einmal zu betonen: Bei einem steigenden Verlauf kann r nicht größer als 1 sein, und der Wert 1 bedeutet, dass die Punkte alle auf einer Geraden liegen, während der Wert 0 anzeigt, dass die Daten keinerlei lineare Tendenz aufweisen. Der Wert r=0,950 liegt nun sehr nahe bei 1, woraus folgt, dass es eine annähernd lineare – und zwar ansteigende – Tendenz bei der Anzahl der Sterbefälle pro 10.000 Einwohner in Deutschland gibt.

Auch wenn Gleichungen nur selten auf große Gegenliebe stoßen, will ich doch die Gleichung der Regressionsgeraden angeben, die man ohne nennenswerten Aufwand berechnen kann. Sie lautet: Fälle=1,1759*Jahr–2258,7217, womit die Anzahl der Sterbefälle pro 10.000 Einwohner beschrieben ist, die man nach dem Trend der letzten 14 Jahre erwarten kann. Für das Jahr 2019 liegt der Trendwert daher bei 1,1759*2019–2258,7217=115,42; rechnet man etwas genauer, also mit mehr Nachkommastellen, hat man 115,45. Selbstverständlich ist das ein Trendwert und kein exakter Wert. Um nun die Trendwerte mit den konkreten gezählten Werten zu vergleichen, muss man nur die Abweichung des konkreten Wertes vom jeweiligen Trendwert ausrechnen und dann den Durchschnitt der Absolutbeträge bilden mit dem Resultat einer durchschnittlichen Abweichung von 1,2426 Sterbefällen pro 10.000 Einwohnern.
Soweit handelt es sich um historische Daten, deren Bedeutung sich zeigt, wenn man zusieht, was sich nach dem berechneten Trend für das Jahr 2020 ergeben müsste. Das ist nicht schwierig, man muss nur den Wert 2020 in die Geradengleichung einsetzen und erhält einen vermuteten Wert von 116,6298 Sterbefällen pro 10.000 Einwohner – hier zeigt wieder die steigende Tendenz ihre Wirkung. Da wir nicht damit rechnen können, dass der Trendwert exakt eintreffen wird, lege ich zur Berechnung eines Normalbereiches die durchschnittliche Abweichung von 1,2426 Sterbefällen zugrunde und erhalte einen Bereich zwischen 116,6298–1,246=115,3872 und 116,6298+1,2426=117,8724. Und da es sich 2019 um ein im Vergleich zur Trendgeraden offenbar sehr mildes Jahr gehandelt hat, liegt die Vermutung nahe, dass das Folgejahr ein härteres sein wird und sich die Sterblichkeit eher im oberen als im unteren Bereich bewegen wird.

Ist man einmal so weit gekommen, findet man auch schnell die entsprechenden Daten für die Gesamtsterblichkeit 2020: Wenn der Trendwert der Sterblichkeit pro 10.000 Einwohner bei 116,6298 liegt und die Anzahl der Einwohner bei 83166711, so kommt man auf einen Trendwert für die Gesamtsterblichkeit von 83166711*116,6298/10000=969971. Das ist der Trendwert. Auf die gleiche Weise berechnet man die untere Grenze des Normalbereiches zu 959.637 und die obere Grenze zu 980.306. Geht man davon aus, dass man sich wegen des milden Jahres 2019 und der zu erwartenden nachgeholten Sterbefälle im oberen Bereich bewegt, so stellt sich heraus, dass bei genauerer Betrachtung der Bevölkerungsentwicklung im Jahr 2020 eine Gesamtsterblichkeit zwischen etwa 960.000 und 980.000 Sterbefällen zu erwarten ist, und in diesem Bereich scheinen wir uns nach den bisher vorliegenden Daten auch zu befinden. Kurz gesagt: Die oben berechnete Schätzung von etwa 978.600 Todesfällen im Jahr 2020 auf Basis der Werte bis zum 20.12.2020 lässt, sofern sie denn eintrifft, keinen Schluss auf eine Übersterblichkeit zu.

Das Resultat ist zunächst wenig überraschend. Nimmt man den Anstieg der Bevölkerungszahl genauer ins Visier, so ist tatsächlich anzunehmen, dass auch die Gesamtanzahl der Sterbefälle genauer abgeschätzt werden kann und in jedem Fall steigen wird. Ganz so einfach ist die Lage aber nicht, denn immerhin wäre die Gesamtanzahl über die Jahre selbst dann angestiegen, wenn die Anzahl der Sterbefälle pro 10.000 Einwohner einigermaßen konstant geblieben, die Bevölkerung selbst aber gewachsen wäre. Die Daten zeigen aber, dass selbst die relative Anzahl der Sterbefälle ein klares lineares Wachstum aufweist, das mit der wachsenden Bevölkerung allein nicht zu klären ist.

Hier kommt ein weiteres Phänomen zum Tragen, das ich in der bisherigen Rechnung nicht berücksichtigt habe: das Phänomen der Verteilung der Bevölkerung auf Altersgruppen. Kaum jemand wird abstreiten, dass mit zunehmendem Alter das Risiko für Erwachsene, in absehbarer Zeit zu sterben, ansteigt. Welche Folgen das haben kann, zeigt das folgende fiktive Beispiel. Nimmt man eine 10.000-köpfige Gruppe in einer Bevölkerung an, von denen 5.000 eine Sterbewahrscheinlichkeit von 5 % aufweisen, während die anderen 5.000 aufgrund ihres Alters eine Sterbewahrscheinlichkeit von 15 % erreicht haben, so sind in der ersten Gruppe 250 Tote zu erwarten, in der zweiten dagegen 750: 5 % von 5.000 und 15 % von 5.000. Zusammen ergibt das 1.000 Sterbefälle. Lässt man nun genug Zeit verstreichen, so hat man in einer 10.000-köpfigen Gruppe vielleicht nur noch 4.000 Mitglieder der ersten Kategorie und 6.000 aus der zweiten, weil die Bevölkerung insgesamt gealtert ist und nur weniger Junge nachwachsen. Bei gleichbleibenden Raten sind dann in der ersten Gruppe nur noch 200 Sterbefälle zu erwarten, in der zweiten dagegen 900: 5 % von 4.000 und 15 % von 6.000. Obwohl sich an den eigentlichen Sterberaten rein gar nichts geändert hat, wird man nun 1.100 Tote verzeichnen statt wie vorher 1.000, die aber ausschließlich auf das Konto der veränderten Altersstruktur gehen und mit Übersterblichkeit nichts zu tun haben.

Zum Glück sind die Altersstruktur der deutschen Bevölkerung und die Sterbefälle nach Altersgruppen seit 2016 in der Datensammlung des Statistischen Bundesamtes aufzufinden. Die folgende Tabelle zeigt, wie sich jeweils zu Beginn eines Kalenderjahres die Bevölkerung auf die einzelnen Altersgruppen verteilt hat.

2019 gab es also beispielsweise 3.111.597 Menschen zwischen 80 und 85 Jahren, 2020 waren es schon 3.294.281. In der Gruppe der mindestens 85-Jährigen waren es 2.277.509 bzw. 2.386.854. Offenbar gibt es ein gewisses Wachstum in der Gruppe der Menschen, die das achtzigste Lebensjahr erreicht haben, was ihnen jederzeit zu gönnen ist.

Nun kennen wir aber auch die Anzahl der Sterbefälle in den einzelnen Altersgruppen für die Jahre von 2016 bis 2019; man findet sie beim Statistischen Bundesamt. Ich will sie hier nicht auch noch in tabellarischer Form anführen, sondern nur an einem Beispiel zeigen, welche relevanten Kennziffern man daraus berechnen kann. Im Jahr 2016 sind in der höchsten Altersgruppe der Menschen ab 85 Lebensjahren 337.288 Sterbefälle aufgetreten. Der obigen Tabelle kann man den Ausgangswert von 2.204.791 Gruppenmitgliedern entnehmen. Dividieren führt dann zu dem Ergebnis, dass im Jahr 2016 15,298 % der Mitglieder dieser Altersgruppe verstorben sind. Diese Rechnung kann man ohne großen Aufwand für jede Altersgruppe und jedes Jahr vornehmen und kommt zu der nachstehenden Tabelle.


Für 2020 kann man diese Prozentzahlen noch nicht angeben, da die Gesamtzahl der Sterbefälle noch nicht vorliegt, natürlich auch nicht pro Altersgruppe. Und nun sehen wir, dass es natürlich auch bei den relevanten Prozentsätzen leichte Schwankungen gibt: In der Gruppe der mindestens 85-Jährigen liegt der Prozentsatz beispielsweise zwischen 15,298 % und 15,9 %.

Was hilft das für das Jahr 2020? Man kann nun nachrechnen, welche Sterbefallzahl 2020 zu erwarten wäre, wenn man die prozentualen Anteile der Verstorbenen aus den Jahren 2016 bis 2019 der Berechnung zugrunde legt. Wieder ein Beispiel. 2016 sind in der Gruppe „65 bis unter 70“ 1,404 % der Gruppenzugehörigen verstorben. Hätte man den gleichen Prozentsatz in der entsprechenden Gruppe des Jahres 2020, die aus 4.859.032 Mitgliedern bestand, so müsste man mit etwa 68.200 Toten in dieser Gruppe rechnen. So kann man für jede Altersgruppe und jedes Jahr rechnen und dann die Daten der einzelnen Gruppen zu einer Gesamtsterblichkeit aufaddieren. Das führt zu interessanten Ergebnissen. Hätten wir 2020 Verhältnisse wie im Jahr 2016 und daher die gleichen prozentualen Sterbesätze, so käme man für 2020 auf 980.288 Sterbefälle. Unter den Voraussetzungen und Prozentsätzen von 2017 wären es 984.129, die Umstände von 2018 würden sogar zu 993.580 Sterbefällen führen, während bei Bedingungen wie 2019 963.906 Sterbefälle zu verzeichnen wären. Übertragen auf die Altersstruktur von 2020 ergibt sich somit eine Bandbreite von etwa 964.000 bis 993.000 Sterbefällen.

Noch einmal, ganz langsam für Politiker und Journalisten des öffentlich-rechtlichen Rundfunks: Das sind Zahlen, die sich aus den vorhandenen historischen Daten der Jahre 2016 bis 2019 ergeben, sofern man die jeweilige Altersstruktur der Bevölkerung berücksichtigt. Im Jahr 2018 hat allerdings niemand Horrormeldungen verbreitet, die sich 2020 bei etwaigen Todeszahlen in der Größenordnung von 993.000 Fällen sofort erheben würden. Es hat auch niemand einen Lockdown verhängt und sich redlich bemüht, ein ganzes Land – und nicht nur eines – zu ruinieren.

Ein kurzes Fazit der Berechnungen ist angebracht

  1. Bleibt man bei der alleinigen Berücksichtigung der Gesamtsterbezahlen für die lineare Regression, so führt das für 2020 zu einer voraussichtlichen Übersterblichkeit von etwa 1,2 %. Das ist nicht schön, aber sehr weit weg von allen Katastrophenszenarien.
  2. Geht man, um genauer zu sein, zu den Sterbefällen pro 10.000 Einwohnern über, so kann man eine Gesamtsterblichkeit zwischen etwa 960.000 und 980.000 Sterbefällen erwarten, und in diesem Bereich scheinen wir uns nach den bisher vorliegenden Daten auch zu befinden. Auf die genaueren Daten müssen wir noch bis Ende Januar warten.
  3. Berücksichtigt man zusätzlich, dass sich die Altersstruktur der Bevölkerung verändert hat und rechnet die Sterblichkeitsraten der Jahre 2016 bis 2019 pro Altersgruppe hoch auf die Verhältnisse des Jahres 2020, so ergibt sich sogar eine Bandbreite von 964.000 bis 993.000 Sterbefällen, je nachdem, welches der vier zurückliegenden Jahre als Basis dient.

Nun kann man schon die Einwände hören, bevor sie geäußert worden sind. Besonders beliebt ist der Einwand des Präventions-Paradoxons, nach dem nur die harten Maßnahmen zu einer auch unter normalen Umständen erwartbaren Sterberate geführt haben können.

„Getretner Quark
Wird breit, nicht stark“,

wusste schon Goethe. Ich hatte es schon einmal gesagt: Trotz aller Maßnahmen wird noch immer Tag für Tag eine hohe Zahl mutmaßlich neu Infizierter gemeldet, die aber im Falle der vermuteten Sterberate keinen nennenswerten Einfluss auf die Gesamtzahl der Toten gehabt haben können – die Rate liegt dann ja nach den bisherigen Daten im Rahmen des auch ohne Infektionsfälle Erwartbaren. Wie sollen die Maßnahmen etwas verhindert haben, wenn erstens dennoch Zehntausende von mutmaßlichen Neuinfektionen auftreten und zweitens die Gesamtsterbezahlen sich nicht anders entwickeln als nach den vorherigen Jahren zu erwarten? Die Vermutung liegt nahe, dass hier Covid19 andere Todesursachen ersetzt hat und die entsprechenden Todesfälle sich nur in ihrer Ursachenstruktur und nicht in ihrer Häufigkeit verändert haben. Zudem liegen inzwischen etliche Studien vor, die sich mit der Sinnhaftigkeit harter Maßnahmen wie Lockdowns befassen und zu dem Schluss kommen, dass eine nennenswerte Wirksamkeit nicht nachgewiesen werden kann. Nennen kann man hier als Beispiele die neue Studie von John Ioannides und Kollegen vom Januar 2021, die immerhin einen regulären Peer-Review-Prozess durchlaufen hat und sich damit wohltuend von der grundlegenden Arbeit zum PCR-Test von Christian Drosten unterscheidet. Oder die Studie von Ari Joffe, der zeigt, dass die Schäden von Lockdowns ihren Nutzen in jeder Hinsicht bei weitem überschreiten. Dagegen ist die gern zitierte Stellungnahme der Leopoldina, auf die sich die Regierung so begeistert beruft, weit von jeder Wissenschaftlichkeit entfernt, wie man unter anderem hier oder auch hiernachlesen kann.

Von der Antike bis zum frühen 19. Jahrhundert hat man Patienten verschiedenster Art gerne zur Ader gelassen, um durch die Blutabnahme die schlechten Säfte aus dem Körper zu entfernen. Wurde der Patient gesund, konnte man sich darauf berufen, ihn erfolgreich zur Ader gelassen zu haben. Verbesserte sich sein Zustand nicht oder verschlechterte er sich sogar, so konnte man die Auffassung vertreten, der Aderlass sei noch nicht lang und gründlich genug gewesen und müsse daher bis zur Gesundung immer wieder fortgesetzt werden. Und überlebte der Patient die Behandlung nicht, dann fand sich immer ein Grund, warum es nicht an der Therapie lag, zum Beispiel der mangelnde reine Glaube des Patienten. Damals wusste man es wohl nicht besser. Der Aderlass unserer Gesellschaft ist der immer und immer wieder neu aufgelegte Lockdown, und man könnte es besser wissen. Jeder mag sich selbst überlegen, warum man uns dennoch immer aufs Neue zur Ader lassen will.

Thomas Rießinger ist promovierter Mathematiker und war Professor für Mathematik und Informatik an der Fachhochschule Frankfurt am Main. Neben einigen Fachbüchern über Mathematik hat er auch Aufsätze zur Philosophie und Geschichte sowie ein Buch zur Unterhaltungsmathematik publiziert.

Der Beitrag erschien zuerst bei Reitschuster hier




Verschärfte Fakten für den Unlock

Das ist aber nicht die Übersterblichkeit. Um diese zu berechnen, muss die Basiszunahme der Toten pro Jahr aufgrund der demographischen Alterung herausgerechnet werden. Aufgrund dieses Effekts sterben so lange, bis die Bevölkerungszahl oder das Durchschnittsalter in Deutschland deutlich sinken, jedes Jahr mehr Menschen. Diese zu erwartende Zunahme hat der Mathematiker Thomas Rießinger mit Hilfe eines Regressionsmodells aus den Sterbezahlen der letzten 14 Jahre modelliert. Demzufolge müssten 2020 in Deutschland 957.006 Menschen sterben. Verwendet man diesen korrigierten Wert als Referenzgröße, kommt man für 2020 auf eine Übersterblichkeit von 2 Prozent, es sind etwa 19.600 Menschen mehr gestorben als laut Modell zu erwarten wären.

Was die 2 Prozent Übersterblichkeit bedeuten

Dieser Wert kann zum Teil durch COVID erklärt werden, denn die Krankheit ist bei Menschen am Ende ihres Lebens eine natürliche Todesursache, die aber die Lebenserwartung um einige Wochen verkürzen kann (harvest effect), bei wenigen Patienten auch um mehr Lebenszeit. Dieser Effekt kann die Übersterblichkeit zum Teil erklären, doch kann ein Teil der 19.600 zusätzlichen Toten auch durch ganz andere Ursachen hervorgerufen worden sein, wir kennen die Kausalzusammenhänge im komplexen System der Interaktion von Mensch und Umwelt, die letztlich bei jedem von uns eines Tages zum Ende des Lebens führt, oft nicht einmal beim Einzelnen genau, aber in der Gesamtpopulation erst recht nicht.

Sicher ist, dass wir nicht um die 1.000 COVID-Tote am Tag zu beklagen haben, wie es das RKI berichtet, denn dann müssten wir es mit einer in allen Altersgruppen viele Todesopfer fordernden schweren Epidemie zu tun haben, die die Reihenfolge der Todesursachen verändert. Seit Jahrzehnten sterben etwa 35 Prozent an Herz-Kreislauf-Erkrankungen, 25 Prozent an Krebs, 7,5 Prozent an Erkrankungen des Atemsystems und alle anderen an selteneren Erkrankungen.

2018 starben laut Statistischem Bundesamt etwa 20 Tausend Menschen an Pneumonie und 34 Tausend an chronischen Atemwegserkrankungen, vor allem an der Raucherkrankheit COPD. Viele dieser Patienten sterben akut an Pneumonie, doch wird dies nicht als Todesursache angegeben, da die zugrundeliegende Krankheit den Tod verursacht hat. Geht man, um eine grobe Einschätzung der RKI-Zahlen zu erhalten, davon aus, dass 2018 etwa 40 Tausend Menschen akut an Pneumonie gestorben sind, wären das 4 Prozent der Verstorbenen. Wenn man nun großzügig abschätzt, dass sich aufgrund von COVID diese Quote im Dezember vervierfacht hat, käme man auf etwa 500 COVID-Tote pro Tag (16 Prozent).

Behördliche Uminterpretation der Todesursachen

Um auf 1.000 Tote am Tag zu kommen, müsste COVID als Todesursache Krebs überholen und etwa so bedeutsam sein wie Herz-Kreislauf-Erkrankungen, nämlich ein Drittel aller Toten verursachen. Doch dafür müsste es auch bei Patienten unter 70, die für die Todesquoten der Herz-Kreislauf-Erkrankungen und Krebsarten relevant sind, eine hohe Letalität aufweisen. Wir wissen jedoch, dass die Letalität bei den über 70-Jährigen bei 1–2 Promille und bei den unter 70-Jährigen zehnmal niedriger oder noch viel niedriger liegt.

Daher kann der Anteil der COVID-Toten kaum auf 16 Prozent, geschweige denn auf 32 Prozent pro Tag gestiegen sein, denn sonst müsste es noch deutlich mehr und vor allem mehr junge Tote geben. Maximal gab es laut RKI 2020 etwa 30 Tausend COVID-Tote, wobei die vom RKI betriebene COVID-Überdiagnose in diese Zahl schon eingeflossen ist. Die Influenza-Welle 2017/2018 brachte es auf eine ähnliche hohe Zahl, 1968/69 starben über hunderttausend Westdeutsche an der Hongkong-Grippe.

Wir haben es also mit einer milden Übersterblichkeit zu tun, wie sie immer wieder auftritt, genauso wie die Untersterblichkeit, die es auch in manchen Jahren gibt. Solange wir nicht 5 oder 10 Prozent Übersterblichkeit und eine deutliche Zunahme junger Toter haben, kann von einer echten Seuche keine Rede sein. Was das RKI mit seinen Zahlen zu den täglichen Todesurachen macht, ist eine behördliche Uminterpretation der Todesursachen. Wie ist das möglich?

Ersten sind die SARS-CoV-Viren, die Erreger von COVID, endemisch und derzeit stark verbreitet, die Prävalenz, das ist die Anzahl der Kranken in einem Intervall, wird gar nicht gemessen. Sie könnte laut der Ergebnisse der Arbeitsgruppe um Professor Matthias Schrappe bei 5 Prozent der Bevölkerung oder auch höher liegen. Die Inzidenz (die Anzahl der Neuerkrankten in einem Intervall) wird laut Schrappe (und Epidemiologielehrbuch) gar nicht gemessen, was das RKI als “Inzidenz” angibt, ist eine wöchentliche Addition von heuristischen Punktprävalenzen, die nichts über das Infektionsgeschehen aussagt.

Denn zur Berechnung einer Inzidenz bräuchte man (i) die Anzahl der Personen in der untersuchten Population, (ii) eine vollständige Untersuchung der Population, (iii) eine Untersuchung der Population über den gesamten Zeitraum, für die eine Inzidenzaussage getroffen werden soll, (iv) eine bei Beginn der Untersuchung merkmalsfreie Population, (v) einen Beobachtungszeitraum, der ausreicht, um ein Neuauftreten des Merkmals ermitteln zu können (also muss der Zeitraum länger als die Inkubationszeit sein).

Die Angaben sind politische, keine wissenschaftlichen

Keines der Kriterien erfüllen die Zahlen des RKI; die echte Prävalenz des Erregers ist viel höher, die Inzidenz schlicht und ergreifend unbekannt. Die hohe Prävalenz ist – wie bei anderen Erregern grippaler Infekte – kein Problem, da 90 Prozent der Infizierten keine oder nur schwache Symptome haben und nur sehr wenige daran sterben.

Zweitens ist der verwendete PCR-Test unspezifisch und invalide, ein positiver Test besagt nicht, dass der getestete Patient tatsächlich mit SARS-CoV-2x (den evolutionären Nachkommen von SARS-CoV-2) infiziert ist, und erst recht nicht, dass der Patient daran gestorben ist. Doch wird jeder positive Test unabhängig von den Symptomen und der eigentlichen Todesursache als Infektion und oft auch als Todesursache bewertet.

Die hohen Zahlen an COVID-Toten, die das RKI täglich berichtet, kommen also durch die Kombination aus hoher Prävalenz des Virus und der mangelhaften Spezifität des PCR-Tests zustande. Mindestens die Hälfte der als COVID-Tote klassifizierten Patienten haben eine andere Todesursache. Doch diese Angaben sind politische, keine wissenschaftlichen Zahlen. Das RKI betreibt eine epidemiologisch nicht haltbare Uminterpretation der Zahlen. Am RKI arbeiten erstklassige Epidemiologen und Virologen. Ihre Berichterstattung erfolgt aufgrund politischer Anweisungen.

Insgesamt haben wir es bei SARS-CoV-2x mit einem Erreger zu tun, der etwas pathogener und letaler ist als vergleichbare Erreger der Corona-Viridae. Dies gilt auch für die nun beschriebenen Mutanten, von denen es zahlreiche gibt – wie bei jedem Virus dieser Familie. Die 2020 gemessene Übersterblichkeit ist gering und betrifft fast nur alte Menschen am Ende ihres Lebens. Wir könnten sofort mit den Tests und allen Maßnahmen aufhören und würden gar nichts von SARS-CoV merken, denn nichts ist anders als in den Vorjahren, auch nicht die Belegung der Krankenhäuser (Schrappe-Bericht 6.1, p. 37f.) im Winter.

 

Dr. Jochen Ziegler ist Arzt und Biochemiker. Er arbeitet als Berater für private Anbieter des Gesundheitssystems und lebt mit seiner Familie in Hamburg.

Der Beitrag erschien zuerst bei ACHGUT hier




Gab es wirklich eine Rekord-Saison bzgl. atlantischer Hurrikane?

Aufgrund der Tendenz, heutzutage auch kleinen Stürmen einen Namen zu verpassen, ganz zu schweigen von der Fähigkeit der Satelliten, sie zu erkennen, war die Behauptung schon immer eine fadenscheinige.

Jetzt, wo wir glücklicherweise die Accumulated Cyclone Energy (ACE) Daten für das Jahr zur Verfügung haben, ist die Behauptung erwiesenermaßen unsinnig und trügerisch.

Kurz gesagt, ACE ist ein Maß für die Intensität und Dauer von tropischen Stürmen und Zyklonen. (Tropischer Zyklon ist ein Oberbegriff für Stürme, die im Atlantik als Hurrikane und im W-Pazifik als Taifune bezeichnet werden).

Zuverlässige Daten für den Atlantik, sowohl Anzahl der Stürme als auch ACE, sind erst seit der Ära der Satelliten im Jahr 1966 verfügbar, wie die NOAA hier erklärt:

Die Datenbank der atlantischen Hurrikane (oder HURDAT) reicht bis ins Jahr 1851 zurück. Da Tropenstürme und Hurrikane jedoch einen Großteil ihrer Lebenszeit über dem offenen Ozean verbringen – einige treffen nie auf Land – wurden viele Systeme im späten 19. und frühen 20. Jahrhundert „übersehen“ (Vecchi und Knutson 2008). Ab 1944 wurde mit der systematischen Flugzeugaufklärung zur Überwachung von bothtropischen Wirbelstürmen und Störungen, die das Potenzial hatten, sich zu Tropenstürmen und Hurrikanen zu entwickeln, begonnen. Dies führte zwar zu einer deutlich verbesserten Überwachung, aber immer noch wurde etwa die Hälfte des atlantischen Beckens nicht erfasst (Sheets 1990). Ab 1966 standen dem National Hurricane Center tägliche Satellitenbilder zur Verfügung, so dass die Statistiken ab diesem Zeitpunkt am vollständigsten sind (McAdie et al. 2009). Für Hurrikane, die die Atlantik- und Golfküste der USA treffen, kann man mit relativ zuverlässigen Zählungen der Systeme weiter in die Vergangenheit zurückgehen, da seit 1900 genügend Menschen an den Küsten gelebt haben. Daher gelten die folgenden Aufzeichnungen für den Zeitraum zuverlässiger Daten für das gesamte Atlantikbecken (von 1968-2018) und für die Küstenlinie der USA (1900-2018).

Wissenschaftler der Hurricane Research Division der NOAA haben jedoch fleißig ältere meteorologische Aufzeichnungen untersucht, um Hurrikane vor 1966 neu zu analysieren – Details hier.

Dies erlaubt uns, viel aussagekräftigere Langzeitvergleiche anzustellen. Ihre Daten zeigen, dass das vergangene Jahr weit davon entfernt war, eine Rekord-Hurrikansaison oder gar hinsichtlich tropischer Stürme zu sein.

In Bezug auf ACE war es nur die zehntstärkste Saison, das Rekordjahr war 1933:

Quellen: hier und hier

Es gibt ein klares zyklisches Muster, mit intensiverer Aktivität in der Zeit von 1930 bis 1970, weniger zwischen 1970 und den späten 1990er Jahren und einer Zunahme seither. Dies steht in direktem Zusammenhang mit der Atlantischen Multidekadischen Oszillation (AMO), einem natürlichen Zyklus, der in einem 50- bis 60-jährigen Zyklus von warm zu kühl wechselt. In den 1930er bis 60er Jahren befand sie sich in der warmen Phase, und seit Mitte der 1990er Jahre ist sie ebenfalls im warmen Modus.

Quelle

Die NOAA erklärt den Zusammenhang zwischen AMO und der Hurrikan-Aktivität im Atlantik so:

Wie wichtig ist die AMO, wenn es um Hurrikane geht – mit anderen Worten – ist sie einer der größten Treiber? Oder nur ein Nebenakteur?

Während warmer Phasen der AMO ist die Zahl der Tropenstürme, die zu schweren Hurrikanen heranreifen, viel größer als während kühler Phasen, mindestens doppelt so groß. Seit die AMO um 1995 in ihre warme Phase wechselte, sind schwere Hurrikane viel häufiger geworden, was zu einer Krise in der Versicherungswirtschaft geführt hat.

Beeinflusst die AMO die Intensität oder die Häufigkeit von Hurrikanen (welche)?

Die Häufigkeit von Stürmen der schwachen Kategorie – tropische Stürme und schwache Hurrikane – wird von der AMO nicht wesentlich beeinflusst. Die Anzahl der schwachen Stürme, die zu größeren Hurrikanen heranreifen, ist jedoch deutlich erhöht. Die Intensität wird also beeinflusst, aber natürlich auch die Häufigkeit der großen Hurrikane. In diesem Sinne ist es schwierig, zwischen Häufigkeit und Intensität zu unterscheiden, und die Unterscheidung wird etwas bedeutungslos.

Es ist auch erwähnenswert, dass die Hurrikanaktivität auch nach der Reanalyse wahrscheinlich immer noch unter den Aufzeichnungen der Hurrikanaktivität vor der Satellitenära liegt. Chris Landsea vom National Hurricane Centre, der einen Großteil der Re-Analyse-Arbeiten durchgeführt hat, erklärte hier in seiner Studie Reanalysis of the 1921-30 Atlantic Hurricane Database:

7) Trotz der Reanalyse-Änderungen gibt es erhebliche Unsicherheit in den TC-Spuren, signifikante Unterschätzungen in der TC Häufigkeit und eine signifikante Unterschätzung der TC-Intensität
und Dauer, insbesondere für die Systeme über dem offenen Ozean.

Dieser letzte Punkt bedarf einer näheren Erläuterung. In der jüngsten Vergangenheit gab es einige Studien zum Klimawandel, die HURDAT, die im Wesentlichen gekennzeichnet war von fehlenden TCs, fehlenden Teile der TC-Lebenszyklen oder einer Unterschätzung der Intensität bestehender TCs ab Mitte des zwanzigsten Jahrhunderts oder sogar bis zum Beginn der Datenbank im Jahr 1851 (z.B. Emanuel 2005; Mann und Emanuel 2006; Holland und Webster 2007). Neuere Arbeiten (Vecchi und Knutson 2008, 2011; Landsea et al. 2010) kommen zu glaubwürdigen, quantitativen Schätzungen darüber, wie viele TCs und Hurrikane auch in der reanalysierten historischen Datenbank „übersehen“ worden waren. Solche Arbeit muss …

Man beachte, dass die Namen von Emmanuel und Mann auftauchten!

In Wirklichkeit werden wir nie in der Lage sein, die gesamte Hurrikanaktivität der Vergangenheit aufzuzeichnen, so wie wir es jetzt können. Nichtsdestotrotz ist es offensichtlich, dass weder die Hurrikanaktivität des letzten Jahres noch die der vorangegangenen Jahre beispiellos ist.

Link: https://wattsupwiththat.com/2021/01/15/record-atlantic-hurricane-season/

Übersetzt von Chris Frey EIKE

 




Woher kommt der Strom? Zwangs-Ladepausen für Elektroautos

(Abbildung, bitte anklicken. Es öffnen sich alle Abbildungen und MEHR.)

1. Woche 2021

Daß solche Überlegungen bereits lange in den Köpfen der Energiewender herumspuken, wurde in dieser Kolumne bereits häufig unter dem Stichwort „Stromzuteilung“ angedeutet. Dass auch Wärmepumpen, die Heizungen von Morgen, darunter fallen wundert ebenfalls nicht. Es ist besser, wenn die Bürger im Kalten sitzen, der großflächige Blackout aber vermieden wird. Das wäre der Energiewende-Gau. Das Ganze nennt sich Güterabwägung.

Wetterlagen, wie in der ersten Woche des neuen Jahres 2021, sind bestens geeignet, die Notwendigkeit von gewollten Stromabschaltungen, sogenannten „Brownout“ darzustellen. Nur mal angenommen, der Strom aus Kernkraft plus Strom aus Stein- und Braunkohle wäre heute nicht verfügbar: Die deutsche Stromversorgung hinge am Fliegenfänger (Abbildung 1, die unteren drei Horizontalbalken fallen weg.). 35 GW würden diese Woche in den meisten Tagesstunden fehlen. 35 GW von 73 GW in der Spitze. Selbstverständlich kommen jetzt die Rechenkünstler der Energiewende, die vom Speichern, Importen und Gaskraftwerken fabulieren. Nein, die realistische Folgerung werden Stromabschaltungen, Stromzuteilungen sein. Geprobt wird bereits im Bereich Corona. Grundrechte für Geimpfte wurden von Minister Heiko Maas ins Spiel gebracht (Abbildung 2). Strom zuerst für staatskonforme, systemrelevante Bürger könnte, wird die Zukunft der Stromversorgung in Deutschland sein.

Es war eine fast viertägige Dunkelflaute (Abbildung 3), die das Stromjahr 2021 eröffnete. Solarstrom ging gegen Null (unter 1% an der Gesamtstromversorgung). Windstrom trug an allen sieben Tagen! der ersten Woche ebenfalls nur weit unter Durchschnitt zur Stromversorgung Deutschlands bei. Nur Biomasse und Laufwasserkraftwerke erzeugten verlässlich um die 10% des benötigten Stroms. Würden diese herkömmlichen Technologien nicht zu den Erneuerbaren gezählt, sähe es noch viel schlechter in Sachen Energiewende aus.

Die Tabelle mit den Werten der Energy-Charts und der daraus generierte Chart spiegeln die erste Woche im Überblick (Abbildung 4). Die konventionelle Stromerzeugung wird detaillierter dargestellt. Der im Chart dunkelgelbe Balken mit der Summe „Erneuerbare“, der rote Balken mit der Summe „Konventionelle“, diese Balken sind jeweils schwarz umrandet, so dass der Vergleich leichter in´ s Auge fällt.

Die Strompreise (Abbildung 5) waren dank der fast immer passenden, guten Nachführung der konventionellen Stromerzeugung für Deutschland meistens (sehr) auskömmlich. Wenn mal etwas Strom fehlte: Deutschland zahlte satte Preise! Wie fast immer in diesen Fällen. Insgesamt aber war der Ertrag in der ersten Woche für Deutschlands konventionelle Stromerzeuger gut. Das – es muss einfach noch mal gesagt werden – vor allem daran lag, dass die regenerative Stromerzeugung mittels Wind- und Solarenergie schwach und wenig volatil war. So wird das Nachführen erheblich einfacher. Die im Markt befindliche Strommenge ´passt`. Der Überschuss kann zu guten Preisen veräußert werden.

Abbildung 6 zeigt genau, wann Deutschland Strom per Saldo importieren musste. Es war in der Tat nur sehr wenig. Bemerkenswert ist die Tatsache, dass nach Wegfall der Stromerzeugung des Kohlekraftwerks Moorburg und anderen Steinkohlekraftwerken praktisch jede Stunde der Woche (Kohle-) Strom aus Polen (schwarze Balken) importiert wird. Besteht da womöglich ein Zusammenhang? Ich behaupte, dass das genauso ist. Wundern wir uns? Nein, natürlich nicht. Deutschland schaltet ab, Deutschland importiert den regional fehlenden Strom aus großen Kohle- und Kernwerken. Deutschland ist Energiewendeland mit Vorbildcharakter für die Welt. Ironie aus!

Der Vollständigkeit halber, die Charts mit dem Ex-, Import der 1. Woche (Abbildung 7). Selbstverständlich darf die angenommene Verdoppelung von Wind- und Solarstrom nicht fehlen (Abbildung 8). An einem Tag der ersten Woche hätte diese angenommene Verdoppelung ausgereicht den Strombedarf Deutschland mit 0,25 TWh Überschuss zu decken. An den anderen Tagen hätte Strom hinzuerzeugt werden müssen. Womöglich in Polen, in Frankreich? Nein, natürlich aus Wasserstoff, oder? In diesem Zusammenhang der Hinweis auf die Webseite stromdaten.info, die diesen Monat freigeschaltet wird und vielfältige Simulationen in Sachen „Wasserstoffspeicher“ ermöglicht. Was die bayerischen Landtagsgrünen in Sachen Wasserstoff denken, hat Peter Hager aus Lauf, Frankenland dankenswerterweise untersucht (Abbildung 9).

Die Tagesanalysen

Montag, 4.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 37,09 Prozent, davon Windstrom 26,49 Prozent, Solarstrom 0,66 Prozent, Strom Biomasse/Wasserkraft 9,93 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der erste Tag der Woche zeichnet sich durch eine außerordentliche Gleichmäßigkeit der regenerativen Stromerzeugung aus. Das macht es den konventionellen Stromerzeugern relativ einfach den fehlenden Strom hinzu zu produzieren. Den ausgleichenden Part in der Feinabstimmung übernehmen immer die Pumpspeicherkraftwerke. Der Preis, der von Deutschland zwischen 7:00 Uhr bis 19:00 erzielt wird, liegt immer über 50€/MWh. In der Vorabendzeit sogar über 60€/MWh. Das ist zufriedenstellend. Diese Nachbarn kaufen, verkaufen den Strom. Deutschland muss Strom zukaufen. Wohl um regionalen Bedarf zu decken. Hauptsächlich von Dänemark, von Polen, von Schweden. Der dänische Strom ist sehr oft nur „durchgeleiteter“ aus Norwegen Schweden. Mehr dazu nach den Tagesanalysen.

Dienstag, 5.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 33,96 Prozentdavon Windstrom 23,90 Prozent, Solarstrom 0,63 Prozent, Strom Biomasse/Wasserkraft 9,43 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Dienstag ist ebenfalls ein ruhiger Tag für die konventionellen Stromerzeuger. Ein Viertel des benötigten Stroms wird gleichmäßig über den Tag verteilt regenerativ erzeugt. Den Rest machen die Konventionellen.  Der Preisverlauf ähnelt dem gestern. Deutschland macht gute Geschäfte. Polen verkauft den ganzen Tag Strom an Deutschland. Die Schweiz, Österreich machen kleine, aber feine Preisdifferenzgeschäfte.

Mittwoch, 6.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 26,35 Prozentdavon Windstrom 15,54 Prozent, Solarstrom 0,68 Prozent, Strom Biomasse/Wasserkraft 10,14 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der erste Tag der fast 4-tägigen Dunkelflaute, in der Wind- und Solarstrom an einem Tag weniger als 17%, an 3 Tagen sogar weniger als 11% des Stroms auf die Bedarfs-Waage bringen. Die Konventionellen haben keine Probleme nachzuführen. Lediglich kurz nach Mittag wird es knapp. Es entsteht aber keine Lücke, so dass den ganzen Tag gute Geschäfte getätigt werden. Auch heute ist Polen dabei. Es verkauft seinen Strom teuer an Deutschland. Es dürfte wohl Kohlestrom sein. Das trübt den Tag ein wenig, oder? Die cleveren Schweizer, die ausgefuchsten Österreicher machen gute Preisdifferenzgeschäfte. Glücklich ist das Land, was naturbedingt viel Strom-Speicher hat.

Donnerstag, 7.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 20,81 Prozent, davon Windstrom 10,07 Prozent, Solarstrom 0,67 Prozent, Strom Biomasse/Wasserkraft 10,07 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der zweite Tag der Dunkelflaute hat in der Nachführung durch die Konventionellen einen kleinen Schönheitsfehler. Von 15:00 bis 17:00 Uhr reicht der Pumpspeicherstrom nicht. Eine, gleichwohl teure Stromlücke entsteht. Wer profitiert?

Freitag, 8.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 19,87 Prozent, davon Windstrom 8,61 Prozent, Solarstrom 0,66 Prozent, Strom Biomasse/Wasserkraft 10,6o Prozent. Die Agora-Chartmatrix: Hier klicken.

Still ruht die See. Auch an Land weht kaum Wind. Sonnenstrom: Fehlanzeige. Die Konventionellen erzeugen Strom auf Kante. Meist reicht es. Einige Stunden aber nicht. Die Lücke wird mit Preisen um die 96€/MWh geschlossen. Diese Nachbarn kaufen/verkaufen Strom. Preisdifferenzen nutzt Österreich aus.

Samstag, 9.1.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 17,91 Prozent, davon Windstrom 5,22 Prozent, Sonnenstrom 1,49 Prozent, Strom Biomasse/Wasserkraft 11,19 Prozent. Die Agora-ChartmatrixHier klicken.

Wochenende. Wenig Bedarf macht wieder ein gutes Nachführen zur praktisch nicht vorhandenen Stromerzeugung mittels Wind- und Solarenergie möglich. Die konventionellen Stromerzeuger müssen ihre Möglichkeiten nicht komplett ausreizen. Es reicht den ganzen Tag. Deutschland verdient per Saldo durchgängig gutes Geld. Mit diesen Nachbarn wird gehandelt. Gutes Geld, wie an allen Tagen der Woche.

Sonntag, 10.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 31,34 Prozent, davon Windstrom 17,91 Prozent, Sonnenstrom 2,24 Prozent, Strom Biomasse/Wasserkraft 11,19 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Dunkelflaute neigt sich dem Ende zu. Die Konventionellen wissen bereits, dass es nächste Woche mit Wind- und Solarstrom bergauf gehen wird. Am heutigen Sonntag wird der Anfang gemacht. Die Strompreise, die von Deutschland erzielt werden, sind auskömmlich. Es war eine gute Woche für die konventionellen Stromerzeuger. Wer kauft, wer verkauft Strom?

Strom-Import aus Dänemark, so schreibt unser Leser Dipl.-Ing. Jørgen Sørensen, Däne, wohnhaft in Flensburg, hat fast ausschließlich seinen Ursprung in Norwegen*. Die dänischen Kraftwerke sind überwiegend KWK-Anlagen, die vielfach mit Stroh und Holzhackschnitzel betrieben werden und kaum zu konkurrenzfähigen Preisen den Strom in Richtung Deutschland vermarkten könnten.

Dass der Strom den Dänemark selbst benötigt oder exportiert, überwiegend aus norwegischer Wasserkraft oder schwedischer Kernkraft kommt, kann man auch am momentanen CO2 -Ausstoß ablesen, der heute Morgen nur 74g/kWh betrug.

Interessant ist auch, dass Dänemark bei hohem Windaufkommen regelmäßig Strom aus Deutschland bezieht, obwohl man selbst einen Windüberschuss hat. Das kann daran liegen, dass der Strom weiter in Richtung Norwegen geleitet wird, die so Wasser sparen, aber auch daran, dass niedrige Strompreise es wirtschaftlich erscheinen lassen dänische WKA abzuschalten, wenn der Strom z.B. mit negativen Preisen bezogen werden kann.

Beim Blick auf die Karte heute Morgen war zu sehen, dass Schleswig-Holstein an Dänemark liefert, während Mecklenburg-Vorpommern aus Dänemark bezog. Da fragt man sich, warum der Strom nicht innerdeutsch verteilt wird, ohne den Zwischenhandel über Dänemark. Netztechnisch ist das nicht zu erklären.

Interessant wird die nächste Zeit, nachdem Nord-Link in Betrieb gegangen ist. Nun kann Deutschland Strom direkt aus Norwegen beziehen/liefern und sich die Durchleitungskosten durch Dänemark sparen. Leider kann man die Belastung dieser Leitung nicht einsehen.

*Die Originalseite mit aktuellen Daten: ernerginet.dk aufrufen und runterscrollen.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier. Übersicht zu allen Artikeln bei der Achse hier.

 




Neu-Präsident Biden hat es eilig

USA treten dem Paris-Abkommen wieder bei

Charles Rotter

Diese E-Mail verbreitete das Pressebüro des Weißen Hauses gestern Abend:

EILMELDUNG vom 20. Januar 2020:

Bzgl. der USA wird alles akzeptiert

Ich, Joseph R. Biden Jr., Präsident der Vereinigten Staaten von Amerika, habe das Pariser Abkommen, das am 12. Dezember 2015 in Paris geschlossen wurde, gesehen und geprüft und akzeptiere hiermit das besagte Abkommen und jeden Artikel und jede Klausel darin im Namen der Vereinigten Staaten von Amerika.

Geschehen zu Washington am 20. Januar 2021.

JOSEPH R. BIDEN JR

Link: https://wattsupwiththat.com/2021/01/20/us-rejoins-paris-agreement/

———————————–

EILIMELDUNG: Bidens Maßnahmen-Agenda ist durchgesickert

Anthony Watts

Viele versorgen mich mit Stoff. Heute flatterte mir ein PDF auf den Tisch (angeblich von Bidens Team im Weißen Haus) mit dem Titel [übersetzt] „Bidens Agenda erster Maßnahmen“ [ Biden early calendar of themed-days]

Ich habe eine Kopie davon gesichert, die man von hier herunter laden kann.

Zu beachten sind diese Punkte:

4. Climate Rollback EO (einschließlich Keystone XL Pipeline): Widerruft oder leitet die Überprüfung einer Reihe von Trump-Umweltmaßnahmen ein; widerruft die Keystone XL Genehmigung

5. Unterzeichnung des Instruments zum Wiedereintritt in das Pariser Abkommen; tritt 30 Tage später in Kraft

27. Januar: Klima:

1.Omnibus Domestic and International Climate EO*: initiiert eine Reihe von regulatorischen Maßnahmen zur Bekämpfung des Klimawandels im Inland und erhebt den Klimawandel zur nationalen Sicherheitspriorität

[*EO = Executive Order – Dekret, das nicht dem Senat vorgelegt werden muss. Anm. d. Übers.]

2. Wissenschaftliche Integrität PM : Leitet Wissenschaft und evidenzbasierte Entscheidungsfindung in Bundesbehörden

3. PCAST Executive Order: setzt den Presidential Council of Advisors on Science and Technology wieder ein

4. Verkündet die Daten für den von den USA veranstalteten Climate Leaders‘ Summit (22. April)
Dieses Dokument wurde nicht einmal auf Tippfehler geprüft, da es einen großen Fauxpas enthält:

Februar: Restoring America’s Please in the World

„Bitte, Sir, kann ich Amerika wieder haben?“

Aber sehen Sie sich all die anderen Punkte an, einschließlich eines obligatorischen COVID-Tests für Reisen.

Gott stehe uns allen bei!

Link: https://wattsupwiththat.com/2021/01/20/breaking-bidens-calendar-of-actions-leaked/

Übersetzt von Chris Frey EIKE




Klimaschau 9 – die Tagesschau von Sebastian Lüning

Keine Vorschau zu sehen? HIER KLICKEN!




Altmaier will Stromverbrauch rationieren

Nach diesem Entwurf sollten Stromversorger zeitweilig Ladestrom für E-Autos abschalten dürfen, wenn wieder einmal zu wenig Strom vorhanden ist. Als »Spitzenglättung« steht diese Vorstellung schon länger im Raum. Praktiziert werden Abschaltungen aufgrund von Strommangel schon seit längerem. So müssen Aluminiumhütten erdulden, dass ihnen für begrenzte Zeit der Strom abgeschaltet wird. Die verschlingen ebenso wie Kühlhäuser erhebliche Mengen. Ein gefährliches Spiel, denn nach drei Stunden ist die Schmelze erstarrt, die Fabrik ruiniert.Doch das reicht nicht mehr, und vom Tisch ist der Plan »Spitzenglättung« nach dem Rückpfiff nicht. Zu kritisch wird mittlerweile die Lage in den Stromnetzen. Da helfen nur noch abstruse Vorstellungen wie: ‚Sie dürfen täglich von 10 bis 20 Uhr ihr Auto nicht betanken!‘

Beim normalen Auto befremdlich, zu gravierend wären die Folgen für Verkehrsflüsse und Wirtschaft. Genau das aber steht hinter den Plänen für Besitzer von Elektroautos. Die sollen nicht mehr laden dürfen, wenn zu wenig Strom in den Netzen vorhanden ist. Schon länger zerbrechen sich Altmaiers Leute den Kopf darüber, wie das Desaster »Energiewende« einigermaßen zu lösen ist. »Spitzenglättung« ist nur ein jüngerer Einfall und zeigt, wie die Energiewende neue Wortkreationen hervorbringt. »Strom abschalten, weil wir keinen haben« klingt nicht so schön fortschrittlich.

Die Stromversorger drängen schon länger auf ein Gesetz zur »Spitzenglättung«, nach dem sie den Strom für einen Teil der Verbraucher einfach abschalten können, wenn nicht genug für alle da ist – aber dummerweise zusätzlich viele Autofahrer gleichzeitig laden, weil sie fahren müssen.Diese Lösung favorisierte offenbar auch das Altmaier-Ministerium und plante eilig einen entsprechenden Vorschlag zur Reform des $ 14 a des Energiewirtschaftsgesetzes. Der liegt oder besser lag jetzt vor, wie die Welt berichtete. »Steuerbare Verbrauchseinrichtungen« sollen für bis zu zwei Stunden pro Tag keinen Strom bekommen können, wenn andernfalls eine Überlastung des Netzes drohen würde. Dazu gehören sowohl Ladestationen für E-Autos als auch Wärmepumpen, die bereits jetzt zeitweilig von der Stromversorgung abgeschaltet werden können.«

Zunächst bis zu zwei Stunden, hieß es im Entwurf, solle kein Strom fließen. Doch wenn die Sache grundsätzlich durch ist, lassen sich die Zeiten leicht weiter ausdehnen. Die Stromversorger glätten ihre Spitzen, die E-Autofahrer haben leere Akkus.

Der Hintergrund der Unruhe bei Altmaier: Die unheilvollen Folgen der Energiewende machen sich allmählich für jedermann bemerkbar. Was vorher Fachleuten von Anfang an klar war, macht langsam auch in breiteren Kreisen die Runde: Das Stromnetz beginnt bedenklich zu wackeln. Kohle- und Kernkraftwerke, die allein eine sichere und preiswerte Stromversorgung gewährleisten können, werden reihenweise abgeschaltet. Bis Ende 2022 sollen Kraftwerke mit rund 20 GW Leistung abgeschaltet werden. Die lieferten etwa ein Viertel des Strombedarfes. Das letzte Kraftwerk soll nach bisherigen Planungen 2038 vom Netz gehen. Hardcore-Energiewender träumen sogar schon von einem früheren Zeitpunkt.Damit wird es enger in den Stromnetzen. Blackouts drohen wie vor zwei Wochen. Doch solche düsteren Ankündigungen passen nicht ganz zu den hehren politischen Zielen. 2021 soll das Jahr der Stromer werden, denn noch immer fahren nicht jene eine Million Elektrofahrzeug auf den Straßen, wie Kanzlerin Merkel das einst angeordnet hatte. So gelobte Bundesverkehrsminister Scheuer im Dezember: »2021 soll das Jahr der Elektromobilität werden!«

Beim letzten Spitzengespräch »Ladeinfrastruktur« mit Altmaier, Scheuer und Vertretern der Energie- sowie der Autowirtschaft wurde beschlossen, dass das Ladenetz für Elektroautos »kundenfreundlicher« werden solle. Altmaier: »Realisieren der Verkehrswende ist eine große Gemeinschaftsanstrengung«. Dazu soll eine weitere Verordnung vorbereitet werden, eine Novelle zur Ladesäulenverordnung, mit der eine bessere Ladeinfrastruktur angestrebt wird. Bis 2030 sollen eine Million Ladepunkte errichtet werden. Um das Ziel zu erreichen, müsste das Ausbautempo drastisch erhöht werden. Rein rechnerisch sollten laut Hildegard Müller, Präsidentin des Verbands der Automobilindustrie (VDA), 2000 neue pro Woche stehen, es sind allerdings nur 200.Derzeit stehen Elektroautomobilisten erst 33.000 Ladepunkte in Deutschland zur Verfügung. Nicht besonders viel, vor allem, da Elektroautos je nach Ladeleistung teilweise mehrere Stunden die Ladepunkte blockieren. Deswegen soll auch mit reichlich Steuergeld nachgeholfen werden. 400 Millionen Euro winken für eine öffentliche, 350 Millionen Euro eine gewerbliche Ladeinfrastruktur. Für jede private Wallbox gibt es seit November zudem 900 Euro; diese Anschlussgeräte erlauben mit Drehstrom etwas höhere Ladeleistungen für e-Autos in der heimischen Garage. Doch Altmaier kann nicht die Frage beantworten, was die schönste Ladeinfrastruktur nutzt, für die auch ein neues Leitungsnetz notwendig ist, wenn kein Strom vorhanden ist?

Überdies hatte die Bundesregierung vor mehr als zehn Jahren festgelegt, dass der Bruttostromverbrauch von 2008 bis 2050 um rund 25 Prozent vermindert werden soll. Wenn nicht genügend Strom generiert werden kann, muss er eben rationiert werden. Das klingt für eine „Zukunftstechnik“ nicht sonderlich elegant und wird deswegen mit Begriffen wie »intelligent« verbrämt. »Intelligente« Stromnetze sollen ausgleichen, was nicht vorhanden ist.

Hildegard Müller: »Was Spitzenglättung genannt wird, bedeutet für die Kunden leider Abschalten.« Das wäre, so Müller, sehr schlecht für alle Besitzer von E-Autos und die Unternehmen, die jetzt E-Autos auf den Markt bringen wollten.

Der aufgeschreckte Altmaier ließ gestern erklären, dass er größten Wert darauf lege, »dass der Hochlauf der Elektromobilität schnell und für alle Beteiligten verlässlich erfolgt«, so am Sonntag die Sprecherin in der Erklärung weiter. »Er wird in den kommenden Tagen diesbezüglich sowohl mit den Fahrzeugherstellern als auch mit den Netzbetreibern Gespräche führen und danach einen neuen Vorschlag vorlegen, der für alle Beteiligten akzeptabel ist.«

Die Bundesregierung hat erkannt, dass es im künftigen Stromsystem nicht mehr möglich sein wird, jeden Bedarf zu jeder Zeit zu befriedigen. Deshalb sollte die Steuerung der Verbraucherseite auf gesetzliche Füße gestellt werden. Das »Steuerbare-Verbrauchseinrichtungen-Gesetz (SteuVerG)« befand sich schon in der Abstimmungsrunde. Steuerbare Verbraucher wie Wärmepumpen, Elektroheizungen und Wallboxen, also Ladestationen für E-Mobile, würden dann zeitweise variabel abgeschaltet werden. Das Echo aus dem öffentlichen Raum und den Branchen war deutlich.

Die Energieversorger stellten fest, ohne eine solche Regelung wäre die Versorgungssicherheit nicht zu gewährleisten, die Automobilbranche sagte, sie würde den Ausbau der Elektromobilität behindern. Beide haben Recht. Nun ist es an Wirtschaftsminister Altmaier, die Quadratur des Kreises herzustellen. Er könnte die Ladestationen für die E-Mobile von der Regelung ausnehmen, aber zu wessen Lasten? Weniger Wärmepumpenstrom zugunsten der Mobilität oder sogar Haushalte abschalten, damit gut betuchte Tesla-Fahrer ihren Boliden unterbrechungsfrei laden können? Zu erwarten ist eine halbgare und komplizierte Lösung, mit der wieder versucht werden wird, alle Ansprüche zu erfüllen.

Der Beitrag erschien zuerst bei TE hier




Der CO2-Sprung: aus Firn wird Eis

Eigenschaften von sich verdichtendem Firn und Übergang zu Eis

Firn ist das Zwischenstadium der Umwandlung von Schnee in Eis und reicht in der Antarktis von 50 bis über 100 Meter Dicke. Die Verdichtung des Schnees führt zu einem systematischen Trend von zunehmender Dichte und abnehmendem Porenraum mit der Tiefe aufgrund des Gewichts der darüber liegenden Schichten. Die Dichte steigt mit der Tiefe von einem Oberflächenwert von 340 kg/m³ auf die Dichte von Eis, die 918 kg/m³ beträgt. Die Geschwindigkeit der Firnverdichtung wird durch Schneeakkumulation und Temperatur gesteuert. Eiskern-Bohrstellen mit hoher Akkumulation und höheren Temperaturen wie Law Dome verdichten sich schneller als Stellen mit geringer Schneeakkumulation und kälteren Stellen wie Wostok. Die Firn-zu-Eis-Prozesse sind unten zusammengefasst, und Bender (1997) liefert eine detaillierte Beschreibung der Prozesse.

Abbildung 1 ist eine Illustration des Übergangs von Law Dome Firn zu Eis und der Dichte- und Porositätseigenschaften. Die Diffusionszone DZ, in welcher die Sinterung (Verdichtung zu einem Feststoff ohne Schmelzen) stattfindet, dauert an, bis die Dichte etwa 0,8 g/cm³ und die offene Porosität etwa 10 % beträgt. Offene Poren dienen vor allem als Kanäle, durch die Gasdiffusion und vertikale Vermischung mit atmosphärischen Gasen stattfinden kann.

Abbildung 1: Antarktischer Law Dome Firn und Eiseigenschaften mit der Tiefe. CO2 Messungen in Firn und Eis auf der linken Seite (Rubino, 2019). Dichte, offene Poren und geschlossene Poren auf der rechten Seite (Fourteau, 2020). Karikatur nach Raynaud, 1993.

Bei einer Dichte von etwa 0,8 g/cm³ beginnen sich die offenen Poren zu schließen und bilden Blasen, in denen atmosphärische Gase eingeschlossen werden. Gase können nicht mehr leicht diffundieren und sich mit der Atmosphäre vermischen. Diese Zone wird als Lock-in-Zone oder LIZ bezeichnet. Die Blasen-LIZ wird durch eine Lock-in-Tiefe LID an der Oberseite und durch eine Close-off-Tiefe COD an der Unterseite definiert. Die LID zeigt einen schnellen Anstieg der geschlossenen Poren in einer ausgeprägten stufenförmigen Weise. Die COD an der LIZ-Basis wird durch die letzte im Firn entnommene Probe definiert; das geschlossene Porösitätsprofil zeigt jedoch eine stufenförmige Basis aufgrund von Porenkompression.

Tabelle 1 fasst die Eigenschaften der Firndiffusions- und Lock-in-Zone zusammen. Die Dicke der Diffusionszone variiert in der Antarktis und hängt mit den Temperaturen und Akkumulationsraten zusammen, wie in Abbildung 2 dargestellt. Westantarktische und periphere ostantarktische Standorte haben dünnere Gasdiffusionszonen als Standorte mit geringer Akkumulation wie Südpol, Dome C und Wostok. Im Gegensatz dazu ist die Blasen-LIZ an allen Standorten eine dünne Zone, die etwa 10 Meter dick ist. Diese signifikante Zone stellt eine Barriere im Firn dar, in der die vertikale Diffusion von Gasen gehemmt wird und Gaseinschlüsse auftreten. Geschlossene Poren an Standorten mit höherer Temperatur und Akkumulation zeigen mehr Streuung in den Daten aufgrund der Erhaltung der Eigenschaften der Sommer- und Winterschicht.

Tabelle 1: Zusammengefasste Eigenschaften des antarktischen Firns für die Diffusionszone und das Blasen-LIZ:

Abbildung 2: Dicke der Firn-Diffusions- (DZ) und Blaseneinschlusszonen (LIZ) an verschiedenen antarktischen Standorten.

Die Gasmischung in der Diffusionszone ist bekannt und modelliert. Die Gasbewegungsprozesse innerhalb der LIZ sind jedoch umstritten und nicht gut quantifiziert (Fourteau, 2019). Die vertikale Gasdiffusion hat aufgrund der Dominanz geschlossener Poren im Wesentlichen aufgehört. Die langsamere Gasbewegung setzt sich jedoch durch Dispersion und laterale Vermischung fort (Bruiner, 2018). Mitchell (2015) schlägt vor, dass das Darcy’sche Gesetz der Flüssigkeitsströmung gelten könnte, und andere haben eine Perkolationstheorie oder Wirbeldiffusion vorgeschlagen (Buizert (2012)).

Ein CO2-Sprung mit der Tiefe ist präsent

Ein Sprung in den CO2-Konzentrationen mit der Tiefe ist in den in Abbildung 3 dargestellten Firngasprofilen bemerkenswert. Bei der Lock-in-Tiefe beginnen die CO2-Messungen ab etwa 10 Metern eine schnellere Abnahme mit der Tiefe zu zeigen. Die LID wird häufig durch eine Änderung der CO2-Steigung bestimmt, die auch als „Sprung“ bezeichnet wird. Er ist das Ergebnis von Gas, das sich aus der Gasdiffusionszone bewegt und in Blasen gefangen wird. In der diffusiven Zone nimmt die CO2-Konzentration mit der Tiefe langsam ab und das Gas altert aufgrund der diffusiven Vermischung mit flacher liegenden Gasen. Daher ist das Gas jünger als die Eiszeit. In der LIZ reduziert der Blaseneinschluss die vertikale Durchmischung der Gase. Die CO2-Werte fallen schnell, weil das Gas in den wenigen offenen Poren nicht mehr mit der darüber liegenden Atmosphäre kommuniziert. Dieses jüngere eingeschlossene Gas altert nun mit dem Eis (Battle, 2011; Trudinger, 2002).

Abbildung 3: CO2-Konzentrationen mit der Tiefe im Firn, dargestellt in der linken Grafik. Die Daten der Proben sind oben in Jahren angegeben. Das rechte Diagramm zeigt die CO2-Daten normalisiert auf die atmosphärischen Konzentrationen von 1996. LID ist dort vermerkt, wo die CO2-Konzentrationen eine Änderung der Steigung aufweisen. Daten aus Battle, 2011 und Rubino, 2019.

Die Dicke der Diffusionszone und das Einsetzen des LID ist in der Antarktis unterschiedlich, wie in den Abbildungen 2 und 3 dargestellt. Eiskernstandorte mit hoher Akkumulation haben im Allgemeinen ein flacheres LID als Standorte mit geringer Akkumulation. Das LID am Law Dome DSS Standort ist nur 40 Meter tief mit einer Eisakkumulationsrate von 16 cm pro Jahr. Das LID am Südpol ist 115 Meter tief, wo die Akkumulationsrate nur 8 cm Eis pro Jahr beträgt. Eine Ausnahme ist der Standort DE08-02, der die höchsten Eisakkumulationsraten von 120 cm pro Jahr aufweist, jedoch ist das LID tiefer als sowohl DSS als auch WAIS.

CO2 nimmt in der in Abbildung 4 dargestellten Diffusionszone linear um durchschnittlich 2,3 ppm pro 10 Meter ab. Die ähnlichen Steigungen der CO2-Abnahme mit der Tiefe sind nicht überraschend, wenn man bedenkt, dass in dieser Zone vertikale Gasdiffusion stattfindet.

Abbildung 4: Lineare Trends von CO2 mit der Tiefe in der Diffusionszone, dargestellt in der linken Grafik. Lineare Trends von CO2 mit der Tiefe in der LIZ, dargestellt in der rechten Grafik. Die Tabelle zeigt die CO2-ppm-Abnahmen pro Meter für die DZ und LIZ. Daten aus Battle, 2011 und Rubino, 2019.

Es ist jedoch überraschend, dass die Neigung des abnehmenden CO2 innerhalb der Blaseneinschlusszone zwischen den verschiedenen Standorten ähnlich ist, unabhängig von Temperatur und Akkumulation. Die durchschnittliche Abnahme des CO2 beträgt 36 ppm über die 10 Meter dicke Blasen-LIZ, wie in Abbildung 4 dargestellt. Theoretisch wird nun modelliert, dass die Gase mit dem Eis innerhalb der LIZ altern. Das bedeutet, dass das CO2 am Südpol viel langsamer altert als die CO2-Abnahme bei DSSW20K und WAIS, obwohl die CO2-Änderungen in der Blase LIZ praktisch identisch sind. Die Durchmischung des Gases in der Blase LIZ ist nach Fourteau, 2019, nicht gut quantifiziert. Er gibt an, dass das Gas innerhalb der LIZ aufgrund des Ausstoßes von Luft/Gas, der durch die Verdichtung des Firns angetrieben wird, möglicherweise etwas weniger schnell altert als das umgebende Eis.

Der CO2-Sprung ist auch mit der Zeit präsent

Abbildung 5 zeigt die CO2-Daten des antarktischen Firns sowohl in der Tiefe als auch im Gas-Zeitalter. In der Grafik zum Gas-Zeitalter ist auch vermerkt, ob die CO2-Daten aus der Atmosphäre, der Firn-DZ oder der Blasen-LIZ gemessen wurden. Es gibt Überschneidungen, wenn verschiedene Standorte kombiniert werden. Beachten Sie, dass um 1960 immer noch ein Sprung vorhanden ist.

Der CO2-Sprung im Gas-Zeitalter tritt auf, wenn man von überwiegend atmosphärischen und Diffusionszonen-CO2-Messungen zu überwiegend Blasen-LIZ-CO2-Messungen übergeht. Die Blasen-LIZ, die nur 10 Meter dick ist, macht einen signifikanten Anteil von über 80 Jahren in der Kurve des Gas-Zeitalters aus. Die zugrundeliegenden Trends zeigen, dass CO2 von 2000 bis etwa 1960 um 13 ppm pro Jahrzehnt abnimmt und sich dann auf 3 ppm pro Jahrzehnt von 1960 bis 1900 verlangsamt. Man beachte außerdem, wo CO2 von 1940 bis etwa 1960 flach ist. Mehrere Autoren wie Trudinger, 2002, und MacFarling, 2006, diskutieren, dass die Spitze von 1940 aufgrund der Glättung der Gase durch Firn reduziert wird und die wahre atmosphärische Variation größer ist.

Abbildung 5: Firn-Diffusionszone und LIZ-CO2-Messungen in der Tiefe in der linken Grafik. Die Firnstandorte sind zum direkten Vergleich am CO2-Sprung angeheftet. Die x-y-Achse stellt die Daten des Südpols dar. Die rechte Grafik zeigt CO2 aufgetragen als Gasalter nach Rubino, 2019 und Battle, 2011.

Es ist unwahrscheinlich, dass der CO2-Sprung ein echtes atmosphärisches Signal ist. Der CO2-Sprung in der Tiefe ist ein Ergebnis der diffusen Vermischung von Gasen im Firn gegenüber eingeschlossenem Gas in Blasen, die nun mit Eis im LIZ altern. Dieser CO2-Sprung ist auch 1960 noch sichtbar.

Atmosphärisches CO2 wird innerhalb des Firns geglättet

Viele Autoren haben eine Gasglättung in der Firnschicht aufgrund von vertikaler Gasdiffusion und allmählicher Blasenschließung während des Übergangs von Firn zu Eis dokumentiert (Trudinger, 2002; Spahni, 2003; MacFarling, 2006; Joos und Spahni, 2008; Ahn, 2012; Fourteau, 2019; Rubino, 2019). Die während der Firnverdichtung gemessenen Gaskonzentrationen sind ein Durchschnitt der atmosphärischen Konzentrationen, die von 10 Jahren an Orten mit hoher Akkumulation wie DE08-2 bis zu Hunderten von Jahren an Orten mit niedriger Akkumulation wie Dome C und Vostok reichen. Fourteau zeigt, dass die gemessene Änderungsrate von CO2 in Eisblasen dreimal niedriger sein kann als die tatsächliche atmosphärische Änderungsrate. Auch wenn Firnmodelle die gemessenen Gasprofile reproduzieren können, können sich die Gasaltersverteilungen laut Buizert 2012 erheblich unterscheiden. Er stellt fest, dass sich das mittlere Alter und die Verteilungsbreite der Gase im Firn zwischen den Modellen um bis zu 25 % an Orten mit geringer Akkumulation unterscheiden.

Beim Übergang von Firn zu Eis wird das atmosphärische CO2 aufgrund von Gasmischungsprozessen und Verdichtung, wie oben beschrieben, verändert. Die meisten CO2-Diagramme werden durch einfaches Aufspleißen von modernen atmosphärischen CO2-Messungen auf die CO2-Daten des antarktischen Eises dargestellt. Die notwendigen Korrekturen für die Abschwächung des CO2 im Eis aufgrund von Gasmischung und Vergrabungstiefe werden nicht angewandt oder sogar nicht einmal vermerkt. Durch die Vernachlässigung dieser Korrekturen sind die resultierenden Diagramme irreführend und verstärken den Unterschied zwischen modernen und älteren Eisbohrkern-CO2-Messungen, wie zum Beispiel dieses auf der Scripps-Website. Man messe dem CO2-Sprung keine Bedeutung bei, die er nicht hat! Er ist kein echtes atmosphärisches Signal, sondern ein Artefakt.

Acknowledgements: Special thanks to Donald Ince and Andy May for reviewing and editing this article.

References Cited

Ahn, J., E. J. Brook, L. Mitchell, J. Rosen, J. R. McConnell, K. Taylor, D. Etheridge, and M. Rubino (2012), Atmospheric CO2 over the last 1000 years: A high-resolution record from the West Antarctic Ice Sheet (WAIS) Divide ice core, Global Biogeochem. Cycles, 26, GB2027, doi:10.1029/2011GB004247.

Battle, M. O., Severinghaus, J. P., Sofen, E. D., Plotkin, D., Orsi, A. J., Aydin, M., Montzka, S. A., Sowers, T., and Tans, P. P.: Controls on the movement and composition of firn air at the West Antarctic Ice Sheet Divide, Atmos. Chem. Phys., 11, 11007– 11021, https://doi.org/10.5194/acp-11-11007-2011, 2011.

Bender, M., T. Sowers, and E. Brook. Gases in ice cores. PNAS 94 (16) 8343-834, 1997.

Birner, B., C. Buizert, T. Wagner and J. Severinghaus: The influence of layering and barometric pumping on firn air transport in a 2-D model, The Cryosphere, 12, 2021–2037, 2018 https://doi.org/10.5194/tc-12-2021-2018.

Buizert, C., Martinerie, P., Petrenko, V. V., Severinghaus, J. P., Trudinger, C. M., Witrant, E., Rosen, J. L., Orsi, A. J., Rubino, M., Etheridge, D. M., Steele, L. P., Hogan, C., Laube, J. C., Sturges, W. T., Levchenko, V. A., Smith, A. M., Levin, I., Conway, T. J., Dlugokencky, E. J., Lang, P. M., Kawamura, K., Jenk, T. M., White, J. W. C., Sowers, T., Schwander, J., and Blunier, T.: Erratum: Gas transport in firn: Multiple-tracer characterisation and model intercomparison for NEEM, Northern Greenland (Atmospheric Chemistry and Physics (2012) 12 (4259–4277)), Atmos. Chem. Phys., 14, 3571–3572, https://doi.org/10.5194/acp-14-3571-2014, 2014.

Fourteau, K., Arnaud, L., Faïn, X., Martinerie, P., Etheridge, D. M., Lipenkov, V., and Barnola, J.-M.: Historical porosity data in polar firn, Earth Syst. Sci. Data, 12, 1171–1177, https://doi.org/10.5194/essd-12-1171-2020, 2020.

Fourteau, K., Martinerie, P., Faïn, X., Ekaykin, A. A., Chappellaz, J., and Lipenkov, V.: Estimation of gas record alteration in very low-accumulation ice cores, Clim. Past, 16, 503–522, https://doi.org/10.5194/cp-16-503-2020, 2020.

Joos, F. and Spahni, R.: Rates of change in natural and anthropogenic radiative forcing over the past 20,000 years, Proc. Natl. Acad. Sci. USA, 105, 1425–1430, https://doi.org/10.1073/pnas.0707386105, 2008.

Macfarling Meure, C. et al., 2006: Law Dome CO2, CH4 and N2O ice core records extended to 2000 years BP. Geophysical Research Letters, 33. 2006.

Mitchell, L. E., Buizert, C., Brook, E. J., Breton, D. J., Fegyveresi, J., Baggenstos, D., Orsi, A., Severinghaus, J., Alley, R. B., Albert, M., Rhodes, R. H., McConnell, J. R., Sigl, M., Maselli, O., Gregory, S., and Ahn, J.: Observing and modeling the influence of layering on bubble trapping in polar firn, J. Geophys. Res., 120, 2558–2574, https://doi.org/10.1002/2014JD022766, 2015.

Rubino, M., Etheridge, D. M., Thornton, D. P., Howden, R., Allison, C. E., Francey, R. J., Langenfelds, R. L., Steele, L. P., Trudinger, C. M., Spencer, D. A., Curran, M. A. J., van Ommen, T. D., and Smith, A. M.: Revised records of atmospheric trace gases CO2, CH4, N2O, and 13C-CO2 over the last 2000 years from Law Dome, Antarctica, Earth Syst. Sci. Data, 11, 473–492, https://doi.org/10.5194/essd-11-473-2019, 2019.

Scripps CO2 Program.

Spahni, R., J. Schwander, J. Fluckiger, B. Stauffer, J. Chappellaz and D. Raynaud. 2003. The attenuation of fast atmospheric CH4 variations recorded in polar ice cores. J. Geophys. Res., 30(11), 1571. (10.1029/2003GL017093).

Trudinger, C. M., Etheridge, D. M., Rayner, P. J., Enting, I. G., Sturrock, G. A., and Langenfelds, R. L.: Reconstructing atmospheric histories from measurements of air composition in firn, J. Geophys. Res.-Atmos., 107, 4780, https://doi.org/10.1029/2002JD002545, 2002b.

Link: https://wattsupwiththat.com/2021/01/15/the-co2-kink-firn-to-ice-transition/

Übersetzt von Chris Frey EIKE

 




Die letzten Amtshand­lungen von Präsident Trump komplizieren Bidens Klimaziele

Die Trump-Regierung bot Öl- und Gaspacht-Verträge auf öffentlichem Land in Alaska (Januar) und Kalifornien (Dezember) an, und trotz der heute relativ niedrigen Öl- und Gaspreise boten Unternehmen auf die Pachtverträge und erhielten den Zuschlag. Im Fall von Alaska weigerte sich ein Bundesgericht, die Pachtverträge zu stoppen, mit der Begründung, dass die Bohrungen im Arctic National Wildlife Refugee (ANWR) nach fast vier Jahrzehnten des Ringens durch ein Bundesgesetz genehmigt wurden. Diese Aktionen werden Biden Steine in den Weg legen, sein Versprechen zu halten, neue Öl- und Gaspachtverträge auf Bundesland zu beenden.

Obwohl eine Biden-Regierung sich weigern kann, weitere Pachtverträge anzubieten (zum fiskalischen Nachteil der Regierung und der Steuerzahler), wird es schwieriger sein, die zukünftige Produktion aus Pachtverträgen zu verhindern, die die Trump-Regierung kürzlich genehmigt hat. Die Biden-Regierung wird es schwierig, falls nicht sogar unmöglich finden, die Entwicklung bereits angebotener Pachtverträge direkt zu blockieren, es sei denn, sie kann das Geld aufbringen, um die Pächter aus den Verträgen herauszukaufen oder die Unternehmen dafür zu entschädigen, dass die Regierung eine Übernahme der Pachtverträge eingeleitet hat.

Unter Bidens Kontrolle können die Bundesbehörden kraft ihres Amtes über US-Bundesstaaten mit Pachtverträgen strenge Auflagen für die Entwicklung dieser Pachtverträge machen und/oder die Umweltprüfung und den Genehmigungsprozess in die Länge ziehen, aber solange die Unternehmen die relevanten Gesetze und Richtlinien einhalten, sollten sie schließlich in der Lage sein, auf diesen Ländern aktiv zu werden. Diese Unternehmen haben im Laufe der Jahrzehnte unter zahlreichen Regierungen tausende Male diese bundesstaatlichen Hürden durchlaufen und wissen, wie sie durch den Regulierungsprozess kommen. Sofern die Unternehmen mit den Pachtverträgen nicht aufgekauft werden oder ihre Pachtverträge abtreten, sollte irgendwann neues Öl und/oder Gas aus Bundesstaaten fließen, trotz Bidens bester Bemühungen, dies zu verhindern.

Trump hat auch die Vereinigten Staaten aus dem Pariser Klimaabkommen zurückgezogen. Biden hat geschworen, uns wieder hineinzubringen, und das kann er auch, es sei denn, Trump legt es dem Lame-Duck-Senat* als Vertrag vor und der Senat ratifiziert es nicht. Selbst falls Biden die USA erfolgreich zurück in den Pariser Schoß bringt, werden die Maßnahmen der Trump-Administration es schwieriger machen, Paris-konforme Regelungen allein durch exekutive Maßnahmen umzusetzen.

[*Zwischen der Wahl eines neuen Präsidenten und dessen Amtseinführung werden alle Regierungs-Institutionen als lame duck bezeichnet, weil sie keine echte Regierungsarbeit leisten können. Anm. d. Übers.]

Um die Treibhausgasemissionen um die im Pariser Klimaabkommen vereinbarte Menge zu reduzieren, haben die Exekutivbehörden unter der Regierung von Präsident Barack Obama eine Reihe von Vorschriften erlassen, wie z. B. die Begrenzung der Kohlendioxidemissionen von Kraftwerken (der sogenannte „Clean Power Plan“) und der Methanemissionen aus der Öl- und Gasproduktion sowie den Förderaktivitäten auf Bundesland. Diese und andere Regeln blieben in gerichtlichen Auseinandersetzungen stecken, bis sie unter Präsident Trump aufgehoben und durch neue Regeln ersetzt oder von Bundesgerichten als rechtswidrig verworfen wurden.

Zu den jüngsten Maßnahmen der Trump-Regierung, die es in Zukunft schwieriger machen werden, Energie-beschränkende Klimaregelungen zu rechtfertigen und umzusetzen, gehörte die Entscheidung der US-Umweltschutzbehörde (EPA) im Dezember, die aktuellen nationalen Luftqualitätsstandards für Ozon und Feinstaub (PM) beizubehalten und eine Vorschrift zu verabschieden, die die Durchführung umfassender Nutzen-Kosten-Analysen (BCA) für alle zukünftigen Regelungen vorschreibt, die unter dem Clean Air Act (CAA) von 1970 umgesetzt werden, einschließlich einer detaillierten Festlegung, wie solche Analysen durchgeführt werden müssen. Anfang Januar hat Trumps EPA eine Regelung zur Verbesserung der Transparenz und der öffentlichen Kontrolle der Wissenschaft in Kraft gesetzt, die zur Rechtfertigung von Vorschriften verwendet wird.

Die Obama-Regierung rechtfertigte die meisten ihrer klimapolitischen Maßnahmen mit der Behauptung, sie würden Tausende von Leben und Milliarden von Dollar retten. Fast alle vermeintlichen Vorteile der Regelungen resultierten aus einer Doppelzählung: Die Vorteile von Beschränkungen für Schadstoffe wie Feinstaub und Ozon wurden so gezählt, als ob sie neue Vorteile aus der Begrenzung der Emissionen von ungiftigem Kohlendioxid wären. Andere angebliche Vorteile der Kohlendioxid-Beschränkungen resultierten aus der Einbeziehung von Vorteilen für Menschen im Ausland, während die Kostenberechnungen auf diejenigen beschränkt wurden, die innerhalb der Grenzen der Vereinigten Staaten anfallen. Gemäß der kürzlich verabschiedeten BCA-Regel der EPA müssen alle neuen CAA-Regeln von einem BCA begleitet werden, das eine Erklärung über die größten jährlichen Auswirkungen auf die allgemeine Wirtschaft oder eine unverhältnismäßig betroffene Industrie, Gruppe oder geografische Region enthalten muss.

Darüber hinaus muss jede neue CAA-bezogene Vorschrift eine Präambel enthalten, in der erklärt wird, welches Problem die vorgeschlagene Vorschrift angehen soll und welche Überlegungen und Forschungen in die Entscheidung eingeflossen sind, sowie einen separaten Bericht mit einer leicht verständlichen Präambel, in der erklärt wird, welche Vorteile für das Wohlergehen und die öffentliche Gesundheit die EPA von der Vorschrift erwartet und welche Kosten sie verursachen wird. BCAs werden nach den neuen Verfahren zwischen Vorteilen, die sich direkt aus der Vorschrift ergeben, und „Co-Benefits“ (zusätzliche, indirekte Vorteile, die sich aus anderen CAA-Anforderungen ergeben) unterscheiden, und sie werden inländische Vorteile von allen Vorteilen trennen, die die Vorschrift für Menschen in anderen Ländern bringt, und über beides berichten.

Da Trumps EPA die aktuellen Ozon- und PM-Standards für die nächsten fünf Jahre bestätigt und festgeschrieben hat und die betroffenen Gemeinden und Industrien bereits unter ihnen zurecht kommen müssen, dürfte es für die Biden-Regierung äußerst schwierig sein, „neuen“ Zusatznutzen von noch strengeren Beschränkungen für diese beiden regulierten Schadstoffe geltend zu machen, die sie vorschlägt.

Unter der endgültigen Transparenzregel, die die EPA am 5. Januar erlassen hat, muss die Biden-Regierung transparenter sein als jede andere Regierung in der Geschichte, was die Wissenschaft angeht, die zur Rechtfertigung neuer Klimaregelungen verwendet wird. Die Regel legt Anforderungen für die unabhängige Begutachtung der entscheidenden Wissenschaft fest. Darüber hinaus muss die Behörde nun bei Vorschlägen für bedeutende Regulierungsmaßnahmen die Forschung, auf die sich die Regel stützt, klar identifizieren und angeben, auf welche Studien sie sich bei der Erstellung der Regel stützt.

Die Vorschrift verpflichtet die EPA außerdem, Studien stärker zu berücksichtigen, für die die zugrundeliegenden Dosis-Wirkungs-Daten für eine unabhängige Validierung und öffentliche Prüfung verfügbar sind. Studien können auch in Betracht gezogen werden, falls die Daten nur eingeschränkt zur Überprüfung und erneuten Prüfung zur Verfügung stehen. In Fällen, in denen der EPA-Administrator feststellt, dass eine bestimmte Studie oder eine Reihe von Studien für das richtige Verständnis des Dosis-Wirkungs-Mechanismus von entscheidender Bedeutung ist, selbst wenn die Daten aus der Studie oder den Studien nicht für eine öffentliche oder auch nur eingeschränkte Überprüfung und erneute Prüfung zur Verfügung stehen, liegt es in seinem Ermessen, der EPA zu gestatten, die Forschung zur Gestaltung und Rechtfertigung einer Verordnung zu verwenden, aber der Administrator muss klar angeben, warum die Forschungsergerbnisse trotz der fehlenden Transparenz verwendet wurden.

An jeder der hier beschriebenen politischen Maßnahmen wurde schon lange gearbeitet, lange bevor irgendwelche Stimmen in der 2020 Präsidentschaftswahl abgegeben wurden. Als solche und angesichts der Tatsache, dass Trump dachte, er würde die Wiederwahl gewinnen – und allem Anschein nach immer noch glaubt, dass er das tat – waren die Regeln dazu gedacht, Trumps Bemühungen um amerikanische Größe und Unabhängigkeit zu fördern, nicht um Joe Biden von der Umsetzung seiner Klima-Agenda zu vereiteln. Tatsächlich können diese Regeln allein Biden nicht davon abhalten, zu versuchen, jede Klimapolitik durchzusetzen, von der er glaubt, dass er sie durchsetzen kann. Was diese Regeln jedoch tun, ist, Bidens Bemühungen transparenter zu machen und Grenzen zu setzen, die auf dem Gesetz und der öffentlichen Kontrolle basieren.

Die Biden-Regierung wird diese Richtlinien aufheben oder anderweitig überwinden müssen, bevor sie die Arten von Energierationierung und Einschränkungen der persönlichen Freiheit durchsetzt, die seine Energie- und Klimavorschläge als notwendig und gerechtfertigt zur Bekämpfung des Klimawandels proklamieren. Ich wünsche ihm bad luck bei diesen Bemühungen.

Quellen: USA Today; Reuters; U.S. Environmental Protection Agency; Washington Examiner; Heartland Daily News; U.S. Environmental Protection Agency

Link: https://www.heartland.org/news-opinion/news/trumps-final-moves-complicate-bidens-climate-goals

Übersetzt von Chris Frey EIKE

 




Der stratosphä­rische Polarwirbel – jetzt etwas anders als vor genau einem Jahr

Abbildung 1: Vergleich der Wetterlage im 50 hPa-Niveau, links vom 23. Februar 2020 (Quelle), rechts vom 19. Januar 2021 (Quelle)

Der Unterschied sieht recht eindrucksvoll aus. Wie jedoch die folgende Abbildung zeigt, hat sich dieser Vorgang noch nicht wesentlich in tiefer liegende Schichten der Atmosphäre durchgesetzt:

Abbildung 2: Vergleich der Wetterlage im 500 hPa-Niveau, links vom 23. Februar 2020, rechts vom 19. Januar 2021. Quellen siehe Abbildung 3

[Einschub zur Erklärung: „500 hPa-Fläche“ bedeutet, dass ähnlich einer topographischen Karte im Atlas die Höhe eingetragen wird, in welcher der Luftdruck bis genau 500 hPa abgenommen hat. Diese Höhe ist von der Temperatur abhängig. Je wärmer die Atmosphäre, umso höher muss man steigen, um genau 500 hPa zu erreichen. Die Bezifferung der Höhenlinien gibt die Höhe über NN an. Für die 50 hPa-Fläche gilt das Gleiche. Es muss dort oben also zu einer kräftigen Erwärmung gekommen sein, aus welchen Gründen auch immer (siehe weiter unten). Die Bezifferung der Linien zeigt die Höhe. – Ende Einschub]

Natürlich ändert sich die Wetterlage von Tag zu Tag, aber wenn man es integrierend betrachtet, sind grundlegende Unterschiede nicht erkennbar. Etwas anders stellt sich die Lage am Boden dar:

Abbildung 3: Vergleich der Wetterlage am Boden, links vom 23. Februar 2020 (Quelle), rechts vom 19. Januar 2021 (Quelle)

Hier ist augenfällig, dass sich über der Arktis ein kräftiges Boden-Hochdruckgebiet gebildet hat, welches aber im 500 hPa-Niveau keine Entsprechung hat. Der Jet Stream der Polarfront hat sich dadurch zwar zirkumpolar etwas nach Süden verschoben, aber noch nicht weit genug, um in Mittleren Breiten Auswirkungen zu zeitigen. Dies könnte lediglich ein Major Warming in der Stratosphäre bewirken, also eine Teilung (split) des stratosphärischen Polarwirbels in zwei eigenständige Wirbel. Davon wollen die Modell-Simulationen aber nichts wissen. Vielmehr wird eine Rückkehr des Polarwirbels in einen „ungestörten“ Zustand angenommen, wobei lediglich eine gewisse Asymmetrie zum geographischen Pol übrig geblieben ist:

Modellsimulation im 50 hPa-Niveau vom 19. Januar 2021 für den 29. Januar 2021 (Quelle)

Mehr zu diesem Thema gibt es im oben verlinkten Beitrag des Autors von vor einem Jahr (hier) und als Grundlagen-Information hier. Scrollt man hier nach unten, erscheint bei letzterem Link eine Zusammenstellung, aus der hervorgeht, dass eine „Störung“ des stratosphärischen Polarwirbels keineswegs immer gravierende Folgen für die Winterwitterung in den Mittleren Breiten nach sich zieht – zumal, wie oben schon erwähnt, diese „Störung“ aus heutiger Sicht (20. Januar 2021) nicht von Dauer sein soll.

Zu der Konstellation in diesem Jahr hat man sich nun auch anderswo Gedanken gemacht. Hier folgt die Übersetzung eines entsprechenden Beitrags bei WUWT (Link siehe unten):

In der Stratosphäre ist es in diesem Monat erheblich wärmer geworden. Welche Implikationen folgen daraus?

Reposted from The Cliff Mass Weather Blog

Anfang dieses Monats stiegen sich die Temperaturen in der Stratosphäre über einen Zeitraum von einigen Tagen um etwa 50°C, was als Sudden Stratospheric Warming (SSW) bekannt ist. Die Stratosphäre ist die Schicht der Atmosphäre von etwa 10 bis 50 km über dem Meeresspiegel.

Wie wir sehen werden, sind solche stratosphärischen Erwärmungen manchmal mit Verzerrungen und Veränderungen der Winde und Temperaturen in der unteren Atmosphäre verbunden, was zu anomalem Wetter von Hitzewellen bis zu Schneestürmen führt – und zu großen Veränderungen des berüchtigten Polarwirbels.

Es gibt eigentlich zwei Polarwirbel: einen hoch in der Stratosphäre und einen weiteren in der Troposphäre.

Aufgrund dieser beginnenden Erwärmung warnen einige Medien seit einigen Wochen vor schweren Unwettern, einschließlich großer Schneestürme über dem Osten der USA (siehe unten).

Die Erwärmung

Anfang Januar begannen die Temperaturen hoch in der polaren Stratosphäre plötzlich und tiefgreifend zu steigen. Veranschaulicht wird das in dieser NASA-Darstellung der Temperaturen bei einem Druck von 10 hPa (etwa 30.000 m über der Oberfläche) am Nordpol für dieses Jahr (rot/rosa) und letztes Jahr (blau) nach Datum. Die durchgezogene schwarze Linie zeigt die Durchschnittstemperaturen und die graue Schattierung illustriert die typische Variabilität der Temperatur an diesem Ort.

Anfang Januar gab es eine beachtliche Erwärmung auf etwa 250 K, etwa 50°C über dem Normalwert. Wow!

Dies ist eine plötzliche Erwärmung der Stratosphäre, etwas, das wir normalerweise einmal im Jahr im Winter sehen. Im vorigen Wingter kam es im März zu einem ähnlichen Ereignis (blaue Farben).

Bedeutsam: Die Erwärmung in diesem Monat hielt nicht lange an und wird voraussichtlich in der nächsten Woche vollständig verschwinden. Warum treten solche Erwärmungen auf? Viele Forschungen haben gezeigt, dass sie mit Wellen hoher Amplitude in der Troposphäre zusammenhängen, die sich vertikal in die Stratosphäre ausbreiten und dort die Strömung stören. Diese Wellen werden unter anderem durch Gebirgszüge und Land-Wasser-Kontraste verursacht. Ich habe persönlich zu solchen Themen geforscht, aber ich werde hier nicht ins Detail gehen.

Um die potenziellen Auswirkungen der Erwärmung der Stratosphäre zu verstehen, hier noch einmal die Abbildung oben im Blog, welche die beiden Polarwirbel zeigt. Während einer normalen Winterperiode gibt es in der oberen Stratosphäre in der Nähe des Nordpols ein Gebiet mit sehr kalter Luft, was nicht verwunderlich ist, wenn man bedenkt, dass es praktisch keine Sonneneinstrahlung gibt! Ein westlicher (von Westen kommender) Jetstream (der Polarnacht-Jet) umgibt die kalte Luft und bildet faktisch eine schützende Barriere um sie herum.

In der unteren Atmosphäre (Troposphäre) gibt es auch kalte Luft in der Nähe des Pols und einen westlichen Jet an seiner südlichen Grenze: allgemein als Jetstream bezeichnet und am stärksten von etwa 25.000 bis 35.000 ft über der Oberfläche.

Die Wellenbewegungen des Jetstreams und die damit verbundene kalte Luft im Norden haben einen GEWALTIGEN Einfluss auf das Wetter in Bodennähe.   Zum Beispiel kann eine südwärts gerichtete Welle eine Kältewelle und Schnee bringen; eine nordwärts gerichtete Welle hohe Temperaturen.

Wie die Erwärmung der Stratosphäre das Wetter an der Oberfläche beeinflusst

Wenn eine polare Stratosphären-Erwärmung auftritt, ist sie mit einem starken Absinken verbunden (was eine Erwärmung durch Kompression bewirkt); die Abschwächung des Temperaturunterschieds zwischen einem kalten Pol und wärmerer Luft im Süden führt dazu, dass der polare Nachtjet schwächer wird und stark mäandriert. Auch die stratosphärische Polarwirbelzirkulation schwächt sich ab und kann verzerrt werden oder sich sogar vom Pol entfernen.

Die Auswirkungen der polaren Erwärmung der Stratosphäre und der Mäander der kalten Luft neigen dazu, sich nach unten in die Troposphäre fortzupflanzen, wo sowohl der troposphärische Polarwirbel als auch der troposphärische Jetstream schwächer werden kann.

Für das Ereignis dieses Monats war es klar, dass sich der obere Jetstream während der Erwärmung abschwächte. Zur Veranschaulichung sind hier die nach Osten gerichteten (zonalen) Winde bei 60N für ein Niveau nahe der Grenze zwischen Stratosphäre und Troposphäre (150 hPa Druck, etwa 14.000 m) dargestellt. Der Wind (lila) schwächte sich unter den Normalwert ab, nachdem die Erwärmung Anfang dieses Monats begonnen hatte.

Aber hat diese stratosphärische Erwärmung einen großen Einfluss auf die Wellenbewegungen des Jetstreams weit unten in der Troposphäre, wo wir uns befinden?

Um dies zu untersuchen, habe ich die Differenz der Höhen der 500 hPa-Druckfläche (ca. 5.500 m) zur Normalen aufgetragen. Die Diagramme zeigen Durchschnittswerte über eine Woche.

Für die Woche vor der Erwärmung (26. Dezember bis 1. Januar) gibt es eine Menge starker Anomalien (Abweichung von der Norm)… einschließlich einiger anomaler Höhenrücken (Hochdruck über dem Pol):

In der Woche nach der Erwärmung (10.-16. Januar) hat sich die polare Erwärmung abgeschwächt, aber vielleicht ein wenig ausgebreitet. Eine große Veränderung war der Höhenrücken (Hochdruck) über der Westküste und der Trog über dem Osten der USA, aber es ist schwer, die Erwärmung als Ursache anzuführen. Und in der Tat war die östliche Hälfte der USA [und auch Mitteleuropa] in diesem Winter relativ mild… keine schweren Kälteausbrüche. Und anhaltende Blockierungen (kräftige Hochdruckgebiete in nördlichen Breiten) gab es in diesem Winter relativ wenig.

Mit Blick auf diese Woche, die Modelle gehen für kaltes Wetter später in der Woche … aber nicht in den östlichen USA, wohl aber über den Nordwesten.

Die neueste Vorhersage des Europäischen Zentrums [EZMW] für 500 hPa-Höhenanomalien (man denke an die Abweichung vom normalen Druck in 5500 m), zeigt höhere als normale Höhen über der Polregion und einen großen Trog (Tiefdruck) über dem Westen der USA. Diese Art von Muster tritt in La-Nina-Jahren (wie in diesem Jahr) häufiger auf.

Um es ganz klar zu sagen: Dieses Strömungsmuster führt nicht zu unternormalen Temperaturen in den östlichen USA, wie einige Medien bereits hinaus posaunt hatten.

Das gilt auch für Mitteleuropa. Anm. von Christian Freuer

Link: https://wattsupwiththat.com/2021/01/18/the-stratosphere-has-warmed-profoundly-this-month-what-are-the-implications/

Übersetzt von Chris Frey EIKE

 




Corona-Runde: Fakten ohne Fakten schaffen!

Die Corona-Diktatur greift unverhohlen um sich und beginnt unverdrossen, die Mechanismen und Begrifflichkeiten von Diktatoren zu übernehmen. Anders als sie behaupten, ufern die “Zahlen” nicht aus und explodieren exponentiell, sondern gehen kontinuierlich zurück, auch wenn das nicht am Lockdown liegen kann. Nun hat der fürsorgende Staatsrat mit seinen 16 Bezirksvorsitzenden Angst vor der “Mutante“ und macht uns selbige davor. Und das Fernsehen berichtet fürsorglich von den Krankenwagen, die in London und nicht in Berlin vor den Krankenhäusern Schlange stehen.

Die wahren Zahlen

1. Infiziertenzahl gesunken 

Am 31.12.2020 galten in der Spitze 377.266 Menschen als infiziert und nicht genesen. Am 15.01.2021 waren es 41.241 weniger, also 335.965. Diese Kennzahl ist relevant für eine mögliche Auslastung des Gesundheitssystems.

2. Auslastung der Intensivstationen mit positiv Getesteten gesunken

Vor 14 Tagen waren es 5.649 schwere Fälle, die Zahl ist indentisch mit dem Intensivregister. Am 15.01.2021 waren das 575 weniger. Heute sind es 4.949, die auf Intensivstation behandelt werden, das sind rund ein Viertel der belegten und etwas mehr als 20 Prozent aller betreibbaren Betten, eine Reserve von 10.000 “aufstellbaren” Betten nicht eingerechnet, wenn man der Statistik trauen kann.

3. Der Schwund von rund 16.000 Intensivbetten

Am 21.07.2020 habe ich bei Achgut.com davon berichtet, dass das Spahn-Ministerium die Einrichtung von 10.600 zusätzlichen Intensivbetten mit 50.000 Euro pro Bett bezahlt hat. Im DIVI-Intensivregister tauchten zu diesem Zeitpunkt nur 3.300 Betten davon auf. Das Ministerium hatte also 350 Millionen Euro für 7.300 Phantombetten bezahlt.

Doch nicht nur die sind verschwunden. Am 20.07.2020  meldete das DIVI-Intensivregister exakt 32.567 betreibbare oder betriebene Intensivbetten, von denen rund 10.000 als frei gemeldet wurden. Statt 247 Betten mit Patienten, die positiv auf COVID-19 getestet waren, sind es Stand jetzt 4.949. Als aktuell frei werden nur noch 4.041 Betten gemeldet. Also, könnte man meinen, wegen Corona könnte bald eine Überlastung des Gesundheitssystems entstehen.

Könnte man. Inklusive der bezahlten, aber nicht auffindbaren Betten hätten wir eine Intensiv-Kapazität von fast 40.000 Betten haben müssen, stattdessen waren es damals rund 33.000. Doch am 17.01.2021 meldet das Intensivregister nur 24.088 betreibbare Betten, also satte 16.000 weniger als ursprünglich gemeldet und/oder bezahlt.

Zieht man die Zahl der belegbaren Betten von den vermeintlich vorhandenen ab, dann besteht eine Intensiv-Reserve von rund 20.000 oder 50 Prozent. Oder irgend etwas stimmt ganz grundsätzlich nicht in unserem planwirtschaftlichen Gesundheitssystem, das von falschen Anreizen und Rationierungen lebt.

4. Maximal 10.000 von 500.0000 Krankenhausbetten mit CORONA-Infizierten belegt

In Deutschland gibt es laut DeStatis ungefähr 500.000 Krankenhausbetten, in denen jährlich rund 19,4 Millionen Patienten behandelt werden. Das sind rund 373.077 in der Woche. In der Spitze waren in der 51. Woche 10.430 vom Robert-Koch-Institut als gemeldete Patienten mit CORONA infiziert. Das sind 2,7 Prozent der durchschnittlich in einer Woche behandelten Patienten in deutschen Krankenhäusern. Von einer Überlastung kann also nicht die Rede sein. Die Intensivpatienten (ungefähr die Hälfte) sind darin enthalten. Soviel zum Thema der “Überlastung des Gesundheitssystems“.

5. Wo sind die Corona-Opfer gestorben?

In der Berichterstattung und den politischen Statements wird allerorten von der drohenden Triage gesprochen. Wenn ein Notarzt an einer Unfallstelle mit mehreren Verletzten eintrifft, verschafft er sich schnellstmöglich einen Überblick. Wer ist möglicherweise nicht mehr zu retten, wer ist schwer verletzt, aber wahrscheinlich zu retten? Und wer nur leicht verletzt?

Daraus ergibt sich eine Reihenfolge der Betreuung, Behandlung und Versorgung. Der nicht zu Rettende wird versorgt und betreut, allen anderen wird geholfen, so gut es geht. Je mehr Verletzte, desto schwieriger die Entscheidung, aber das ist Alltag. Um den Ärzten in den Krankenhäusern diese fast schon alltägliche Entscheidung zu ersparen, haben wir schon den ersten Lockdown erlebt. Die landläufige Begründung lautet, die Überbeanspruchung der Intensivbetten stehe zu befürchten, und es könne möglich sein, Menschen mit geringen Überlebenschancen eine Intensivbehandlung zu verweigern.

Ich beobachte bereits seit einigen Tagen, das zwischen 70 und 80 Prozent der Verstorbenen auf Intensivstation starben. Am 15. Januar sind 1.045 Menschen laut Johns Hopkins Universität / Worldometer gestorben, davon nur 260 in intensivmedizinischer Behandlung. 785 Menschen, also 75,11 Prozent woanders.

Vieles spricht dafür, dass diese Menschen in den Alten- und Pflegeeinrichtungen sterben, in denen sie vorher betreut wurden. Und eingedenk des hohen Alters stimmt vielleicht, dass sie auch ohne Corona am Ende ihres Lebens standen.

Mein Vater ist im Alter von 94 an den Folgen eines Oberschenkelhalsbruches gestorben. Todesursache war im November 2018 nicht Corona, sondern eine gewöhnliche Lungenentzündung. Wo sind da die Grenzen der Zuordnung?

6. Die Entwicklung in den Alten- und Pflegeheimen

Seit dem 31.12.2020 sind 17.285 Patienten in den Altenheimen und Pflegeeinrichtungen positiv getestet worden. Davon wurden 2.413 ins Krankenhaus eingeliefert und 3.219 sind verstorben. In 15 Tagen sollen also nur 806 in zwei Wochen nicht im Krankenhaus gestorben sein. Das sind wenig mehr als an einem Tag außerhalb der Intensivstation.

Das ist, wie so vieles bei den “Zahlen” des RKI, nicht plausibel. Tatsächlich müssen es ein paar Tausend mehr gewesen sein, die ohne ihre Angehörigen, aber wahrscheinlich auch ohne Zwangsbeatmung die Augen schließen durften. Und das war gut so. Ihnen ist die aussichtslose Intensivpflege erspart geblieben.

7. Das Phantom der Mutante!

Wir wissen, dass die Zahlen der einzelnen Länder nur schwer vergleichbar sind. Die Standards und Prinzipien sind unterschiedlich. Aber wir haben keine anderen. Und die Ergebnisse scheinen zu dokumentieren, dass sie doch eine Tendenz aufzeigen.

In Großbritannien haben wir 1,72 Millionen offene Fälle (2,54 Prozent der Bevölkerung). In Deutschland 335.965 (0,358 Prozent der Bevölkerung). Aber im Vereinigten Königreich gab es am 15.01.2021 1.280 Menschen, die an oder mit CORONA gestorben sind, das sind 0,002 Prozent der Bevölkerung. In Deutschland waren es 1.045 Menschen, also 0,001 Prozent.

In Irland ist der Prozentsatz der offenen Fälle mit 2,83 Prozent und 140.648 Fällen prozentual noch höher als in Großbritannien. Es gibt dort aber gerade mal 187 (!!!) schwere Fälle, das sind gerade mal 0,0004 Prozent der Bevölkerung. In Frankreich lag diese Kennzahl bei 0,004 Prozent, in Italien dagegen bei 0,006 oder 2.953 Menschen, die von einem schweren Verlauf betroffen sind.

Die britische Variante hat also nicht zu höheren Zahlen bei den schweren Fällen oder bei den Todeszahlen geführt, obwohl das britische Gesundheitssystem dem deutschen mit Sicherheit unterlegen ist. In Deutschland sterben die Menschen in den Altenheimen dagegen wie die Fliegen!

Es ist mit Sicherheit ein Indiz dafür, dass die Anzahl der Neuinfektionen (besser die der positiv getesten Bürger) das falsche Kriterium ist.

8. Abschied von den „Inzidenzien”

In der Spitze waren in Deutschland 0,45 Prozent der Wohnbevölkerung gleichzeitig als positiv getestet. Das waren 377.458 Menschen. Dieser Wert ist mittlerweile, wie dargestellt, auf 335.965 gesunken. Die sind bereits isoliert. Wenn zwei pro Infizierten in Quarantäne geschickt wurden (Annahme), wären das also rund 800.000. Mit anderen Worten: Rund 1,2 Millionen potenziell Infizierte sind in Quarantäne und dürften niemand anders anstecken.

Was ist die logische Konsequenz daraus? Dass zwischen Infizierten, Ko-Inzidienzien und dem R-Faktor keine Korrelation besteht. Für die “Steuerung“ einer “Pandemie” erscheint das also als das falsche Kriterium. Anders gesagt: RKI und Politik stochern im Dunkeln. Seit März!

Ein Strategiewechsel ist geboten

Die Lockdown-Strategie und der mangelnde Schutz der vulnerablen Gruppen grenzt mittlerweile an strafrechtlich bewehrte unterlassene Hilfeleistung von Politik und RKI. Die Ignoranz gegenüber den tatsächlichen “Zahlen” ist ein Ausdruck von Realitäts-Resistenz.

Fatal und verschärfend kommt hinzu, dass eben die Ergebnisse der Statistik nicht mal mehr missinterpretiert werden. Ignoranz trifft es wohl eher. Im RKI trifft die Realität auf die in den Studierstuben erfundenen Modellierungen. Und die Realität wird geleugnet.

Dramatisch ist es, dass dieses Versagen weltweit zu beobachten ist. Und es lässt mich natürlich selbst nicht unberührt, dass nur eine Minderheit der veröffentlichten Meinung meine Interpretation teilt, dass es sich um eine Fehleinschätzung handelt.

Selbstzweifel sind bei einer solchen fundamentalen Analyse also angebracht. Ich bin mir also recht sicher. Auch wenn niemand vor Irrtum gefeit ist.

Uns gefährdet nicht der Corona-Virus. Es ist die Reaktion der Gesellschaft, der Politik und der Wissenschaft, die das Vermögen der Gesellschaft vernichtet. Damit meine ich nicht nur das Kapital. Das Vermögen einer Gesellschaft bezeichnet, was sie vermag!

Ich glaube nicht an den großen Reset. Für wahrscheinlicher halte ich den kumulativen Dilettantismus der Verantwortlichen in Kombination mit ihrer Mutlosigkeit. Aber die Motivlage der handelnden Personen tut nichts zur Sache.

Die Politik hat die Grundrechte der Bürger massiv eingeschränkt, bis hin auf die Unverletzlichkeit der Wohnung. Wie hier schon öfter gezeigt, ist das unverhältnismäßig und deshalb nicht rechtens. Damit muss Schluss sein.

Es besteht kein Zweifel daran, dass die Menschen sich verantwortlich, vorsichtig und angemessen verhalten werden. Dafür brauchen sie keine Ministerpräsidentenkonferenz. Sie werden immer versuchen, sich, andere und ihre Freunde und Angehörigen zu schützen.

Wir alle wissen, dass Vorsicht geboten ist. Wir brauchen niemanden, der unsere Vernunft und unser Augenmaß maßregelt. Das unterscheidet uns von China. Oder nicht?

 

Siehe zum gleichen Thema auch: Verschärfte Fakten für den Unlock

Der Beitrag erschien zuerst bei ACHGUT hier




Welche globale Erwärmung? 148 neue (2020) wissen­schaftliche Studien bestätigen, dass es in letzter Zeit keine Erwärmung gab…

Der Link zur Datengrundlage der im Jahre 2020 (und 2019) veröffentlichten Studien, welche belegen, dass es keine globale Erwärmung gab, ist hier:

Non-Global Warming Studies From 2020 & 2019

Es folgen 8 Beispiele der im Jahre 2020 veröffentlichten 148 Studien zur fehlenden globalen Erwärmung:

Martin et al., 2020: Die maximale Temperatur im Holozän in Frankreich (14°C) lagen um 7 K über dem heutigen Wert (7°C)

Moderne Klimaparameter wurden aus der instrumentellen Datenbank von Meteo-France an der 11 km entfernten Station Mazet-Volamont (1130 m) für den Zeitraum 2009-2017 gewonnen … Die Temperaturwerte wurden mit einem vertikalen Temperaturgradienten von 0,6°C/100 m korrigiert. Die mittleren Jahrestemperaturen variieren zwischen 6 und 9°C mit einem Mittelwert von 7°C. … Die mittlere Jahrestemperatur für das gesamte Holozän betrug 11,3°C, d.h. Sie lag um 4,1°C über dem modernen Wert. Das Maximum von 14°C und ein Minimum von 7,6°C wurden vor 7800 bzw. 1700 Jahren erreicht. … Die letzten 200 Jahre zeigen einen gegenläufigen Trend … MAAT sank um 3,1 und 3,3°C für die Seekalibrationen, Sun et al. (2011) und Russell et al. (2018), bzw. 2,1°C für die Bodenkalibrierung.“

————————————-

Hou et al., 2020: Der westliche tropische Atlantik war um 1 bis 5 K wärmer während der letzten Eiszeit (CO2-Gehalt 190 ppm)

Unsere Ergebnisse zeigen einen Mangel an ausgeprägter glazial-interglazialer Variabilität in der SST-Aufzeichnung, was uns dazu veranlasst, atmosphärischen pCO2 als direkten Treiber der SST-Variationen im südlichen WTA [westlicher tropischer Atlantik] auszuschließen.

————————————-

Xia et al., 2020: Die Sommertemperatur im subantarktischen Georgien „lag um 5 bis 10 K höher als heute“

Obwohl der Biomarker-basierte Paläo-Temperatur-Proxy für moderne Temperaturdaten regionaler Seen kalibriert wurde, liegen die aus dem Fan Lake rekonstruierten Sommertemperaturen bis zu 14°C außerhalb des Bereichs ihres modernen Kalibrierungsdatensatzes, in dem der wärmste Standort eine Sommertemperatur von nur 10°C aufweist (Foster et al, 2016) … Die CARs stiegen auf bis zu 140 g C pro m² und Jahr vor 4000 bis 3500 Jahren und 70 g C pro m² und Jahr vor 3200 bis 2700 Jahren, als die Sommertemperatur um etwa 10°C bzw. 5°C höher war als heute.

————————————-

Gebbie, 2020: Die derzeitige Wärme in den Ozeanen beträgt nur etwa ein Drittel dessen, was zum Erreichen des Niveaus im Mittelalter erforderlich ist.

[Die Studie liegt hinter einer Zahlschranke. Anm. d. Übers.]

————————————-

Wangner et al., 2020: Im Südosten von Grönland war es von den 1920er biks zu den 1940er Jahren wärmer als heute

Die kalten Jahrzehnte nach 1950 fallen mit der Großen Salzgehalts-Anomalie in den späten 60er bis frühen 70er Jahren zusammen, die durch die langfristige Abnahme des Index‘ der Nordatlantischen Oszillation (NAO) verursacht wurde und den Export von Süßwasser und Eis durch die Framstraße in die EGC [Ostgrönland-Strom] begünstigte (Dickson et al., 1996). Innerhalb von zwei bis drei Jahren erreichte die damit verbundene Salzgehalts-Anomalie die Labradorsee, was zu einer Reduktion der Konvektion und einer anschließenden Abschwächung der Atlantic Meridional Overturning Circulation (AMOC) führte. Dieser Mechanismus erklärt die niedrige Temperatur auf dem SE-Grönland-Schelf und die positive AMV während dieses Zeitraums (Ionita et al., 2016, Abbildung 6d). … In der alkSST-Aufzeichnung von Skjoldungen sowie in den CTD-Messungen vor Skjoldungen (Abbildung 5d) zeigt sich eine Rückkehr zu niedrigeren Temperaturen nach 2006, was auf die außergewöhnlich hohen Temperaturen um das Jahr 2000 hinweist. … Unsere Studie zeigt, dass, obwohl die Schmelzwasserproduktion durch das Klima beeinflusst worden sein könnte, die Position des Gletscherrandes und das Kalben von Eisbergen im 20. Jahrhundert relativ konstant geblieben sind. Dies könnte auf die Lage des Gletschers mit einer begrenzten Eis-Ozean-Grenze und einem 90°-Zuflusswinkel zurückzuführen sein, der als Pinning-Punkt in seiner aktuellen Position wirkt. Unsere Studie veranschaulicht, dass die Wärme des Ozeans einen begrenzten Effekt auf einige Meeresgletscher haben kann.

————————————-

Sun et al., 2020: Keine Erwärmung in Nordwest-China seit dem 17. Jahrhundert, Abkühlung seit den 1950er Jahren

————————————-

Weckstrom et al., 2020: Abkühlung des nördlichen Nordatlantiks und zunehmendes Meereis seit den 1930er Jahren

————————————-

Singh et al., 2020: Auf dem antarktischen Kontinent ist es während der letzten 7 Jahrzehnte nicht wärmer geworden.

Geringe kontinentale Klimasensitivität der Antarktis aufgrund hoher Eisschild-Orographie … Der antarktische Kontinent hat sich in den letzten sieben Jahrzehnten nicht erwärmt, trotz eines monotonen Anstiegs der atmosphärischen Konzentration von Treibhausgasen.

————————————-

Link: https://notrickszone.com/2021/01/14/what-global-warming-148-new-2020-scientific-papers-affirm-recent-non-warming-a-degrees-warmer-past/

Übersetzt von Chris Frey EIKE

 




Klimawarner Eckart v. Hirschhausen: Mehr Hitzetote als Corona-Opfer

Medien-affine Wissenschaftler und Ärzte, denen ihr Job im Krankenhaus oder Labor nicht glamourös genug ist, betätigen sich heuer gern als Weltuntergangswarner, die nach der üblichen Medienlogik damit fast todsicher zu Nachrichten-Prominenten werden. Da die Corona-Sars2-Infektion in den Medien die Klima-Erzählung fast völlig verdrängt hat, fühlen sich deren Profiteure mißachtet und versuchen, „ihr“ Thema irgendwie in die Corona-Hysterie hineinzuquetschen. So saß kürzlich Eckart von Hirschhausen, der ARD/ZDF-Wissenschaftserklärer bei Maybrit Illner neben Spahn, Kretschmer und Lauterbach.

Die Kollegen von der Achse haben die Aussagen des Dr. Hirschhausen notiert:

„Könnte man sich vorstellen, dass die Großeltern dann im Gegenzug, wenn wir durch diese Pandemie durch sind, auch etwas Solidarisches tun? Zum Beispiel nicht Kreuzfahrten machen, nicht sozusagen aufholenden Konsum machen, sondern die viel größere Krise ernst nehmen, nämlich die Klimakrise.“

„Die Pandemie ist für mich ein Zeit- und Energiefresser, die wir – wir bräuchten diese Ressourcen, um die größte Gesundheitsgefahr, nämlich die Klimakatastrophe anzugehen. Und ich habe große Sorge, dass das dann im Nachhinein heißt, ja, jetzt haben wir keine Ressourcen mehr dafür, jetzt müssen wir erst mal alles wieder normal machen. Die Welt vorher war nicht normal, wir schliddern in diesem Jahrzehnt auf die entscheidende Phase zu, in der sich entscheidet, ob Menschen überhaupt auf dieser Erde bleiben können.“

Die berühmten „zehn Jahre“, nach deren Ablauf alles verloren sei – erstaunlich, daß das immer noch funktioniert.

„Wir haben 20.000 Hitzetote im letzten Jahr gehabt! Das waren sehr viel mehr sozusagen Übersterblichkeit im Sommer als an Covid. Hat keiner drüber geredet. Wir sind das Land mit den dritthäufigsten Hitzetoten nach China und Indien. Warum kommt das in den Medien nicht vor?“

„Hat keiner drüber geredet“ – obwohl das Thema „Erderwärmung“ rauf- und runterberichtet wird? Unglaubwürdig – die „20.000“ waren wohl eher Senioren, die, für Europa heute üblich, an Herz-Kreislauf-Versagen starben. „An oder bei Hitze“ , wie man in Anlehung an „an oder mit Corona“ sagen könnte. Nichts Genaues weiß man nicht – behaupten kann man aber immer.

Wie der Achse-Autor Robert von Loewenstern einwirft, haben südeuropäische Länder, die mit oder ohne Klimakrise wärmer sind als Deutschland, weniger Hitzetote. Wie geht das? Erinnert an die Warnung des Urologen, der meinte, daß wegen der Erderwärmung deutsche Männer unfruchtbar werden könnten; Äquatorial-Afrika explodiert aber durch erheblichen Nachwuchs.

Lustiger Moment in der Suada Hirschhausens, der sich darüber aufregte,

„daß wir natürlich auch mediales Verzerren haben, wenn wir jedem, der die extreme Meinung hat, immer ein Mikrofon vor die Nase halten“.

Er ist damit natürlich nicht gemeint; er hat ja auch keine extreme Meinung…..

Gemeint waren wohl eher Attila Hildmann oder einer von uns bei EIKE; aber mir ist nicht bekannt, daß man uns laufend ein Mikro für die Nase hält.