1

Wird „Corona“ eine Blaupause für den Klimawandel?

Dabei stellt sich die Frage: Auf welchen Zahlen basieren diese politischen Entscheidungen

In der Tagesschau vom 17.04. wurde mit inhaltsschweren Worten und der Erklärung, dass wenigstens manche Länder, wie zum Beispiel die Schweiz, schon mehr Zahlen zu Corona veröffentlichen, sowie einer drastisch deutlichen Grafik gezeigt, wie stark die Pandemie die Mortalität in die Höhe treibt und sicherlich noch kein Ende davon erreicht ist.

Eine eindringliche Warnung an das Deutsche Volk, die schlimmen, aber unbedingt erforderlichen Maßnahmen ihrer Führerin – und deren Landesfürsten – einzuhalten, da sie aufgrund solcher Grafiken mit Sicherheit erforderlich sind:
[1] Tagesschau vom 17.04.2020:
Das Problem mit der Sterblichkeitsrate
Anomalie in Schweizer Statistik
All dies zeigt, dass es aktuell noch sehr schwierig zu schätzen ist, wie viele Covid-19-Erkrankte sterben. Manche Länder – wie etwa die Schweiz – veröffentlichen jedoch regelmäßig Zahlen aller Todesfälle. Und hier zeigt sich, dass dort seit Mitte März mehr Menschen gestorben sind als in der selben Zeit der Vorjahre.
Auffällig ist der Unterschied vor allem bei den Über-65-Jährigen. In der Woche bis zum 5. April starben in dieser Altersgruppe in der Schweiz mehr als 1650 Menschen. Laut der offiziellen Statistik waren dies etwa 500 mehr, als zu erwarten gewesen sind.

Bild 1 [1] Corona-Sterblichkeit in der Schweiz
Und auch der Deutschlandfunk gab dazu Information an die Bürger. Man gab darin sogar zu, dass man eigentlich nichts weiß, dieses Nichtwissen jedoch von „ Kritikern und Aktivisten missbraucht werde“. Man hat zwar keine belastbaren Zahlen, aber die „Übersterblichkeit steige“.
[3] Deutschlandfunk 01. Mai 2020: Coronavirus Übersterblichkeit – Wie tödlich ist das Coronavirus wirklich?
Wie viele Menschen sterben am Coronavirus? Statistiken zur sogenannten Übersterblichkeit können helfen, diese Frage zu beantworten. Doch auch dabei gibt es Probleme – die zum Teil von Kritikern und Aktivisten missbraucht werden.
Ende April sagte der Präsident des Robert Koch-Instituts Lothar Wieler: „Wir gehen eigentlich davon aus, dass mehr Menschen an dem Virus gestorben sind, als eigentlich gemeldet.“
Belastbare Zahlen gebe es dafür noch nicht, aber man beobachte, dass die Übersterblichkeit steige ...Experten hoffen nun, durch Daten zur Übersterblichkeit ein genaueres Bild der Covid-19-Todesfallzahl zu bekommen …

So, wie es kein Ereignis mehr gibt, an dem der schlimme Klimawandel nicht seine bösen Finger im Spiel hat, geschieht in Deutschland nichts mehr, an dem nicht auch das böse Räääächts partizipiert. Und dieses Rääächts macht es ganz perfide, indem es „Zahlen missbrauchen“und dazu an unserer unfehlbaren Kanzlerin Zweifel hegen.

[3] Deutschlandfunk: Vorsicht Missbrauch
… Trotz all solcher Unsicherheiten und statistischer Probleme greifen manche Kritiker der Corona-Einschränkungen einzelne Zahlen heraus, um sie in ihrem Sinne zu missbrauchen. Die frühere CDU-Bundestagsabgeordnete und DDR-Bürgerrechtlerin Vera Lengsfeld, die heute der AfD nahe steht, rief dazu auf, die Maßnahmen zu Corona sofort aufzuheben. Dazu verlinkte sie eine Petition, in der damit argumentiert wird, Covid19 sie nachweislich weniger gefährlich als die Grippe …

Missbrauchte“ Zahlen

Wer Bild 1 genauer ansieht, liest für die schlimme, rote Linie den Zusatz: „Hochrechnung“.

Nun hat der Autor kürzlich „Rechnungen“ mit Coronazahlen gesichtet und dabei festgestellt, dass man mit den Zahlen vieles kann, nur nicht ihnen – und schon gar nicht den daraus abgeleiteten Berechnungen – auch nur im Ansatz vertrauen:
[2] Eike 21. April 2020: Corona und die Genauigkeit von Statistik
Nun eine kurze Sichtung mit der Fragestellung, ob die Frau Vera Längsfeld nicht doch eher Recht als Unrecht hat.

Zahlen dazu finden sich beim Statistischen Bundesamt. Von deren Homepage kann man sich die Mortalitäten bis zum 05.04.2020 in Tagesauflösung als Excel-Datei laden.

Das nächste Bild zeigt die aus diesem Datensatz erstellte Grafik der täglichen Todeszahlen in auf den 1.1.2020 als Startdatum mit gleichen Startzahlen normierten Jahresverläufen (absolut stimmen also nur die Werte für 2020 (rote Linie) genau) für die Risikogruppe ab 65.

Man vergleiche diese Grafik mit der „Angabe“ in Bild 1:
Nichts, aber auch gar nichts der Aussage aus der Schweiz lässt sich in Deutschlands Daten finden. Nirgendwo die Spur einer Corona-Übersterblichkeit. Allerdings gibt es solche in erheblichem Ausmaß, jedoch vor einigen Jahren, als es niemanden auch nur entfernt interessiert hat.
Man stelle sich vor, die Sterblichkeit des Jahres 2018 müsste aktuell publiziert werden. Der „baldige Tod der gesamten Weltbevölkerung“ würde wohl ausgerufen …

Bild 2 Deutschland, Personen ab 65. Verlauf der absoluten Sterbezahlen vom 01.01. bis 05.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Alle Werte auf den Startwert des Jahres 2020 normiert. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

Das gilt genau so, wenn man die Daten für alle Personen unter 65 Jahre betrachtet. „Mit Corona“ ist die Sterblichkeit über den gesamten Zeitraum sogar am Niedrigsten. Auch bei dieser Gruppe liegt „die Schweiz“ katastrophal daneben.

Bild 3 Deutschland, Personen bis 65. Verlauf der absoluten Sterbezahlen vom 01.01. bis 05.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Alle Werte auf den Startwert des Jahres 2020 normiert. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

 

Um direkt zu sehen, wie stark die Sterbezahlen-Verläufe schon über wenige Jahre schwanken – und wie die letzten vier Jahre gegenüber dem „Coronajahr“ 2020 abweichen, eine Differenzdarstellung, ergänzend zum Bild 2:

Bild 4 Deutschland, Personen ab 65. Verlauf der relativen Differenzen der Sterbezahlen vom 01.01. bis 05.04. gegenüber dem Jahr 2020. Alle Werte auf den Startwert des Jahres 2020 normiert. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

Weshalb „Blaupause für den Klimawandel“?

Betrachte man Bild 1 vereinfacht als „Hockeystick“ und die Bilder 2 und 3 als in der Natur gemessen Wirklichkeit. Dann hat man genau die Diskrepanz zwischen Simulationsaussagen und gemessener Wirklichkeit, wie sie der Autor seit vielen Jahren Recherche beim Klimawandel ebenfalls immer neu erkennt. Und man hat genau den gleichen Irrsinn unglaublicher Geldverschwendung aufgrund vollkommen unbrauchbarer, da völlig falscher Simulationsrechnungen. Sogar die Zuweisung von Kritikern als Räääächts ist identisch ….
Und so darf man sich sehr wohl die Frage stellen, ob die Maßnahmen unserer von ihrer Entourage für unfehlbar erklärten Kanzlerin und ihrer Landesfürsten wirklich so sinnvoll sind, auch wenn die Freitagshüpfer und ihre Einflüsterer es ganz toll finden, dass die Wirtschaft endlich kaputt gemacht wird.

Nun ja, inzwischen fordern es auch immer mehr CEOs in Petitionen an Frau Merkel, dass sie bitte auch ihr Geschäft zur Klimaförderung kaputt machen soll …

Man ist mit den (sehr wenigen) vorhandenen Daten überfordert und will auch erst langsam welche gewinnen

Im Monat x mit „Corona“ sollte man meinen, dass unsere Verantwortlichen, welche mit viel, viel Einsatz und Engagement die Wirtschaft und das öffentliche Leben in die Knie gezwungen haben und das Ausgeben von möglichst viel Geld – wie es v. d. Layen mit der EU – die neben dem Retten der Welt vor dem Klima nun parallel die Welt auch vor Corona rettet – weiter betreibt, Interesse an belastbaren Daten hätten.

Doch scheint dem bei Weitem nicht so zu sein. Es ist sicher auch viel angenehmer, zu erfahren, dass Bill Gates unsere Kanzlerin ob dem Krisen(miss)Management lobt und Trump verdammt, als offengelegt zu bekommen, dass unsere Verantwortlichen im Kern immer noch kein wirkliches Wissen zu ihren Entscheidungen vorlegen können.

So scheint die – eher gegen, und schon gar nicht auf Anordnung der Politik – durchgeführte „Heinsberg-Studie“ bisher der einzige Versuch gewesen zu sein, über eine Einwohnerpopulation wenigstens im Ansatz gemessene Stichprobenzahlen zu erhalten.

Anstelle von Unterstützung erfuhr und erfährt diese Maßnahme allerdings weiterhin eher Gegenwind: [5] „ … ein führender Epidemologe äußert sich zurückhaltend … G. K., Leiter der Abteilung Epidemologie am Helmholzzentrum für Infektionsforschung … warnte in einer Videokonferenz davor, die Zahlen auf ganz Deutschland zu übertragen … man könne zum Beispiel argumentieren … insgesamt bezeichnete Krause die Daten der Studie allerdings als sehr überzeugend …“

Wenn untergeordnete Behörden keine Anweisungen „von Oben“ haben, machen sie lieber nichts, als etwas vorbeugend:
[6] … mancher kommt da ins Grübeln. Dennoch bewilligen die Gesundheitsämter keine Tests – nicht einmal dann, wenn deren Partner nachweislich an Corona erkrankt war … es gibt noch ein Problem der Antikörpertests: Die Meistens sind nicht sehr zuverlässig … das bundeseigene Paul-Ehrlich-Institut weist darauf hin, dass es an verbindlichen Standards und unabhängigen Prüfungen fehlt …
Immerhin „startet“ ein Institut langsam:
[6] … Das Robert-Koch-Institut startet in diesen Tagen selbst eine bundesweite Antikörper-Studie …

Wo man längst wichtige Daten generieren könnte, bleiben solche – sofern sie überhaupt erhoben werden – unter Verschluss:
[4] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Eine Klinik im Ausnahmezustand
Der Kreis Tirschenreuth hat die höchste Corona-Rate in Deutschland. Über 800 Opfer wurden alleine in WEIDEN behandelt … Landkreis Tirschenreuth … nach wie vor das Corona-Epizentrum in Deutschland … Bei über 1,5 % Przent der Bevölkerung des Kreises Tirschenreuth hat das zuständige Gesundheitsamt eine Infektion mit dem Coronavirus registriert … mehr als das Zehnfache der Quote des Kreises Erlangen-Höchstadt …
Wie viele dieser Patienten intensivmedizinisch betreut werden mussten, beziehungsweise müssen ,darüber gibt Kliniksprecher … keine Auskunft. Auch nicht darüber, bei wie vielen Menschen … die Mediziner den Kampf gegen die Folgen des Virus verloren haben …

Dabei wäre eine parallele, fundierte Analyse wie in „Heinsberg“ sicher sehr notwendig gewesen, denn in diesen Landkreisen geschah eigentlich Unfassbares:
[4] Warum hat das Virus gerade diese Region so hart getroffen?
Die Fachleute stehen immer noch vor einem Rätsel: … Mitarbeiter des Robert-Koch-Instituts suchen seit einigen Tagen am Ort des Geschehens nach Antworten … sondern auch die Frage klären, warum die Sterberate in dem oberpfälzischen Landkreis überdurchschnittlich hoch ist … im Bundesdurchschnitt 3,9 % … liegt diese Zahl aktuell bei über 10 % …

Dank an Dr. rer. nat. Hans Penner, der mit einem Infomail mit der Grafik über die Mortalitäten von einem Herrn Seifert die Anregung zu diesem Artikel gab.

 

Nachtrag

Zu Corona erscheinen fast im Stundentakt neue Nachrichten. Nach der Einpflege dieses Artikels erschien einer auf Achgut mit im Kern dem gleichen Thema:
Achgut 05.05.2020: Der größte Crashtest aller Zeiten
Darin steht, dass vor allem Personen ab 80 Jahren betroffen sind.
Deshalb ergänzend die Mortalität aller Personen ab 80 Jahren:

Bild 4 Grafik Kuntz

Bild 4 Deutschland, Personen ab 80. Verlauf der absoluten Sterbezahlen vom 01.01. bis 05.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Alle Werte auf den Startwert des Jahres 2020 normiert. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

 

Dank an Dr. rer. nat. Hans Penner, der mit einem Infomail mit der Grafik über die Mortalitäten von einem Herrn Seifert  die Anregung zu diesem Artikel gab.

Quellen

[1] Tagesschau vom 17.04.2020: Das Problem mit der Sterblichkeitsrate

[2] Eike 21. April 2020: Corona und die Genauigkeit von Statistik

[3] Deutschlandfunk 01. Mai 2020: Coronavirus Übersterblichkeit – Wie tödlich ist das Coronavirus wirklich?

[4] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Eine Klinik im Ausnahmezustand

[5] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Mehr Klarheit bei der Dunkelziffer

[6] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Wer hat schon Antikörper im Blut




Educated Guess: Wie wird eigentlich die durchschnittliche Erd-Temperatur berechnet?

Wie wird die Temperatur der Erde denn berechnet?

Es gibt sicher niemanden, der denkt, man liest die Erdtemperatur am entsprechenden Thermometer, sagen wir in Norwich, in East Anglia Super-Exaggerated Temperature ab.

Wie kommt sie dann zustande?

Das Grundproblem mit der Erdtemperatur besteht darin, dass Temperatur sehr heterogen ist. In der Arktis ist es kälter als in Mali und in München wärmer als in Aberystwyth, während es in Khartoum wärmer ist als in Reykjavik. Mit anderen Worten, um die Temperatur der Erde zu bestimmen, braucht man viele verschiedene Messstationen, sehr viele verschiedene Messstationen, die so über die Erde verteilt sind, dass ihr Gesamt auf die Erdtemperatur schließen lässt. Die Messstationen dürfen jedoch nicht nur an Land stehen, es muss sie auch auf dem Meer geben: auf Schiffen, in Bojen usw.

Derzeit gibt es weltweit vier Datensätze, die genug Temperatur-Informationen enthalten (sollen), um die Erdtemperatur zu bestimmen.

Der wohl umfassendste Datensatz ist der GISTEMP-Datensatz, den das Goddard-Institute for Space Science der NASA zusammenstellt. Er soll 99% der Erde mit Temperaturinformationen abdecken.

Daneben gibt es noch den MLOST-Datensatz der National Oceanic and Atmospheric Administration (NOAA) der USA, den HadCRUT4-Datensatz, der von UK Met Office Hadley Centre und der Univeristy of East Anglia (Climate Research Unit) zusammengestellt wird, sowie einen Datensatz, den die Japanese Meterological Agency (JMA) erstellt. Er hat mit rund 85% die geringste Abdeckung durch Messstationen. Die Daten stammen für HadCRUT4 aus rund 5.500 Messstationen, GISTEMP basiert auf rund 6.300 Einzeldaten, MLOST auf rund 7.000. Alle Messstationen befindet sich an Land. Die Temperaturmessung auf dem Meer ist ein eigenes Problem.

Die Datensätze unterscheiden sich nicht nur darin, aus wie vielen Messstationen sie ihre Informationen beziehen, sie unterscheiden sich auch in der Länge der Datenreihen. Die längste Datenreihe stellt HadCRUT4 bereit, sie beginnt 1850, GISTEMP und MLOST Daten beginnen mit dem Jahr 1880, die Daten der JMA beginnen im Jahr 1891.

Aus diesen Quellen stammen die Informationen, auf denen dann eine Abbildung wie die folgende basiert, die wir auf Basis der NASA GISTEMP Daten erstellt haben.

Die Musik bei dieser Abbildung spielt in dem, was links am Rand abgetragen ist: Average Temperature Anomalies. Was es damit auf sich hat, beschreibt NOAA wie folgt:

“The term temperature anomaly means a departure from a reference value or long-term average. A positive anomaly indicates that the observed temperature was warmer than the reference value, while a negative anomaly indicates that the observed temperature was cooler than the reference value.”

Nicht unbedingt der Gipfel an Transparenz und Informationsbereitstellung. Bei der NASA findet sich der folgende Splitter:

„This graph illustrates the change in global surface temperature relative to 1951-1980 average temperatures.”

Aus beiden Informationen kann man sich nun zusammenbasteln, was eine Temperatur Anomalie ist. Sie wird als Abweichung der täglich gemessen (Anmerkung der Redaktion genauer-aus Messungen, nach bestimmten aber unterschiedlichen Algorithmen errechneter) Durchschnittstemperatur für eine Messstation von einem Erwartungswert berechnet. Der Erwartungswert, der bei NASA und NOAA die Grundlage der Anomalien darstellt, ist der Mittelwert der Temperatur (an der entsprechenden Messstation) für den entsprechenden Tag im Zeitraum von 1951 bis 1980.

Für jede Messstation wird aus den Tagesdurchschnittswerten ein Monatsdurchschnittswert berechnet, der jeweils die Temperatur-Anomalie, also die Abweichung zur Durchschnittstemperatur für den Zeitraum 1951 bis 1980, angibt. Warum der Zeitraum von 1951 bis 1980 und nicht der Zeitraum von 1931 bis 1960? Weil der Zeitraum von 1931 bis 1960 die „Heisszeit“ der End-1930er und 1940er Jahre enthält:

Die Abbildung enthält Temperaturangaben für die vier oben genannten Datensätze HadCRUT4, GISTEMP (NASA GISS) und MLOST (NOAA). Wie man sieht, weichen die Temperaturangaben von einander ab. Indes: Es handelt sich hierbei um die Angabe der Erdtemperatur auf Basis tatsächlich gemessener Werte. Offenkundig gibt es mehr als eine durchschnittliche Erdtemperatur oder die Berechnung dessen, was durchschnittliche Erdtemperatur sein soll, ist nicht so einfach, wie gedacht.

Und das ist sie tatsächlich nicht. Stellen Sie sich vor, sie haben die Daten für ihre Messstationen, die sich an unterschiedlichen Orten der Erde befinden. Wie kommen Sie von den Einzeldaten zur durchschnittlichen Erdtemperatur?

Die Vorgehensweise von NASA, NOAA; Met Office / East Anglia und JMA ist weitgehend identisch. Die Erde wird in ein Netz von Quadraten eingeteilt, für jedes Quadrat wird die durchschnittliche Temperatur bestimmt. Für GISTEMP liegen die meisten Daten vor, also kann es sich das Goddard Center leisten, ein Grid aus Quadraten von jeweils 2 Breiten- und 2 Längengraden herzustellen. Alle anderen müssen mit 5 Breiten- und 5 Längengraden arbeiten.

Bislang haben wir quasi den Idealfall dargestellt. Die Realität besteht darin, dass alle vier Datensätze mit leeren Feldern in Ihrem Grid umgehen müssen. Die folgende Abbildung für HadCRUT4 zeigt, dass zum Teil erhebliche Lücken bestehen:

Die weißen Gridzellen sind solche, für die keine Informationen in HadCRUT4 vorhanden sind. Wenn Wissenschaftler mit leeren Zellen in ihren Daten konfrontiert sind, haben sie mehrere Möglichkeiten, man kann die leeren Zellen aus den räumlich gesehen nächsten Zellen, für die Werte vorliegen, berechnen. Diesen Weg geht man im Goddard Center der NASA. Es ist auch möglich, die fehlenden Werte mit dem errechneten „globalen Durchschnitt“ zu füllen. Diesen Weg gehen die Forscher bei HadCRUT4.

All die Entscheidungen, all die Unterschiede in der Berechnung der Erdtemperatur tragen dazu bei, dass die Modelle der Klimaforscher je nachdem, welchen Datensatz sie zu Grunde legen, unterschiedliche Ergebnisse ausspucken. Hinzu kommen nicht wirklich nachvollziehbare Entscheidungen wie die, die Erdtemperatur für die nördliche und südliche Hemisphäre zunächst getrennt zu berechnen und daraus einen Mittelwert für die endgültige Erdtemperatur zu errechnen. Der Hintergrund ist, dass es im Norden mehr Messstationen als im Süden gibt. Hinzukommt, dass die Distanz zwischen zwei Längengrad am Äquator größer ist als an den Polen. Um dieses Problem auszugleichen, werden die Ergebnisse aus den Zellen, für die Werte vorliegen, gewichtet (wie auch immer).

Die Darstellung der Berechnung der durchschnittlichen Erdtemperatur, die wir morgen für die Darstellung einiger Ungereimtheiten bei der NASA benötigen, sollte schon jetzt gezeigt haben, dass die Temperatursteigerung, die die Klimawandeljünger wie einen Fetisch anbeten, das Ergebnis eines sehr komplexen und mit vielen, sehr vielen Annahmen, Extra- und Interpolationen durchsetzten Prozesses ist. Die durchschnittliche Erdtemperatur, wie wir sie kennen, ist ein Educated Guess, mehr nicht.

Der Beitrag erschien zuerst bei ScienceFiles hier

Weiterführende links zum o.a. Thema hier