1

Man glätte niemals Zeitreihen!

Der Originaltitel ist als Wortspiel nur schwer übersetzbar: Do not smooth times series, you hockey puck!

Der Ratschlag, der den Titel dieses Beitrags bildet, wäre der eines Statistikers, wie man keine Zeitreihenanalyse durchführt. Nach den Methoden zu urteilen, die ich regelmäßig auf Daten dieser Art angewendet sehe, ist diese Zurechtweisung dringend nötig.

Der Ratschlag ist jetzt besonders relevant, weil sich eine neue Hockeystick-Kontroverse zusammenbraut. Mann und andere haben eine neue Studie veröffentlicht, in der viele Daten zusammengeführt wurden, und sie behaupten, erneut gezeigt zu haben, dass das Hier und Jetzt heißer ist als das Damals und Dort. Man gehe zu climateaudit.org und lese alles darüber. Ich kann es nicht besser machen als Steve, also werde ich es nicht versuchen. Was ich tun kann, ist zu zeigen, wie man es nicht tun soll. Ich werde es auch schreien, denn ich möchte sicher sein, dass jeder es hört.

Mann stellt auf dieser Site eine große Anzahl von Temperatur-Proxy-Datenreihen zur Verfügung. Hier ist eine von ihnen mit der Bezeichnung wy026.ppd (ich habe einfach eine aus dem Haufen herausgegriffen). Hier ist das Bild dieser Daten:

Die verschiedenen schwarzen Linien sind die tatsächlichen Daten! Die rote Linie ist ein geglätteter 10-Jahres-Mittelwert! Ich nenne die schwarzen Daten die realen Daten, und die geglätteten Daten die fiktiven Daten. Mann hat einen „Tiefpassfilter“ verwendet, der sich vom laufenden Mittelwert unterscheidet, um seine fiktiven Daten zu erzeugen, aber eine Glättung ist eine Glättung, und was ich jetzt sage, ändert sich kein bisschen, je nachdem, welche Glättung man verwendet.

Jetzt werde ich die große Wahrheit der Zeitreihenanalyse verkünden. Solange die Daten nicht mit Fehlern gemessen werden, glätte man nie, niemals, aus keinem Grund, unter keiner Drohung, die Reihe! Und wenn man sie aus irgendeinem bizarren Grund doch glättet, verwende man die geglättete Reihe AUF KEINEN FALL als Input für andere Analysen! Wenn die Daten mit Fehlern gemessen werden, kann man versuchen, sie zu modellieren (was bedeutet, sie zu glätten), um den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine externe (das gelehrte Wort ist „exogene“) Schätzung dieses Fehlers haben, d.h. eine, die nicht auf den aktuellen Daten basiert.

[Alle Hervorhebungen im Original]

Wenn man in einem Moment des Wahnsinns Zeitreihendaten glättet und sie als Eingabe für andere Analysen verwendet, erhöht man dramatisch die Wahrscheinlichkeit, sich selbst zu täuschen! Das liegt daran, dass die Glättung Störsignale hervorruft – Signale, die für andere Analysemethoden echt aussehen. Egal wie, man wird sich seiner Endergebnisse zu sicher sein! Mann et al. haben ihre Reihen erst dramatisch geglättet und dann separat analysiert. Unabhängig davon, ob ihre These stimmt – ob es wirklich einen dramatischen Temperaturanstieg in letzter Zeit gibt – sind sie sich ihrer Schlussfolgerung nun garantiert zu sicher.

Und jetzt zu einigen Details:

● Ein Wahrscheinlichkeitsmodell sollte nur für eine Sache verwendet werden: um die Unsicherheit von noch nicht gesehenen Daten zu quantifizieren. Ich gehe immer wieder darauf ein, weil diese einfache Tatsache aus unerfindlichen Gründen offenbar schwer zu merken ist.

● Die logische Folge dieser Wahrheit ist, dass die Daten in einer Zeitreihenanalyse die Daten sind. Diese Tautologie ist dazu da, um zum Nachdenken anzuregen. Die Daten sind die Daten! Die Daten sind nicht irgendein Modell derselben. Die realen, tatsächlichen Daten sind die realen, tatsächlichen Daten. Es gibt keinen geheimen, versteckten „zugrundeliegenden Prozess“, den man mit irgendeiner statistischen Methode herauskitzeln kann und der die „echten Daten“ zeigen wird. Wir kennen die Daten bereits und sie sind da. Wir glätten sie nicht, um uns zu sagen, was es „wirklich ist“, weil wir bereits wissen, was es „wirklich ist“.

● Es gibt also nur zwei Gründe (abgesehen von Messfehlern), jemals Zeitreihendaten zu modellieren:

1. Um die Zeitreihe mit externen Faktoren in Verbindung zu bringen. Dies ist das Standard-Paradigma für 99 % aller statistischen Analysen. Man nehme mehrere Variablen und versuche, die Korrelation usw. zu quantifizieren, aber nur mit dem Gedanken, den nächsten Schritt zu tun.

2. Um zukünftige Daten vorherzusagen. Wir brauchen die Daten, die wir bereits haben, nicht vorherzusagen. Wir können nur vorhersagen, was wir nicht wissen, nämlich zukünftige Daten. So brauchen wir die Baumring-Proxydaten nicht vorherzusagen, weil wir sie bereits kennen.

Die Baumringdaten sind nicht die Temperatur! Deshalb werden sie Proxy-Daten genannt. Ist es ein perfekter Proxy? War die letzte Frage eine rhetorische Frage? War das auch eine? Weil es ein Proxy ist, muss die Unsicherheit seiner Fähigkeit, die Temperatur vorherzusagen, in den Endergebnissen berücksichtigt werden. Hat Mann das getan? Und was genau ist eine rhetorische Frage?

Es gibt Hunderte von Zeitreihen-Analysemethoden, die meisten mit dem Ziel, die Unsicherheit des Prozesses zu verstehen, damit zukünftige Daten vorhergesagt werden können und die Unsicherheit dieser Vorhersagen quantifiziert werden kann (dies ist aus gutem Grund ein riesiges Studiengebiet, z. B. auf den Finanzmärkten). Dies ist eine legitime Verwendung von Glättung und Modellierung.

Wir sollten sicherlich die Beziehung zwischen dem Proxy und der Temperatur modellieren und dabei die sich im Laufe der Zeit verändernde Natur des Proxys berücksichtigen, die unterschiedlichen physikalischen Prozesse, die dazu führen, dass sich der Proxy unabhängig von der Temperatur verändert, oder wie die Temperatur diese Prozesse verstärkt oder auslöscht, und so weiter und so fort. Aber wir sollten nicht damit aufhören, wie es alle getan haben, etwas über die Parameter der Wahrscheinlichkeitsmodelle zu sagen, die zur Quantifizierung dieser Beziehungen verwendet werden. Dadurch wird man sich der Endergebnisse wieder einmal viel zu sicher. Uns interessiert nicht, wie der Proxy die mittlere Temperatur vorhersagt, uns interessiert, wie der Proxy die Temperatur vorhersagt.

Wir brauchen keinen statistischen Test, um zu sagen, ob eine bestimmte Zeitreihe seit einem bestimmten Zeitpunkt gestiegen ist. Warum? Wenn man es nicht weiß, gehe man zurück und lese diese Punkte von Anfang an. Es liegt daran, dass wir uns nur die Daten ansehen müssen: wenn sie einen Anstieg zeigen, dürfen wir sagen: „Sie [die Zeitreihe] hat zugenommen.“ Wenn sie nicht gestiegen sind oder gar abgenommen haben, dann dürfen wir nicht sagen: „sie hat zugenommen.“ So einfach ist es wirklich.

Man kann mir jetzt sagen: „OK, Herr Neunmalklug. Was wäre, wenn wir mehrere verschiedene Zeitreihen von verschiedenen Orten hätten? Wie können wir feststellen, ob es einen generellen Anstieg bei allen gibt? Wir brauchen sicherlich Statistiken und p-Werte und Monte-Carlo-Berechnungen, um uns zu sagen, dass sie zugenommen haben oder dass die ‚Nullhypothese‘ von keiner Zunahme wahr ist.“ Erstens hat mich niemand schon lange „Herr Neunmalklug“ genannt, also sollten Sie sich Ihre Sprache besser überlegen. Zweitens: Haben Sie nicht aufgepasst? Wenn Sie sagen wollen, dass 52 von 413 Zeitreihen seit einem bestimmten Zeitpunkt gestiegen sind, dann schauen Sie sich die Zeitreihen an und zählen Sie! Wenn 52 von 413 Zeitreihen gestiegen sind, dann können Sie sagen „52 von 413 Zeitreihen sind gestiegen.“ Wenn mehr oder weniger als 52 von 413 Zeitreihen gestiegen sind, dann können Sie nicht sagen, dass „52 von 413 Zeitreihen gestiegen sind.“ Sie können es zwar sagen, aber Sie würden lügen. Es gibt absolut keinen Grund, über Nullhypothesen usw. zu schwätzen.

Wenn Ihnen die Punkte – es ist wirklich nur ein Punkt – die ich anspreche, langweilig erscheinen, dann habe ich es geschafft. Die einzige faire Art, über vergangene, bekannte Daten in der Statistik zu sprechen, ist, sie einfach zu betrachten. Es ist wahr, dass das Betrachten von massiven Datensätzen schwierig ist und immer noch eine Art Kunst darstellt. Aber Schauen ist Schauen und es ist völlig gleichberechtigt. Wenn Sie sagen wollen, wie Ihre Daten mit anderen Daten in Beziehung standen, dann müssen Sie wiederum nur schauen.

Der einzige Grund, ein statistisches Modell zu erstellen, ist die Vorhersage von Daten, die man nicht gesehen hat. Im Fall der Proxy-/Temperaturdaten haben wir die Proxies, aber wir haben nicht die Temperatur, so dass wir sicherlich ein Wahrscheinlichkeitsmodell verwenden können, um unsere Unsicherheit in Bezug auf die nicht gesehenen Temperaturen zu quantifizieren. Aber wir können diese Modelle nur erstellen, wenn wir gleichzeitige Messungen der Proxies und der Temperatur haben. Nachdem diese Modelle erstellt sind, gehen wir wieder zu dem Punkt zurück, an dem wir die Temperatur nicht haben, und können sie vorhersagen (wobei wir daran denken müssen, dass wir nicht ihren Mittelwert, sondern die tatsächlichen Werte vorhersagen müssen; außerdem müssen wir berücksichtigen, wie die Beziehung zwischen Temperatur und Proxy in der Vergangenheit anders gewesen sein könnte, und wie die anderen vorhandenen Bedingungen diese Beziehung verändert haben könnten, und so weiter und so fort).

Was man nicht tun kann oder sollte ist, zuerst die Proxydaten zu modellieren/glätten, um fiktive Daten zu erzeugen und dann zu versuchen, die fiktiven Daten und die Temperatur zu modellieren. Dieser Trick wird einen immer – einfach immer – zu sicher machen und in die Irre führen. Man beachte, wie die gelesenen fiktiven Daten viel strukturierter aussehen als die realen Daten und es wird verständlich.

Der nächste Schritt ist, mit den Proxydaten selbst zu spielen und zu sehen, was zu sehen ist. Sobald mir der Wunsch erfüllt wird, jeden Tag mit 48 Stunden zu füllen, werde ich das tun können.

Link: https://wmbriggs.com/post/195/

Übersetzt von Chris Frey EIKE

 




Ist die „amtlich verordnete Panik“ übertrieben? Eine mathematische Analyse

Bild von OpenClipart-Vectors auf Pixabay

Die Sterbefallzahlen von 2006 bis 2019 zeigt die folgende Tabelle:

Die steigende Tendenz ist nicht zu übersehen und wird noch deutlicher, wenn man die Daten in ein übliches Streudiagramm einträgt.

Zusammen mit den Punkten, die den jeweiligen Datenpaaren aus der Tabelle entsprechen, wurde die Regressionsgerade eingezeichnet, gewonnen mit der üblichen Methode der linearen Regression. Die deutliche lineare Tendenz sieht man schon mit bloßem Auge, doch man muss sich zum Glück nicht auf das bloße Auge verlassen. Um den Grad der Übereinstimmung der gegebenen Daten mit dem linearen Verlauf in Zahlen zu fassen, kann man den Korrelationskoeffizienten r berechnen. Dafür gibt es eine nicht allzu unangenehme Formel, die man auch bei Bedarf komplett umgehen kann, indem man einfach die entsprechende Excel-Funktion verwendet. Heraus kommt in beiden Fällen das Gleiche, nämlich r=0,957. Um das klarzustellen: Bei einem steigenden Verlauf kann r nicht größer als 1 sein, und der Wert 1 bedeutet, dass die Punkte alle auf einer Geraden liegen, während der Wert 0 anzeigt, dass die Daten keinerlei lineare Tendenz aufweisen. Der Wert r=0,957 liegt nun sehr nahe bei 1, woraus folgt, dass es eine annähernd lineare – und zwar ansteigende – Tendenz bei der Anzahl der Sterbefälle in Deutschland gibt. Woran immer das liegen mag: Bisher hat es noch niemanden nennenswert gestört, schon gar nicht hat man darin einen Grund für einen Lockdown gesehen.

Nun muss man natürlich nicht bei der Grafik stehenbleiben, man kann auch die Gleichung der Regressionsgeraden ausrechnen und erhält ohne großen Aufwand die Formel fälle=9949,468 * jahr – 19140919,47. Dabei handelt es sich nicht um die gezählten Fälle, sondern um die Anzahl der Sterbefälle, die nach dem linearen Trend jeweils zu erwarten wären. Um den erwarteten Trendwert zu berechnen, muss man also nur die gewünschte Jahreszahl mit dem Faktor 9949,468 multiplizieren und dann die Zahl 19140919,47 abziehen. Für das Jahr 2013 ergibt das beispielsweise eine vermutete Zahl von 9949,468 * 2013 – 19140919,47 = 887359,61, also von 887360 Sterbefällen, die von der korrekten Zahl 893825 um 6465 nach unten abweicht. Für jedes Jahr kann man nun die Abweichung ausrechnen und dann den Durchschnitt der Absolutbeträge bilden mit dem Resultat einer durchschnittlichen Abweichung von 9467 Fällen. Alternativ kann man auch die jeweilige prozentuale Abweichung ausrechnen und damit feststellen, wie weit das echte Ergebnis vom Trendwert abweicht, indem man die absolute Abweichung durch den Trendwert teilt. Das ergibt dann eine durchschnittliche prozentuale Abweichung von 1,06%.

Interessant ist nun, was sich für das Jahr 2020 ergeben müsste, wenn man den Trend, der sich nun seit 14 Jahren sehr stabil gezeigt hat, einfach fortrechnet. Das ist leicht, man muss nur das Jahr 2020 in die obige Formel einsetzen und erhält den Prognosewert 957006. Genau so viele Sterbefälle wären also 2020 zu erwarten, wenn sich der gut bestätigte Trend ohne weiteren äußeren Einfluss fortsetzt und die Entwicklung sich genau an das lineare Szenario hält. Das ist selbstverständlich nicht anzunehmen, aber für eine realistischere Einschätzung liegen ja die durchschnittlichen Abweichungen vom Trend vor. Verwendet man die absoluten Abweichungen, so ergibt sich der Bereich zwischen 957006 – 9467 = 947539 und 957006 + 9467 = 966473. Wirft man nun noch einmal einen genaueren Blick auf die Grafik, so stellt man fest, dass auf ein eher mildes Jahr tendenziell ein härteres Jahr folgen dürfte, was auch dem allgemeinen Prinzip der Regression zum Mittelwert entspricht. Somit wäre ein Ergebnis zwischen 957006 und 966473 Sterbefällen für das Jahr 2020 völlig normal und mit den Daten der Jahre 2006 bis 2019 problemlos vereinbar. Legt man die prozentuale Abweichung von 1,06% zugrunde, so ergibt sich für das Jahr 2020 sogar eine im üblichen Durchschnitt liegende Abweichung von 10144, womit man den oberen Wert 957006+10144=967150 erreicht.

Wie man auch rechnet, es ergibt sich, dass im Jahre 2020 eine zwischen 957000 und 967000 liegende Zahl von Sterbefällen in Deutschland völlig im Rahmen der Sterbedaten der Jahre 2006 bis 2019 liegen würde. Betrachtet man nun die bisher ermittelte Anzahl der Sterbefälle, die man beim Statistischen Bundesamt heute, am 27.12.2020, 12 Uhr, bis zum 22.11.2020 tagesgenau aufgelistet findet, so ergibt sich eine Zahl von knapp 850000 bisherigen Sterbefällen, genauer gesagt sind es 849982. Vom 23.11. bis zum 31.12.2020 verbleiben 39 Tage, und nach der oben ausgeführten Rechnung sollte man im Normalfall mit weiteren 107000 bis 117000 Sterbefällen innerhalb dieser 39 Tage rechnen, umgerechnet sind das 2744 bis 3000 Todesfälle pro Tag. Bis zum 22.11.2020 lag die Zahl der durchschnittlichen Sterbefälle pro Tag bei ziemlich genau 2600. Am Ende des Jahres wird man sehen, was die letzten 39 Tage noch beigetragen haben. In jedem Fall ergibt sich unter Beibehaltung des Trends die Prognose von 957000 bis 967000 Sterbefällen für das Jahr 2020, mit deren Eintreten man im Normalfall rechnen müsste.

Sollte nun die Gesamtzahl der Sterbefälle den Wert 967000 nicht übersteigen, könnte man auf die Idee kommen, dass die amtlich verordnete Panik doch etwas übertrieben war. In diesem Fall gibt es also im Laufe des Jahres nicht mehr Sterbefälle, als man nach den Entwicklungen der letzten 14 Jahre erwarten sollte, sie haben sich unter Umständen nur auf andere Todesursachen verteilt. Das gerne vorgebrachte Argument des Präventionsparadoxons, nach dem nur die harten Maßnahmen zu einer auch unter normalen Umständen erwartbaren Sterberate geführt habe, kann dann nicht angewendet werden, denn trotz aller Maßnahmen wird noch immer Tag für Tag eine hohe Zahl mutmaßlich neu Infizierter gemeldet, die aber im Falle der vermuteten Sterberate keinen nennenswerten Einfluss auf die Gesamtzahl der Toten gehabt haben können – die Rate liegt dann ja im Rahmen des auch ohne Infektionsfälle Erwartbaren.

Und natürlich gilt auch hier: eventuelle Übertragungs-, Rechen-, Denk- oder Interpretationsfehler sind durchaus nicht ausgeschlossen und ausschließlich mir anzulasten.

Gastbeiträge geben immer die Meinung des Autors wieder, nicht meine. Ich schätze meine Leser als erwachsene Menschen und will ihnen unterschiedliche Blickwinkel bieten, damit sie sich selbst eine Meinung bilden können.

 

Über den Autor

Thomas Rießinger ist promovierter Mathematiker und war Professor für Mathematik und Informatik an der Fachhochschule Frankfurt am Main. Neben einigen Fachbüchern über Mathematik hat er auch Aufsätze zur Philosophie und Geschichte sowie ein Buch zur Unterhaltungsmathematik publiziert.

Der Beitrag erschien zuerst bei Reizschuster.de hier

 




Und keiner lacht! – Erfolgreiche Falschnachrichten gegen die Kernkraft

Weltweit sind derzeit 446 Kernkraftwerke in Betrieb und rund 50 neue in 15 Ländern im Bau. Etwa 100 Kernreaktoren mit einer Gesamtleistung von 120.000 Megawatt elektrisch sind bestellt oder in der Planungsphase und mehr als 300 in 30 Ländern in der Vorprojektphase. In diesem Jahr sind je zwei in China (Shidaowan, Fuquig 5), eines in Belarus (Ostrovetz 1), eines in Indien (Kakrapar 3), eines in Korea (Shin Hanul 1), eines in Russland (Leningrad II-2), eines in der Slowakei (Mochowce 3) und in den Vereinigten Arabischen Emiraten (Bakhara 1) erstmals ans Netz gegangen. Im nächsten Jahr werden voraussichtlich 13 neue Reaktoren in Betrieb gehen. Denn dass die Kernkraft als eine umweltfreundliche und preiswerte Quelle für Energie auch in Zukunft für die Menschheit unverzichtbar ist, gehört zum Grundkonsens der außerdeutschen Energiepolitik weltweit.

In Deutschland dagegen werden demnächst die letzten sechs noch aktiven und bestens funktionierenden Kernkraftwerke im Wert von etwa 20 Milliarden Euro für immer abgestellt. Diese ökologische und ökonomische Wahnsinnstat ist das Ergebnis von 40 Jahren Betrug und Desinformation. Dass man heute bei dem Wort Kernkraft in Deutschland vor allem an den Gott-sei-bei-uns denkt, gründet nicht auf einer rationalen Abwägung von Nutzen und Gefahr, sondern auf einer beispiellosen, vor allem an das Bauchgefühl appellierenden und auf die breite Unkenntnis elementarer physikalischer Zusammenhänge vertrauenden Propagandaschlacht, mit den öffentlich-rechtlichen Medien ARD und ZDF in vorderster Front. Vielleicht erinnert sich der eine oder andere Leser noch an die 16.000 Fukushima-Toten in der Tagesschau (wurde dann unsere damalige Unstatistik des Monats. Bekanntlich ist in Fukushima noch kein einziger Mensch durch Kernkraft zu Tode gekommen (und auch durch andere nicht-natürliche Ursachen nur zwei; der tödliche Tsunami wütete vor allem in der Nachbarschaft).

Künftige Historiker werden die deutsche Mediengeschichte der letzten 40 Jahre zur Anschauung benutzen, wie eine entschlossene Ideologenclique mit den richtigen Hebeln und Stellschrauben ein ganzes Land zu Deppen machen konnte. Denn bis Ende der 1970er waren die Proteste gegen die friedliche Nutzung der Kernenergie eher ein Anliegen für die üblichen Verdächtigen, die gleiche Klientel, die sich auch im Hambacher Forst an Bäume ankettet oder neue Autobahnen blockiert. Noch im November 1977 etwa gestand die SPD auf ihrem Hamburger Bundesparteitag der friedlichen Kernkraftnutzung eine Zukunft zu. Noch im März 1980 schrieb SPD-Kanzler Schmidt an CDU-Ministerpräsident Stoltenberg betreffend eines Kraftwerkbaus in dessen Beritt: Es „kann kein Zweifel bestehen, daß auch der Bau des Kernkraftwerks Brokdorf mit der energiepolitischen Zielsetzung des Energieprogramms der Bundesregierung in Einklang steht“. Und in Kanada, wo ich damals Gastprofessor war, spekulierte eine lokale Tageszeitung sogar über Kleinreaktoren als Ersatz für die private Kellerheizung: „Home nuclear power unit may not be a fantasy much longer,“ (The London Free Press, 10. März 1981).

Datenfälschung und Betrug

Das Umschwenken immer größerer Teile besonders der deutschen öffentlichen Meinung war dann im Wesentlichen eine Folge von Datenfälschungen und Betrügereien betreffend die Gefahren dieser Technologie. Den größten Einfluss hatte hier wohl das Trommelfeuer von Falschnachrichten betreffend Leukämie bei Kernkraftwerken. Allein schon das Versiegen dieser Alarmfluten nach dem Beschluss zum endgültigen Ausstieg 2011 sollte doch zu denken geben. In den Jahren vor dem Ausstiegsbeschluss habe ich in der Fachliteratur fast jeden Monat einen sich als Wissenschaft ausgebenden und vor Atomkraft warnenden, in den Medien genüsslich wiedergekäuten Artikel dazu gezählt, in den Jahren danach fast keine mehr. Auftrag erfüllt, auf geht’s zum nächsten Ziel: Dieselmotoren, Glyphosat, oder was gerade anliegt. In unseren Unstatistiken des Monats listen wir zahlreiche Beispiele auf, wie getrickst und gefälscht wird. Und auch in den populären Medien sank das Interesse spürbar ab, von 1.073 Artikeln zu den Stichwörtern „Leukämie“ und „Kernkraftwerk“ in den Jahren 2005 bis 2009 auf nur noch 148 Artikel in den Jahren 2015 bis 2019. Aber die Kraftwerke sind doch zum guten Teil noch immer in Betrieb, und sollten Sie tatsächlich Leukämie erzeugen, dann ist die Gefahr heute die gleiche wie vor 20 Jahren.

In Wahrheit war natürlich die Gefahr nie da. Die Tricks zur deren statistischer Erzeugung exemplifiziert sehr schön eine Studie des Bremer Sozialmediziners Greiser, als Basis einer Pressemitteilung der Grünen „AKW erhöhen das Leukämierisiko“ vom Herbst 2009. Für 69 Kernkraftwerke in sechs Ländern wurden dazu über mehrere Jahre insgesamt 2.127 Fälle von Leukämie bei Kindern im Alter unter fünf gefunden. Wäre im Umkreis von Kernkraftwerken die Häufigkeit die gleiche wie im Rest der jeweiligen Länder, hätten es aber nur 1.968 sein dürfen. Dieser Unterschied sei „statistisch signifikant.“

Allein schon dieses Wort entlarvt den Scharlatan. Es klingt nach Wissenschaft und Sicherheit, und da Journalisten ohnehin von Statistik nichts verstehen, fragt auch keiner nach. Denn in Wahrheit sagt „statistisch signifikant“ überhaupt nichts aus. Es ist Fachjargon für die Aussage: „Wäre nur der Zufall am Werk, dann wäre dieses Ergebnis extrem unwahrscheinlich“ (mit dem Umkehrschluss: wenn nicht Zufall, dann System).

Was Datenbetrüger bei solchen Aussagen grundsätzlich verschweigen, ist eine ehrliche Auskunft darüber, wie wahrscheinlich denn ein solches Ergebnis wirklich bei reinem Zufall ist. Denn diese Wahrscheinlichkeit ist ausnahmslos und immer viel viel höher, als von den Betrügern angezeigt. Wo zum Beispiel blieben die restlichen mehr als 200 Kernkraftwerke, die es seinerzeit auf der Erde gab? In Deutschland etwa gibt es zahlreiche Kernkraftwerke mit keinem einzigen Fall von Kinderleukämie. Was geschah in den Jahren, die in dieser Studie nicht berücksichtigt worden sind? Wie wurden die anderen die Leukämiehäufigkeit beeinflussenden Faktoren herausgerechnet. Seit langem bekannt ist etwa, dass die Wahrscheinlichkeit für Leukämie bei Kindern deutlich mit dem Einkommen der Eltern steigt. Als Ursache wird vermutet, dass Kinder, die in wohlhabenden Elternhäusern behütet aufwachsen, weniger Antikörper entwickeln. Auch die Hautfarbe und die soziale Mobilität spielen eine Rolle. In den USA etwa stellt man bei farbigen eine fast doppelt so hohe Leukämierate wie bei weißen Kindern fest. Am höchsten ist die Leukämierate bei Latinos. Und auch mit wachsender Mobilität der Bevölkerung steigt die Wahrscheinlichkeit einer Leukämieerkrankung drastisch an, bei Erwachsenen wie bei Kindern gleichermaßen.

Mehr Leukämiefälle in der Nähe katholischer Kirchen?

Die mit Abstand höchste Leukämierate bei allen in der Grünen-Studie untersuchten Standorten – ein Mehr von 104 gemeldeten Fällen – findet sich um das Kraftwerk San Onofre in San Diego County in Kalifornien. Kinofreunde kennen seine zwei schön gewölbten Kühltürme aus dem Spielfilm „Die nackte Kanone 2“. Dort leben nur sehr wenige Farbige und viele Latinos. Außerdem ist San Diego die viertreichste Stadt der USA und der größte Marinestützpunkt der ganzen Welt, es ziehen ständig Familien fort und zu. Damit sind sämtliche als leukämiefördernd nachgewiesenen Faktoren in San Diego County weitaus höher als andernorts.

Lässt man aber dieses eine Kraftwerk aus der Grünen-Studie weg und fügt zwei andere – sei es als manipulative Absicht oder Schlamperei –, übersehene neuere Erhebungen hinzu, wird aus dem anfänglichen Überschuss an Leukämie ein Defizit: In der Umgebung von Kernkraftwerken erkranken jetzt nicht mehr Kinder an Leukämie als anderswo, sondern weniger. Wann gibt es die erste Meldung in der Tagesschau: Kernkraftwerke schützen vor Leukämie?

Natürlich wird man auf eine solche Meldung ewig warten. Weil der Großteil der sogenannten Journalisten in unseren öffentlich-rechtlichen Medien keine Journalisten, sondern Prediger sind: Aus dem Riesenmeer von täglichen Nachrichten wird das herausgepickt und weiterverbreitet, was in das eigene Weltbild passt, der Rest wird ignoriert (oder, um dem Verdacht vorzubeugen, man verletze die journalistische Sorgfaltspflicht, nur am Rande erwähnt und heruntergespielt – die Domplatte lässt grüßen).

Das in der Grünen-Studie vorgeführte Muster ist immer das gleiche: Man sucht, bis man findet. Und man findet immer etwas. In den USA zum Beispiel gibt es „signifikant“ viele Leukämiefälle in der Nähe von katholischen Kirchen. Einfach deshalb, weil sich alle Krankheiten nicht gleichmäßig über das Land verteilen, sondern regionale Cluster haben. Und zwar zufällig und nicht geplant.

Die verlorenen Mädchen von Gorleben

Ein weiteres beliebtes Vehikel der Kernkraft-Panikmacher ist das Jungen-Mädchen-Verhältnis bei Geburt. Angeblich bremst die Kernkraft das Wachstum weiblicher Embryonen ab. Vor allem eine Gruppe um den Münchener Epidemiologen Hagen Scherb tut sich hier hervor. In der Nähe des Atomzwischenlagers Gorleben etwa sei das Jungen-Mädchen-Verhältnis mit 109 zu 100 deutlich gestört. Aber auch diese Behauptung hält einer kritischen Überprüfung nicht stand. Auf 100 geborene Mädchen kommen weltweit zwischen 102 und 109 Jungengeburten (von gewissen ostasiatischen Ländern abgesehen, wo Mädchen systematisch abgetrieben werden und der Jungenanteil nochmals höher ist). In den meisten Ländern schwankt diese Zahl zwischen 104 und 106. Für diese minimalen Veränderungen gibt es Dutzende bekannter Faktoren. So steigt etwa der Jungenanteil leicht mit dem Einkommen der Eltern und dem Körpergewicht der Mutter. Dagegen nimmt die Wahrscheinlichkeit einer Jungengeburt mit dem Alter der Mutter, der Zahl der Geschwister oder einer Umweltbelastung durch Pestizide ab.

Daneben gibt es zahlreiche weitere Theorien, die mit den geringfügigen Schwankungen der Jungenquote gut vereinbar sind. In den Ländern Europas etwa korreliert der Jungenanteil positiv mit der Nähe zum Mittelmeer. In den meisten Fällen dürfte aber eine Variation der Jungenquote ein Produkt des Zufalls sein. Allen systematischen Erklärungsversuchen ist aber gemeinsam, dass sie sich durch die vorliegenden Daten nie beweisen lassen. Bestenfalls lässt sich die Möglichkeit, dass all die genannten Faktoren einen Einfluss auf das Jungen-Mädchen-Verhältnis haben, nicht widerlegen. Die Theorie der Strahlenbelastung als Ursache erscheint aber besonders unplausibel, da die Strahlenbelastung aus natürlichen oder medizinischen Quellen diejenige aus Atomanlagen bei weitem übersteigt.

In einer anderen Studie („The human sex odds at birth, after atmospheric atomic bomb tests, after Chernobyl, an in the vicinity of nuclear facilities“, Environmental Science and Pollution Control 2012) spekuliert Scherb über Atombombentest und das Tschernobyl Desaster als Ursachen für einen Rückgang der Mädchengeburten. Natürlich ist das Jungen-Mädchen-Verhältnis weder über Länder noch über die Zeit hinweg konstant. Indem man bei Zeitreihen geeignete Abschnitte auswählt, erzeugt man jeden Trend, den man gerne hätte. Und alles natürlich hochsignifikant. Dass solche Schrottstudien ihren Weg in wissenschaftliche Journale finden, ist schlimm genug. Zu einem echten Desaster werden solche Schein-Erkenntnisse aber erst durch die ständige Bereitschaft vor allem deutscher Medien, diese Lügen als Wahrheit zu verkaufen. Ich erinnere mich noch gut an einen Fernsehauftritt anlässlich eines Castortransports einer ansonsten vor allem als Genitalexpertin und Verfasserin der „Feuchtgebiete“ bekannten Mediengröße. Ein solcher Castor kann von einer Brücke fallen, vom Blitz getroffen oder von einer Kanone beschossen werden – nicht die geringste Radioaktivität entweicht. Und dann macht sich Frau Roche doch große Sorgen, wie viele Polizisten, die den Castor begleiten, wegen der Bestrahlung wohl an Leukämie versterben werden.

Und keiner lacht.

Der Beitrag erschien zuerst bei ACHGUT hier




Covid und Hurrikan: Anlass zum Nachdenken

Nehmen wir beispielsweise Hurrikane. Heutzutage werden mehr tropische Stürme klassifiziert als vor 70 Jahren. Nichtsdestotrotz war der Zeitraum vor 70 Jahren Schauplatz der drei Hurrikan-stärksten Jahrzehnte an der US-Küste. Heute werden mehr Stürme mitten im Nirgendwo [über dem Ozean] mit einer Bezeichnung versehen, weil wir sie jetzt einfach besser erkennen. Es ist so, wenn man mehr sieht, schenkt man dem auch mehr Aufmerksamkeit. Aber steigt auch die Anzahl schwerer, auf das Festland übergreifender Hurrikane? Nein! Bei COVID: FALLS MAN MEHR TESTET, DANN ZEIGEN SICH MEHR POSITIVA, FALLS ES SIE GIBT – was der Fall ist. Betrachtet man jedoch auf das Festland übertretende starke Hurrikane, dann waren es im Zeitraum 1931 bis 1960 fast 30. Aber seit dem Jahr 1991 (also in dem Zeitraum, in welchem es angeblich immer schlimmer werden soll) waren es 16 Übertritte. Nimmt man jetzt 1 oder 2 starke Hurrikane, dann sind es immer noch viel weniger als während der schlimmsten 30-Jahre-Periode.

Wenn man behauptet, dass heute alles viel schlimmer ist, dann leugnet man das Gestern.

Im Falle COVID – falls man nicht die entscheidende Graphik der Prozentzahl positiv Getesteter hat, dann denkt man natürlich, dass sich die Lage nicht verbessert. Sie verbessert sich, aber langsamer als die Infektionen abnehmen, jedoch sehen wir nicht alle Daten. Die Prozentzahl positiv Getesteter ist entscheidend.

Zurück zu den Wirbelstürmen. In den 1950er Jahren lag die durchschnittliche ACE/Sturm* bei über 10. Trotz der Katrinas, Ritas etc. konnten die letzten 30 Jahre im ACE-Index pro Dekade nicht mit den 1950er Jahren konkurrieren. Warum? Weil so viele Stürme, die es in den 1930er-1950er Jahren vielleicht nicht gegeben hat, jetzt mit mehr schwächeren Mitgliedern mitten im Nirgendwo erkennbar sind, trägt dies zur Gesamtzahl bei und senkt den ACE/Storm-Durchschnitt.

[*ACE/storm = Accumulated Cyclone Energy pro Sturm. Anm. d. Übers.]

Also noch einmal die Parallele zu COVID: wenn man mehr testet, muss man mehr sehen. Wenn man in Satellitenbildern jeden Cumuluswirbel betrachtet, sieht man mehr. Hätten wir also damals die Art der Abdeckung wie heute gehabt, könnten einige dieser Stürme über dem Wasser stärker gewesen sein. Was ist der Grund dafür? Man betrachte die Art und Weise, wie mehr Stürme im Zeitraum 1931 bis 1950 in der Nähe ihres Intensitätsmaximums auftraten im Vergleich zu Stürmen heute, die mit Ausnahme von Harvey und Michael in diesem Jahrzehnt AUSSERHALB IHRER SPITZE zuschlugen. Katrina und Rita waren bei ihrem Übertritt stark, befanden sich aber nicht dem Höhepunkt ihrer Entwicklung. Unter dem Strich, d.h. bei den Auswirkungen, sehen wir also die Hysterie um doom and gloom tropischer Wirbelstürmen ohne das Gesamtbild, man kann sich einbilden, dass es schlimmer denn je ist. Genauso ist es bei Tornados: starke bis sehr starke Tornados nehmen ab.

COVID-Hochrisikogebiete sind anfälliger für Ausbrüche, genau wie es Gebiete gibt, in denen es wahrscheinlicher zu Hurrikanen und Tornados kommt. Aber bedeutet das, dass Menschen, die nicht in diesen Gebieten leben, die gleichen Vorsorgemaßnahmen treffen müssen? Wir müssen diese regionalen COVID-Ausbrüche stoppen, aber wir wussten, dass wir es mit einem solchen Risiko zu tun hatten. Genauso ist es, wenn ein starker Hurrikan die Stadt Miami trifft, bedeutet das nicht, dass die Bewohner der Stadt Des Moines in Iowa sich genauso darauf vorbereiten sollten. Ein starker Tornado in den Großen Ebenen bedeutet nicht, dass es in anderen Gebieten zu genauso schweren Tornados kommt.

Der gemeinsame Nenner besteht für mich darin, hinter die Kulissen zu blicken und zu graben, um einigen Fehltritten entgegenzuwirken, mit denen ein Thema politisch zur Waffe gemacht werden soll. Als jemand, der sich an der Klimadebatte beteiligt hat, konnte ich nicht umhin, diese Ideen einmal vorzubringen.

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore.

Link: https://www.cfact.org/2020/06/17/covid-and-hurricane-points-to-ponder/

Übersetzt von Chris Frey EIKE




Spekulationen vom Statistischen Bundesamt

Das Statistische Bundesamt konstruiert auch in der aktuellen Pressemitteilungzur neuesten Sonderauswertung vom 08.05.2020 für den Zeitraum 01. Januar 2016 bis 19. April 2020 einen angeblich naheliegenden Zusammenhang zwischen leicht erhöhten Sterbefallzahlen seit Ende März 2020 und Corona. Es bleibt damit seiner unseriösen, manipulativen Linie treu. Denn ein solcher Zusammenhang liegt nicht zwingendnahe.

Wie schon an dieser Stelledargelegt, lässt sich die leichte Übersterblichkeit auch ohne Corona mit den unterdurchschnittlichen Sterbefallzahlen bis Ende März 2020 und demographischen Erwägungen erklären. Diesen naheliegenden Erklärungsansatz verschweigt das Bundesamt – genauso wie den sehr bedeutsamen Fakt, dass die leichte Übersterblichkeit nur die Altersgruppe ab 80 Jahre betrifft. Man merkt die Absicht und ist verstimmt.

Hier zunächst die vom Statistischen Bundesamt verlautbarten Fallzahlen gemäß Sonderauswertungvom 15.05.2020 zu den Sterbefällen vom 01. Januar 2016 bis 19. April 2020:

Rumpf-Jahr 01.01.-12.04.:

2016: 290.641   (Altersgruppe ab 80 J.: 157.273)

2017: 315.576   (Altersgruppe ab 80 J.: 180.498)

2018: 330.152   (Altersgruppe ab 80 J.: 189.109)

2019: 301.558   (Altersgruppe ab 80 J.: 172.709)

2020: 304.354   (Altersgruppe ab 80 J.: 178.073)

nur Zeitraum 30.03.-19.04. 

2016: 53.987  (Altersgruppe ab 80 J.: 29.031)

2017: 51.050  (Altersgruppe ab 80 J.: 27.884)

2018: 58.095  (Altersgruppe ab 80 J.: 32.843)

2019: 54.579  (Altersgruppe ab 80 J.: 30.986)

2020: 59.024  (Altersgruppe ab 80 J.: 34.991)

Keine Übersterblichkeit bisher im Jahr 2020

Demnach ist im Zeitraum 01.01. bis 19.04.2020 keine erhöhte Sterblichkeit zu erkennen – weder bei der Gesamtbevölkerung noch bei den über 80jährigen. Erst recht nicht, wenn man berücksichtigt, dass das Jahr 2020 einen Tag mehr hatte als die Jahre 2017-2019.

In dem 3-Wochen-Zeitraum vom 30.03. bis 19.04.2020 ist zwar eine über dem Durchschnitt liegende Sterblichkeit zu verzeichnen. Sie betrifft aber nur die Altersgruppe ab 80 Jahre. Die Altersgruppen bis 80 Jahre sind nicht betroffen, nicht einmal die Altersgruppe 75-80 Jahre.

Wenn Menschen aus der Altersgruppe ab 80 Jahre sterben, dann naturgemäß häufig an Krankheiten.  Auch an COVID-19 selbstverständlich. Aber eine – besorgniserregende –Übersterblichkeit ergibt sich daraus nicht. Ohnehin gibt es einige andere Gründe, die die erhöhten Sterbefallzahlen bei über 80jährigen seit Ende März 2020 erklären können.

Erklärungen für leichte Übersterblichkeit bei der Altersgruppe 80plus

Einer der Gründe ist der Nachholeffekt. Vom 01.01. bis 29.03.2020 starben nämlich bei den über 80jährigen erheblich weniger Personen (143.082) als im Durchschnitt desselben Zeitraums der Jahre 2017 bis 2019 (150.201), obgleich das Jahr 2020 sogar einen Tag mehr hat. Das gleicht sich jetzt augenscheinlich an.

Ein anderer Grund ist die starke Zunahme der Anzahl der Personen in der Altersgruppe über 80 Jahre. Mehr sehr alte Menschen bedeuten zwangsläufig mehr Tote in dieser Altersgruppe. Das ist der natürliche Lauf der Dinge. Laut dieser Auswertungdes Statistischen Bundesamts ist die Zahl der über 80-jährigen wie folgt gestiegen:

31.12.2012:  4.348.282

31.12.2015:  4.766.190

31.12.2018:  5.396.249

31.12.2019:  noch nicht veröffentlicht

Da sich die Lebenserwartung kaum noch erhöht, wäre eine signifikante Zunahme der Sterbefälle bei den über 80jährigen gegenüber dem Durchschnittswert der Vorjahre nicht einmal ungewöhnlich, sondern im Gegenteil statistisch sogar erwartbar, und rechtfertigt daher weder gegenwärtig noch zukünftig blinden Aktionismus.

Sogar die Corona-Gegenmaßnahmen selbst könnten eventuell ein Grund für eine Übersterblichkeit sein. Wie dem Corona-Papiereines Referenten des Bundesinnenministeriums aus dem Referat Kritische Infrastrukturen zu entnehmen ist, gibt es Schätzungen über mehrere tausend mögliche zusätzliche Sterbefälle (insbesondere unter Pflegebedürftigen), weil zur Freihaltung von Kapazitäten für COVID-19-Fälle zahlreiche Operationen und Behandlungen verschoben wurden oder unterblieben sind.

Fazit

1. Es ist unseriös und spekulativ, einen Zusammenhang zwischen leicht erhöhten Sterbefallzahlen seit Ende März 2020 und COVID-19 herzustellen, wie es das Statistische Bundesamt tut. Das gibt die Statistik schlicht nicht her.

2. Es versteht sich von selbst, dass auch umgekehrt aus der Sterbefallzahlen-Statistik nicht ableitbar ist, dass Corona ungefährlich sei. Allerdings lässt sich das Regierungs-Narrativ von einem Killervirus, das ohne Rücksicht auf Verluste zu bekämpfen ist, nicht aufrechterhalten.

Auch wenn naturgemäß nicht feststellbar, wie sich die Sterbefallzahlen ohne die Corona-bedingten notstandsähnlichen Maßnahmen entwickelt hätten: Eine außerordentlich hohe Gefährlichkeit des Virus müsste sich trotz aller getroffenen Maßnahmen auch statistisch irgendwie bemerkbar machen (auch bei den Jüngeren). Denn die getroffenen Maßnahmen reduzieren weder die sozialen Kontakte vollständig noch werden sie von allen Bürgern beachtet.

Insofern lassen sich mit den Sterbefallzahlen per 19.04.2020 keine (weiteren) Grundrechtseinschränkungen wegen Corona begründen. Zumal die Beweislast für die Aufrechterhaltung von freiheitseinschränkenden Maßnahmen bei denen liegt, die sie getroffen haben.

3. Die bei isolierter Betrachtung seit Ende März 2020 bestehende leicht überdurchschnittliche Sterblichkeit betrifft nur die Altersgruppe ab 80 Jahre. Hierauf nicht deutlich hinzuweisen, ist ein schweres Versäumnis des Statistischen Bundesamts. Denn daran haben sich die Überlegungen zu orientieren, welche Altersgruppen besonders zu schützen sind und welche Maßnahmen dazu sinnvoll und erforderlich sind.

4. Auch die neuen Zahlen wurden erst mit fast vier Wochen Verzögerung veröffentlicht. Während Unternehmer in vielen Branchen neue Mitarbeiter sofort am Tag der Arbeitsaufnahme melden müssen, lassen sich die Behörden bei Sterbefällen offenkundig ganz viel Zeit. Es ist als multiples Organisationsversagen der Bundesregierungen (mit ihren Bundesinnenministern als obersten Dienstherren des Statistischen Bundesamtes) sowie der Landesregierungen zu bewerten, trotz regelmäßiger Warnungen vor möglichen Pandemien kein solches Meldewesen für Sterbefälle installiert zu haben, das den politischen Entscheidungsträgern eine zeitnahe Datengrundlage bietet.

 

Der Beitrag erschien zuerst bei ACHGUT hier




Wird „Corona“ eine Blaupause für den Klimawandel?

Dabei stellt sich die Frage: Auf welchen Zahlen basieren diese politischen Entscheidungen

In der Tagesschau vom 17.04. wurde mit inhaltsschweren Worten und der Erklärung, dass wenigstens manche Länder, wie zum Beispiel die Schweiz, schon mehr Zahlen zu Corona veröffentlichen, sowie einer drastisch deutlichen Grafik gezeigt, wie stark die Pandemie die Mortalität in die Höhe treibt und sicherlich noch kein Ende davon erreicht ist.

Eine eindringliche Warnung an das Deutsche Volk, die schlimmen, aber unbedingt erforderlichen Maßnahmen ihrer Führerin – und deren Landesfürsten – einzuhalten, da sie aufgrund solcher Grafiken mit Sicherheit erforderlich sind:
[1] Tagesschau vom 17.04.2020:
Das Problem mit der Sterblichkeitsrate
Anomalie in Schweizer Statistik
All dies zeigt, dass es aktuell noch sehr schwierig zu schätzen ist, wie viele Covid-19-Erkrankte sterben. Manche Länder – wie etwa die Schweiz – veröffentlichen jedoch regelmäßig Zahlen aller Todesfälle. Und hier zeigt sich, dass dort seit Mitte März mehr Menschen gestorben sind als in der selben Zeit der Vorjahre.
Auffällig ist der Unterschied vor allem bei den Über-65-Jährigen. In der Woche bis zum 5. April starben in dieser Altersgruppe in der Schweiz mehr als 1650 Menschen. Laut der offiziellen Statistik waren dies etwa 500 mehr, als zu erwarten gewesen sind.

Bild 1 [1] Corona-Sterblichkeit in der Schweiz
Und auch der Deutschlandfunk gab dazu Information an die Bürger. Man gab darin sogar zu, dass man eigentlich nichts weiß, dieses Nichtwissen jedoch von „ Kritikern und Aktivisten missbraucht werde“. Man hat zwar keine belastbaren Zahlen, aber die „Übersterblichkeit steige“.
[3] Deutschlandfunk 01. Mai 2020: Coronavirus Übersterblichkeit – Wie tödlich ist das Coronavirus wirklich?
Wie viele Menschen sterben am Coronavirus? Statistiken zur sogenannten Übersterblichkeit können helfen, diese Frage zu beantworten. Doch auch dabei gibt es Probleme – die zum Teil von Kritikern und Aktivisten missbraucht werden.
Ende April sagte der Präsident des Robert Koch-Instituts Lothar Wieler: „Wir gehen eigentlich davon aus, dass mehr Menschen an dem Virus gestorben sind, als eigentlich gemeldet.“
Belastbare Zahlen gebe es dafür noch nicht, aber man beobachte, dass die Übersterblichkeit steige ...Experten hoffen nun, durch Daten zur Übersterblichkeit ein genaueres Bild der Covid-19-Todesfallzahl zu bekommen …

So, wie es kein Ereignis mehr gibt, an dem der schlimme Klimawandel nicht seine bösen Finger im Spiel hat, geschieht in Deutschland nichts mehr, an dem nicht auch das böse Räääächts partizipiert. Und dieses Rääächts macht es ganz perfide, indem es „Zahlen missbrauchen“und dazu an unserer unfehlbaren Kanzlerin Zweifel hegen.

[3] Deutschlandfunk: Vorsicht Missbrauch
… Trotz all solcher Unsicherheiten und statistischer Probleme greifen manche Kritiker der Corona-Einschränkungen einzelne Zahlen heraus, um sie in ihrem Sinne zu missbrauchen. Die frühere CDU-Bundestagsabgeordnete und DDR-Bürgerrechtlerin Vera Lengsfeld, die heute der AfD nahe steht, rief dazu auf, die Maßnahmen zu Corona sofort aufzuheben. Dazu verlinkte sie eine Petition, in der damit argumentiert wird, Covid19 sie nachweislich weniger gefährlich als die Grippe …

Missbrauchte“ Zahlen

Wer Bild 1 genauer ansieht, liest für die schlimme, rote Linie den Zusatz: „Hochrechnung“.

Nun hat der Autor kürzlich „Rechnungen“ mit Coronazahlen gesichtet und dabei festgestellt, dass man mit den Zahlen vieles kann, nur nicht ihnen – und schon gar nicht den daraus abgeleiteten Berechnungen – auch nur im Ansatz vertrauen:
[2] Eike 21. April 2020: Corona und die Genauigkeit von Statistik
Nun eine kurze Sichtung mit der Fragestellung, ob die Frau Vera Längsfeld nicht doch eher Recht als Unrecht hat.

Zahlen dazu finden sich beim Statistischen Bundesamt. Von deren Homepage kann man sich die Mortalitäten bis zum 05.04.2020 in Tagesauflösung als Excel-Datei laden.

Das nächste Bild zeigt die aus diesem Datensatz erstellte Grafik der täglichen Todeszahlen in auf den 1.1.2020 als Startdatum mit gleichen Startzahlen normierten Jahresverläufen (absolut stimmen also nur die Werte für 2020 (rote Linie) genau) für die Risikogruppe ab 65.

Man vergleiche diese Grafik mit der „Angabe“ in Bild 1:
Nichts, aber auch gar nichts der Aussage aus der Schweiz lässt sich in Deutschlands Daten finden. Nirgendwo die Spur einer Corona-Übersterblichkeit. Allerdings gibt es solche in erheblichem Ausmaß, jedoch vor einigen Jahren, als es niemanden auch nur entfernt interessiert hat.
Man stelle sich vor, die Sterblichkeit des Jahres 2018 müsste aktuell publiziert werden. Der „baldige Tod der gesamten Weltbevölkerung“ würde wohl ausgerufen …

Bild 2 Deutschland, Personen ab 65. Verlauf der absoluten Sterbezahlen vom 01.01. bis 05.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Alle Werte auf den Startwert des Jahres 2020 normiert. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

Das gilt genau so, wenn man die Daten für alle Personen unter 65 Jahre betrachtet. „Mit Corona“ ist die Sterblichkeit über den gesamten Zeitraum sogar am Niedrigsten. Auch bei dieser Gruppe liegt „die Schweiz“ katastrophal daneben.

Bild 3 Deutschland, Personen bis 65. Verlauf der absoluten Sterbezahlen vom 01.01. bis 05.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Alle Werte auf den Startwert des Jahres 2020 normiert. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

 

Um direkt zu sehen, wie stark die Sterbezahlen-Verläufe schon über wenige Jahre schwanken – und wie die letzten vier Jahre gegenüber dem „Coronajahr“ 2020 abweichen, eine Differenzdarstellung, ergänzend zum Bild 2:

Bild 4 Deutschland, Personen ab 65. Verlauf der relativen Differenzen der Sterbezahlen vom 01.01. bis 05.04. gegenüber dem Jahr 2020. Alle Werte auf den Startwert des Jahres 2020 normiert. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

Weshalb „Blaupause für den Klimawandel“?

Betrachte man Bild 1 vereinfacht als „Hockeystick“ und die Bilder 2 und 3 als in der Natur gemessen Wirklichkeit. Dann hat man genau die Diskrepanz zwischen Simulationsaussagen und gemessener Wirklichkeit, wie sie der Autor seit vielen Jahren Recherche beim Klimawandel ebenfalls immer neu erkennt. Und man hat genau den gleichen Irrsinn unglaublicher Geldverschwendung aufgrund vollkommen unbrauchbarer, da völlig falscher Simulationsrechnungen. Sogar die Zuweisung von Kritikern als Räääächts ist identisch ….
Und so darf man sich sehr wohl die Frage stellen, ob die Maßnahmen unserer von ihrer Entourage für unfehlbar erklärten Kanzlerin und ihrer Landesfürsten wirklich so sinnvoll sind, auch wenn die Freitagshüpfer und ihre Einflüsterer es ganz toll finden, dass die Wirtschaft endlich kaputt gemacht wird.

Nun ja, inzwischen fordern es auch immer mehr CEOs in Petitionen an Frau Merkel, dass sie bitte auch ihr Geschäft zur Klimaförderung kaputt machen soll …

Man ist mit den (sehr wenigen) vorhandenen Daten überfordert und will auch erst langsam welche gewinnen

Im Monat x mit „Corona“ sollte man meinen, dass unsere Verantwortlichen, welche mit viel, viel Einsatz und Engagement die Wirtschaft und das öffentliche Leben in die Knie gezwungen haben und das Ausgeben von möglichst viel Geld – wie es v. d. Layen mit der EU – die neben dem Retten der Welt vor dem Klima nun parallel die Welt auch vor Corona rettet – weiter betreibt, Interesse an belastbaren Daten hätten.

Doch scheint dem bei Weitem nicht so zu sein. Es ist sicher auch viel angenehmer, zu erfahren, dass Bill Gates unsere Kanzlerin ob dem Krisen(miss)Management lobt und Trump verdammt, als offengelegt zu bekommen, dass unsere Verantwortlichen im Kern immer noch kein wirkliches Wissen zu ihren Entscheidungen vorlegen können.

So scheint die – eher gegen, und schon gar nicht auf Anordnung der Politik – durchgeführte „Heinsberg-Studie“ bisher der einzige Versuch gewesen zu sein, über eine Einwohnerpopulation wenigstens im Ansatz gemessene Stichprobenzahlen zu erhalten.

Anstelle von Unterstützung erfuhr und erfährt diese Maßnahme allerdings weiterhin eher Gegenwind: [5] „ … ein führender Epidemologe äußert sich zurückhaltend … G. K., Leiter der Abteilung Epidemologie am Helmholzzentrum für Infektionsforschung … warnte in einer Videokonferenz davor, die Zahlen auf ganz Deutschland zu übertragen … man könne zum Beispiel argumentieren … insgesamt bezeichnete Krause die Daten der Studie allerdings als sehr überzeugend …“

Wenn untergeordnete Behörden keine Anweisungen „von Oben“ haben, machen sie lieber nichts, als etwas vorbeugend:
[6] … mancher kommt da ins Grübeln. Dennoch bewilligen die Gesundheitsämter keine Tests – nicht einmal dann, wenn deren Partner nachweislich an Corona erkrankt war … es gibt noch ein Problem der Antikörpertests: Die Meistens sind nicht sehr zuverlässig … das bundeseigene Paul-Ehrlich-Institut weist darauf hin, dass es an verbindlichen Standards und unabhängigen Prüfungen fehlt …
Immerhin „startet“ ein Institut langsam:
[6] … Das Robert-Koch-Institut startet in diesen Tagen selbst eine bundesweite Antikörper-Studie …

Wo man längst wichtige Daten generieren könnte, bleiben solche – sofern sie überhaupt erhoben werden – unter Verschluss:
[4] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Eine Klinik im Ausnahmezustand
Der Kreis Tirschenreuth hat die höchste Corona-Rate in Deutschland. Über 800 Opfer wurden alleine in WEIDEN behandelt … Landkreis Tirschenreuth … nach wie vor das Corona-Epizentrum in Deutschland … Bei über 1,5 % Przent der Bevölkerung des Kreises Tirschenreuth hat das zuständige Gesundheitsamt eine Infektion mit dem Coronavirus registriert … mehr als das Zehnfache der Quote des Kreises Erlangen-Höchstadt …
Wie viele dieser Patienten intensivmedizinisch betreut werden mussten, beziehungsweise müssen ,darüber gibt Kliniksprecher … keine Auskunft. Auch nicht darüber, bei wie vielen Menschen … die Mediziner den Kampf gegen die Folgen des Virus verloren haben …

Dabei wäre eine parallele, fundierte Analyse wie in „Heinsberg“ sicher sehr notwendig gewesen, denn in diesen Landkreisen geschah eigentlich Unfassbares:
[4] Warum hat das Virus gerade diese Region so hart getroffen?
Die Fachleute stehen immer noch vor einem Rätsel: … Mitarbeiter des Robert-Koch-Instituts suchen seit einigen Tagen am Ort des Geschehens nach Antworten … sondern auch die Frage klären, warum die Sterberate in dem oberpfälzischen Landkreis überdurchschnittlich hoch ist … im Bundesdurchschnitt 3,9 % … liegt diese Zahl aktuell bei über 10 % …

Dank an Dr. rer. nat. Hans Penner, der mit einem Infomail mit der Grafik über die Mortalitäten von einem Herrn Seifert die Anregung zu diesem Artikel gab.

 

Nachtrag

Zu Corona erscheinen fast im Stundentakt neue Nachrichten. Nach der Einpflege dieses Artikels erschien einer auf Achgut mit im Kern dem gleichen Thema:
Achgut 05.05.2020: Der größte Crashtest aller Zeiten
Darin steht, dass vor allem Personen ab 80 Jahren betroffen sind.
Deshalb ergänzend die Mortalität aller Personen ab 80 Jahren:

Bild 4 Grafik Kuntz

Bild 4 Deutschland, Personen ab 80. Verlauf der absoluten Sterbezahlen vom 01.01. bis 05.04., Jahre 2016 – 2020. Das „Coronajahr“ 2020 in Rot. Alle Werte auf den Startwert des Jahres 2020 normiert. Grafik vom Autor anhand der Daten des Statistischen Bundesamtes erstellt

 

Dank an Dr. rer. nat. Hans Penner, der mit einem Infomail mit der Grafik über die Mortalitäten von einem Herrn Seifert  die Anregung zu diesem Artikel gab.

Quellen

[1] Tagesschau vom 17.04.2020: Das Problem mit der Sterblichkeitsrate

[2] Eike 21. April 2020: Corona und die Genauigkeit von Statistik

[3] Deutschlandfunk 01. Mai 2020: Coronavirus Übersterblichkeit – Wie tödlich ist das Coronavirus wirklich?

[4] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Eine Klinik im Ausnahmezustand

[5] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Mehr Klarheit bei der Dunkelziffer

[6] Nordbayerische Nachrichten, Lokalausgabe vom 05.05.2020: Wer hat schon Antikörper im Blut




Keine staatstragende Statistik?

 Ein Blick in die offizielle Sterbestatistik zeigt: COVID-19-Sterbefälle machen sich bislang in der Gesamtzahl der Sterbefälle nicht bemerkbar. Eine Übersterblichkeit durch COVID-19 ist bisher nicht feststellbar. Das ergibt sich aus der am 30.04.2020 veröffentlichten Sonderauswertungdes Statistischen Bundesamts zu den Sterbefallzahlen in Deutschland für den Zeitraum vom 01. Januar 2016 bis 05. April 2020. Das Statistische Bundesamt versucht sich trotz dieses Befundes in regierungstreuer Stimmungsmache und konstruiert einen Zusammenhang von Corona und erhöhten Sterbefallzahlen.

Private Grafik von Mathias Seifert aus den Daten des statistischen Bundesamtes. Sein Kommentar dazu: Laut WHO starben die ersten beiden Personen in Deutschland mit/an Covid-19 am 10.03.2020, am 26.03.2020 starben 49 Personen, am 31.03.2020 128, am 05.04.2020 184 und am 06.04.2020 waren es 92. Der (bisherige) Maximalwert wurde am 16.04.2020 mit 315 Verstorbenen erreicht. Und Herr Söder befürchtet ja inzwischen, dass es zu einer zweiten Welle kommen könnte, die ähnlich schlimm wie die erste ist.

Hier zunächst die vom Statistischen Bundesamt verlautbarten Fallzahlen zu den Sterbefällen 2016 bis 2020:

Gesamtjahr:

2016: 910.902

2017: 932.272

2018: 954.874

2019: 935.292

Nur Januar-März:

2016: 242.030

2017: 269.618

2018: 277.876

2019: 251.876

2020: 250.338

Nur März:

2016: 83.669

2017: 82.934

2018: 107.104

2019: 86.419

2020: 85.922

Da sich auf dieser Basis eine Übersterblichkeit wegen COVID-19 nicht feststellen lässt, griff das Statistische Bundesamt in die Trickkiste. Es verlängerte den nach der ersten Sonderauswertung vom 17.04.2020 angekündigten Berichtszeitraum. Statt wie eigentlich vorgesehen die Sterbefallzahlen für den Zeitraum bis 31. März 2020 mitzuteilen, wurde der Zeitraum bis zum 05. April 2020 verlängert.

Das ermöglichte es dem Bundesamt, in einer Pressemitteilung wie folgt einen angeblichen Zusammenhang zwischen Sterbefallzahlen und Corona unter Bezugnahme auf nur eine einzige Woche herzustellen:

Auch im März 2020 mit insgesamt mindestens 85.900 Sterbefällen ist bei einer monatsweisen Betrachtung kein auffälliger Anstieg der Sterbefallzahlen im Vergleich zu den Vorjahren erkennbar. Seit der letzten Märzwoche liegen die tagesgenauen Zahlen allerdings tendenziell über dem Durchschnitt der Jahre 2016 bis 2019. Da die Grippewelle 2020 seit März als beendet gilt, ist es naheliegend, dass diese vergleichsweise hohen Werte in einem Zusammenhang mit der Corona-Pandemie stehen.

Tatsächlich liegen die Sterbefallzahlen für die Woche vom 30.03. bis 05.04.2020 zwar leicht über den Vorjahreszahlen. Aber es ist unseriös, aus den Zahlen von nur einer Woche Rückschlüsse auf einen Corona-Zusammenhang zu ziehen. Es gibt stets, wie man bereits an den oben aufgeführten Zahlen sehen kann, erhebliche Schwankungen in den Fallzahlen, sowohl wöchentlich als auch monatlich und jährlich.

Lässt man sich dennoch einmal auf diese Wochenbetrachtung des Statistischen Bundesamts ein, so ist folgendes auffällig: Die erhöhte Sterblichkeit betrifft nur die Altersgruppe über 80 Jahre. Die Sterbefallzahlen für die Altersgruppe bis 80 Jahre liegen hingegen im normalen Bereich, wie die nachfolgende Auflistung zeigt.

Anzahl Sterbefälle Woche 30.03.-05.04. (Alter bis 80 Jahre):

2016: 8.622

2017: 7.913

2018: 8.637

2019: 8.156

2020: 8.147

Corona als Grund für die erhöhte Sterblichkeit der über 80-Jährigen zu benennen, wie es das Statistische Bundesamt tut, ist nach derzeitigem Kenntnisstand rein spekulativ. Die Erhöhung liegt im Rahmen der normalen Schwankungen. Der Erhöhung könnte auch ein Nachholeffekt zugrunde liegen.

Der Zeitraum Januar bis März 2020 weist geringere Sterbefallzahlen auf als die entsprechenden Vorjahreszeiträume 2017 bis 2019. Das gilt auch für die über 80-Jährigen: Auch bei ihnen sind die Sterbefallzahlen von Januar bis März 2020 mit 146.097 geringer als in den Vorjahren 2017 und 2018 (155.364 bzw. 159.664) und auch als im Jahr 2019 (143.958), wenn man berücksichtigt, dass 2020 einen Tag mehr hatte. Wenn Corona der Grund für eine etwas erhöhte Sterblichkeit bei den über 80-Jährigen sein sollte, dann ist der Effekt jedenfalls nicht größer als bei einer Influenza.

Das Narrativ der Bundesregierung gerät weiter ins Wanken

1. COVID-19 macht sich bisher statistisch nicht als Sondereffekt bemerkbar. Die bisherigen Sterbefallzahlen (bis 05.04.2020) lassen auch nicht erkennen, daß es eine hohe Dunkelziffer bei den COVID-19-Sterbefällen geben könnte, wie teilweise gemutmaßt wird. Vielmehr deuten sie darauf hin, dass die Corona-Gefahr überschätzt wird.

2. Das Statistische Bundesamt bezeichnet einen möglichen Zusammenhang zwischen Corona und erhöhten Sterbefallzahlen als naheliegend, obgleich diese Annahme anhand der Zahlen von nur einer Woche angesichts der natürlichen Schwankungsbreite derzeit rein spekulativ ist.

3. Lässt man sich mit dem Statistischen Bundesamt dennoch auf eine Betrachtung der einen Woche vom 30.03. bis 05.04.2020 ein, so ist folgendes festzustellen:

  • Es sind immer noch weniger Sterbefälle als im „Grippejahr“ 2018.
  • Die etwas erhöhten Sterbefallzahlen betreffen nur die Altersgruppe über 80 Jahre.
  • Ein Nachholeffekt aufgrund geringerer Sterbefallzahlen in den Vormonaten ist denkbar.
  • Wenn COVID-19 eine Rolle spielt, dann ist sie nicht sehr bedeutend.
  • Demographisch bedingt sind gegenüber früheren Jahren ohnehin tendenziell mehr Sterbefälle zu erwarten, da die Lebenserwartung seit Jahren stagniert und die Zahl der alten Menschen im typischen Sterbealter stark zunimmt.

4. Das Narrativ der Bundesregierung (Corona als ein ohne Rücksicht auf Verluste mit allen Mitteln zu bekämpfendes Killervirus) gerät weiter ins Wanken. Die Sterbefallzahlen lassen bislang keine außergewöhnlichen und dramatischen Auswirkungen erkennen und stellen die Sinnhaftigkeit und Aufrechterhaltung vieler getroffenen Maßnahmen infrage. Eine Gefährdung des Gesundheitswesens (die zu vermeiden erklärtes Ziel der Maßnahmen war) ist nicht ersichtlich.

5. Es ist beschämend und bezeichnend zugleich, dass das Deutschland des Jahres 2020 nicht in der Lage ist, zeitnah die Sterbefallzahlen zu aktualisieren, sondern eine Nachlaufzeit von drei bis vier Wochen benötigt. Zur politischen Verantwortung gehört es auch, für eine sichere Datengrundlage zu sorgen, um sachgerechte Entscheidungen treffen und Maßnahmen auch kurzfristig wieder aufheben zu können. So sollten derzeit zumindest Zahlen bis 26.04.2020 zur Verfügung stehen. Hier haben Bundesregierung und Landesregierungen versagt.

Anhand aktuellerer Sterbefallzahlen ließe sich leicht überprüfen, ob ein bis 05.04.2020 noch nicht feststellbarer Zusammenhang mit Corona mittlerweile eventuell doch gegeben sein könnte und welche Altersgruppen gegebenenfalls betroffen sind. Etwaig erforderliche Schutzmaßnahmen, aber auch deren Aufhebung, ließen sich dann sehr viel zeitnäher, zielgenauer und risikogruppenorientiert treffen. Das Versagen der Regierung wird die Bürger aufgrund an falscher Stelle ansetzender und zu lange andauernder Maßnahmen sehr teuer zu stehen kommen und die ohnehin eintretenden Wohlstandsverluste vervielfachen.

Der Beitrag erschien zuerst bei ACHGUT hier




Der Lockdown ist nahezu wirkungslos – eine Beweisschrift

Dieses Muster lässt sich an allen Grafiken der täglich neu bestätigten Infektionen sowohl in allen Bundesländern Deutschlands als auch in den Kantonen der Schweiz, und Staaten Europas bereits seit 6 Wochen so ablesen (Grafik 1 und Grafik 2).

 

Dass das Virus am Wochenende nicht arbeitet, ist klar, da haben die meisten Testlabore geschlossen – aber warum Freitag?

Wie die meisten Erkältungs- und Grippeviren auch, scheint sich das Corona-Virus einen 7-Tages-Rhythmus angeeignet zu haben. Das erklärt sich aus den Lebensgewohnheiten des menschlichen Wirtes. Wer sich am Wochenende beim Feiern oder anderen sozialen Anlässen ansteckt, der arbeitet die Werkwoche noch durch, fühlt sich dann gegen Ende der Woche bereits angeschlagen, aber geht noch mal den ersehnten Freizeitaktivitäten mit intensivem sozialen Kontakt am nächsten Wochenende nach. Dort steckt diese Person gerade noch alle anderen an, bevor dann in der zweiten Woche das Bett gehütet wird. Virenmutationen, die besonders schnell zu Symptomen führen oder den Wirt mit heftig einsetzenden Schmerzen früher ins Bett scheuchen, verpassen die Gelegenheit, sich jeweils am nächsten Wochenende beim Feiern verbreiten zu können und verschwinden folglich. So will es die Evolution.

Dass das aktuelle Corona-Virus denselben 7-Tages-Rhythmus hat, in der Fachsprache Serienintervall genannt, wurde schon früh in Asien festgestellt und bestätigt sich in Europa erneut. Der weitere Verlauf muss wohl so sein, dass der betroffene Patient sich dann am Dienstag nach dem zweiten Wochenende – mit dann bereits seit mehreren Tagen anhaltendem Fieber – entscheidet, einen Test zu besorgen, diesen am Donnerstag durchführt, und dann die Ergebnisse am Freitag registriert werden. So kommt die Statistik zu ihrem rhythmisch wiederkehrenden Erscheinungsbild, und so ergeben sich 14 Tage von Infektion bis Meldung. Natürlich gibt es Abweichungen von dieser Norm, aber die Zahlen zeigen, dass dies im großen Durchschnitt der Fall ist.

Das Virus ist reisefaul

Diese regelmäßigen Zyklen des Corona-Virus erlauben es, durch statistische Analyse nachzuvollziehen, welche Kohorte sich wann angesteckt hat. Zum Beispiel die Kohorte mit 1.104 Neuregistrierten, die am Freitag, dem 27. März, in Nordrhein-Westfalen (NRW) gemeldet wurde, hat sich dementsprechend zwei Wochen zuvor, am Freitag, dem 13. März, angesteckt. Und zwar bei der vorhergehenden Kohorte, die am 20. März mit 839 Personen in NRW als infiziert gemeldet wurde. Diese 839 Personen haben also 1.104 Personen angesteckt, was eine Ansteckungsrate – oder auch Reproduktionsrate genannt – von 1,3 ergibt, oder R 1,3 (= 1104/839). Die Infektionen müssen weitgehend in NRW stattgefunden haben, weil die starken regionalen Unterschiede zeigen, dass das Virus reisefaul ist – es hat sich von NRW aus nicht in seine Nachbarländer verbreitet. Diese Reisefaulheit zeigt sich auch darin, dass große Verkehrsdrehkreuze wie Frankfurt oder Zürich nur schwach infiziert sind. Das Benutzen von Massenverkehrsmitteln ist nicht infektionsgefährlich.

Das wichtige an dieser R-Berechnung ist, dass jener 13. März als Tag der Ansteckung, der letzte Freitag vor den Ausgangsbeschränkungen und Kontaktsperren war, die am 16. März begannen. Die Reproduktionsrate lag also schon VOR den drakonischen Lockdown-Maßnahmen des 16. März bei höchstens 1,3. Man braucht nicht promovierter Epidemiologe zu sein, um diese Zahl zu ermitteln. Sie erschließt sich frei zugänglich aus den Daten des Robert-Koch-Institutes (RKI) mit einfacher Grundschulmathematik. Meine Berechnungen sind hier zu finden. 

Aber die Zahl kann noch weiter nach unten korrigiert werden. Denn diejenigen Erkrankten, die versucht hatten, sich am Donnerstag, dem 19. März, testen zu lassen, hatten es schwieriger, an einen Test zu kommen. Diese waren noch nicht so leicht verfügbar wie eine Woche später, am 26. März. Das bedeutet, es wurden relativ weniger Erkrankte getestet, und die Dunkelziffer der Kohorte der am 20. März Neuregistrierten war höher als die der Kohorte vom 27. März. Über diese Dunkelziffer gibt es keine gesicherten Angaben, und vermutlich wird sie nie mehr eindeutig rekonstruierbar sein. Aus den Berichten des RKI über den Anteil der positiv Getesteten an allen Tests kann eine konservative Schätzung gewonnen werden, dass die Dunkelziffer in der 12. Kalenderwoche (KW 16.–22. März) 32 Prozent höher lag als in der 14. KW (ab 30. März), und respektive 53 Prozent in der 11. KW (9.–15. März).

Der Lockdown hatte keinen messbaren Effekt

Mit dieser Korrektur ergibt sich, dass die Reproduktionsrate R in NRW sogar schon am 9. März unter 1,0 lag und folglich die Epidemie am Abklingen war. Dieselbe Rechnung für mehrere Bundesländer und alle Tageskohorten zeigt, wie das R bereits um den 10. März herum in NRW, Rheinland Pfalz, Hessen und Hamburg auf den Wert 1,0 gefallen war. In Berlin, Niedersachsen, Baden-Württemberg und Bayern dagegen wurde der Wert 1,0 erst um den 20. März herum erreicht, etwa 10 Tage später. Dieser Unterschied ist von erheblicher Bedeutung. Er zeigt, wie die ersteren vier Bundesländer schon 6 Tage VORdem Lockdown ein R von 1,0 erreicht hatten, und die letzteren vier Bundesländer erst 4 Tage NACH dem Lockdown – aber in allen Fällen mit demselben Verlauf.

Das RKI kommt zu einem ähnlichen Ergebnis wie in meinen Berechnungen. Am 9. April veröffentlichte das RKI seine Erkenntnis, dass sich das R deutschlandweit um den 22. März herum bei 1,0 einpendelte, allerdings ohne seine Zahlen um den erschwerten Testzugang zu kalibrieren (Siehe hier). Mit Kalibrierung würde die RKI-Rechnung im deutschen Mittel um den 15. März herum bei 1,0 liegen, wie bei mir auch. Das RKI unterschlägt jedoch die entscheidende Information, dass es zwischen den einzelnen Bundesländern einen zeitlichen Verzug im Verlauf von bis zu 10 Tagen gibt.

Folglich hatte der Lockdown am 16. März keinen statistisch messbaren Effekt auf die Reproduktionsrate (R) des Virus. In den Wissenschaften nennt sich diese Situation ein „natürliches Experiment“. Wenn die Verläufe von zwei Gruppen identisch miteinander sind, nur zeitlich verzögert, dann lässt sich schlussfolgern, dass ein dazwischen liegendes Ereignis keine Auswirkung hatte. In diesem Fall waren es die Maßnahmen des Lockdown am 16. März, die keine statistisch erkennbare Wirkung auf das Infektionsgeschehen ausüben konnten.

Max-Planck-Gesellschaft schreibt Gefälligkeitsgutachten

Am 8. April veröffentlichte das Max-Planck-Gesellschaft (MPG) Institut für Dynamik und Selbstorganisation in Göttingen ein genau gegenteiliges und in der Presse vielzitiertes Ergebnis: „Die Kontaktsperre bringt die Wende“. „Wir sehen eine klare Wirkung der Kontaktsperre vom 22. März, und natürlich den Beitrag von jeder einzelnen Person“. Die Forscher um Frau Dr. Viola Priesemann müssen für diese Erkenntnis hellseherische Fähigkeiten gehabt haben, denn per 7. April, dem Zeitpunkt ihrer Datenerhebung, war eine solche Erkenntnis aus mathematischen Gründen noch unmöglich. Zudem, für eine Schlüsselvariable in ihren Berechnungen, dass 10 Tage von Infektion bis Meldung vergehen, liefern die Forscher weder eine Herleitung noch eine Quelle und ignorieren damit die auf den ersten Blick erkennbare 14-tägige Rhythmik des Virus.

Vor allem aber haben die Forscher nur den gesamtdeutschen Infektionsverlauf herangezogen und damit die ebenfalls auf einen Blick erkennbaren riesigen Unterschiede pro Bundesland ignoriert. Internationale Vergleiche wurden auch nicht angestellt. Das Zitat, dass der Beitrag jeder einzelnen Person sich in den Zahlen zeige, was grober Unfug ist, entlarvt die Max-Planck-Gesellschaft-Studie endgültig als ein Gefälligkeitsgutachten, anstatt seriöse Wissenschaft zu sein. Solche elementaren handwerklichen Fehler in der Analyse verhelfen vielleicht zu populären Zitaten in der Presse, aber schaden dem Ansehen der Wissenschaften.

Epidemiologen sehen eine Epidemie als weitgehend bewältigt an, wenn das R dauerhaft auf einen Wert von unter 1,0 sinkt, denn ab dann wird jede Kohorte mit jedem Zyklus kleiner, und nach vielen weiteren Zyklen gibt es dann keine Ansteckungen mehr. Mit einem Wert von 1,0 gibt es mindestens kein exponentielles Wachstum mehr und daher auch keine Gefahr mehr, dass das Gesundheitssystem mit einer plötzlichen Patientenwelle überrollt wird. Diese Gefahr bestand, wie die Zahlen jetzt zeigen, bereits seit dem 10. März, also fast eine Woche VOR dem Lockdown am 16. März nicht mehr. Sofern sie ihrer Zahlen mächtig sind, müssten sowohl das RKI wie auch die MPG das seit dem 9. April wissen. Warum wird diese Erkenntnis nicht veröffentlicht? Wollen sie nicht, oder können sie nicht?

Ergebnis wird die schwerste Wirtschaftskrise der Moderne sein

Zu dem Zeitpunkt des 16. März konnten die Entscheidungsträger das alles noch nicht wissen. Man weiß immer erst circa drei Wochen nach dem Infektionsgeschehen, was vor drei Wochen der Status war. Es sei denn, die Behörden hätten schon am 28. Februar mit repräsentativen Zufallsstudien begonnen, als Deutschland schon die zweithöchste Zahl der bestätigten Infektionen in Europa nach Italien hatte. Dann wäre auch das aktuelle Infektionsgeschehen schneller bekannt gewesen. Hätte, hätte Fahrradkette, diese Studien wurden nicht gemacht, und so blieb keine andere Wahl, als am 16. März das Funktionieren der Gesellschaft abzuschalten. Das Ergebnis dieses Lockdowns wird die nun schwerste Wirtschaftskrise seit dem zweiten Weltkrieg sein – ein teures Versäumnis, nicht ein paar Testbatterien bereits im Februar gestartet zu haben.

Immerhin, mittlerweile sind diese drei Wochen seit dem 16. März vergangen – jetzt sind Zahlen für alle ersichtlich, erkenntlich und verständlich verfügbar. Und die Zahlen sprechen eine eindeutige Sprache: Die Ausgangsbeschränkungen und Kontaktsperren des Lockdowns sind nahezu wirkungslos. Die Neuinfektionsraten waren schon vorher ganz von alleine gesunken, ohne dass es den Lockdown des 16. März gebraucht hätte. Zudem liegt auch die Vermutung nahe, dass der Lockdown nicht einmal zur weiteren Reduktion der Reproduktionsrate beigetragen hat. Das R liegt in Deutschland in der zweiten Aprilwoche, bei etwa 0,7. Das wäre wahrscheinlich genauso von alleine passiert wie das Sinken auf 1,0 bereits in der ersten Märzhälfte in NRW. Italien befindet sich bereits in der sechsten Woche eines noch rabiateren Lockdowns der Gesellschaft, und trotzdem ist das R an Ostern immer noch bei 0,8, höher als in Deutschland. Die Schweiz, die ein etwas lockeres Regime als Deutschland fährt, verbucht ein R von 0,6 und die ebenfalls etwas lockeren Niederlande wiederum ein R von 1,0. Offensichtlich sind es andere Faktoren als ein Lockdown, die zu einer niedrigeren Reproduktionsrate führen.

Covid-19 ist äußerst gefährlich

Damit soll auf keinen Fall diese Krankheit verharmlost werden. Ganz im Gegenteil, Covid-19 ist äußerst gefährlich. Am 9. April wurden die ersten Zwischenergebnisse der Heinsberg-Studie von Professor Hendrik Streeck der Universität Bonn vorgestellt. Dort zeigt sich zum ersten Mal repräsentativ, dass die Sterberate unter den Infizierten zwischen 0,29 Prozent und 0,37 Prozent liegt. Das ist drei bis viermal höher als bei einer saisonalen Grippe und doppelt so hoch wie bei einer schweren Grippe. Außerdem ist die Verbreitungsrate sehr viel höher als bei einer Grippe. Es scheint keinerlei Immunität in der Bevölkerung gegen Covid-19 zu geben. Rechnet man diese Werte auf die Bevölkerung hoch, dann würde es im Infektionsverlauf zu vielleicht 200.000 Todesfällen in Deutschland aufgrund von Covid-19 kommen, zehnmal mehr als bei einer saisonalen Grippeepidemie. Das ist eine unakzeptabel hohe Zahl.

Wenn die Maßnahmen des Lockdown ganz oder nahezu wirkungslos sind, dann sind dringend andere Lösungen gefragt, die dieser Krankheit den Schrecken nehmen. Ein Teil der Lösung werden hoffentlich bald Medikamente sein, für die es bereits vielversprechende Kandidaten gibt, und die jetzt schon bei schweren Verläufen eingesetzt werden dürfen. Die sich in Arbeit befindliche Contact Tracing App dürfte ein bedeutender Teil der Lösung sein. Unkompliziert und ständig verfügbare Tests sind unabdingbar, damit Infektionen schnell aufgespürt werden können. Singapur hat die Epidemie lange mit Contact Tracing unter Kontrolle gehalten, aber versäumt, sein verarmtes Heer an ausländischen Dienstleistern zu testen. Genau dort kam es nun zum Ausbruch.

Eine weitere Erkenntnis aus Taiwan ist die höchst transparente und umfängliche Information über das Infektionsgeschehen an die Öffentlichkeit mit bedeutungsvollen Zahlen sowie das konsequente Ausrüsten von exponierten Berufsgruppen mit Schutzmaterial. Taiwans Bürger wurden aufgerufen, auf ihre gewohnten Masken und Desinfektionsmittel zu verzichten (!), damit diese Materialien für die wichtigen Berufsgruppen zur Verfügung stehen. In Summe könnten diese Elemente mit Sicherheit verhindern, dass das Infektionsgeschehen außer Kontrolle gerät, und sie könnten auch fast sicher verhindern, dass die Risikogruppen infiziert werden, ohne sie aus der Gesellschaft zu verbannen. Warum wird fast nicht über Taiwan berichtet?

Wenn es nicht die Maßnahmen vom 16. März waren, die die Infektionswelle abschwächten, was war es dann? Es war wohl das Ende der Karnevalsaison sowohl am Rhein wie in den Alpen. Aus dieser Erkenntnis leitet sich auch ab, welche Maßnahmen bestehen bleiben müssen, bis es entweder Herdenimmunität oder einen zuverlässigen und breit verfügbaren Impfstoff gibt, was beides erst in 2021 erfolgen wird. Bis dahin wird es keine Sportveranstaltungen mit Zuschauern geben können, keine Musikfestivals, keine Oktoberfeste und keine Bars und Clubs. Es wird keine Veranstaltungen geben können, bei der Menschen wild singen, grölen und brüllen. Auch das Apres Ski wird in der nächsten Wintersaison ausfallen. Das sind zwar auch Einschränkungen, aber vergleichsweise harmlos zu den Schäden, die der Gesellschaft mit dem aktuellen Lockdownpaket zugefügt werden, die zudem auch noch wirkungslos zu sein scheinen.

Der rheinische Karneval war der erste Brandbeschleuniger

Die Sterberaten aus Heinsberg lassen die Vermutung zu, dass es um den 25. März herum etwa 600.000 bis dahin Erkrankte in Deutschland gegeben hat, die sich folglich bis etwa eine Woche zuvor – also bis zum 18. März – infiziert haben, mit einer Dunkelziffer von etwa Faktor 20 der offiziellen Fallzahlen. Das ist dieselbe Menge an Erkrankten, die ich vor zwei Wochen bereits aus isländischen und japanischen Quellen in meinem Beitrag auf der Achse des Guten für den Stand vom 25. Märzermittelt hatte.

Vermutlich kann das gesamte Infektionsgeschehen in Deutschland grob wie folgt zusammengefasst werden: Angenommen, die Reproduktionszahlen im Karneval lagen im Durchschnitt bei 14, das heißt ein Infizierter steckte 14 weitere Personen innerhalb einer Woche an. Mit einem R von 14 benötigte es in der Woche vor Karneval am 9. Februar gerade einmal 100 infektiöse Personen entlang der NRW Karnevalshochburgen, die sich in der vielen Feierei und Vorbereiterei frei bewegten, ohne zu wissen, dass sie krank waren. Dass es diese 100 Personen gab, ist leicht vorstellbar. Alleine nur der Lufthansa Konzern beförderte im Januar noch fast 100,000 Personen aus China nach Deutschland. Nur eine einzige davon führte zu 16 bekannten Erkrankten in dem Webastoausbruch in Bayern. Nur sieben weitere unerkannte webastoähnliche Situationen in NRW hätten gereicht für die Starterglut für das Karnevalsfeuer ab Mitte Februar.

Die 100 Personen hätten folglich in der ersten Karnevalwoche bis zum 16. Februar 1.400 (= 100×14) weitere Personen angesteckt. Die berühmte Gangelter Karnevalssitzung im Landkreis Heinsberg fand zum Beispiel am 15. Februar statt. In der zweiten Karnevalswoche vom 17. bis 24.2. steckten diese 1.400, weitere 19.600 an (= 1400 x 14). Die meisten dieser 19.600 hätten auch wieder nicht gemerkt, dass sie krank waren. Viele weitere hätten geglaubt, der anstrengende Karneval hätte ihnen eine schwere Erkältung beschert. Etwa 500 wurden so krank, dass sie innerhalb der nächsten zwei Wochen bis zum 8. März ihren Weg zu einem Corona Test fanden und dort positiv getestet wurden. Es ist bekannt, dass fast die Hälfte aller positiven Tests in Deutschland bis zum 8. März aus NRW kamen.

Die andere Hälfte der positiven Tests in Deutschland würde dann weitere 20.000 Personen bedeuten, die sich irgendwo anders bis zum 23. Februar infizierten. Sie waren wohl über das ganze Land verteilt in kleineren Infektionsketten, jedoch mit einem dicken Schwerpunkt unter solchen Deutschen, die in Skigebieten urlaubten. Dort brach im Apres Ski die zweite Welle los. Ab dem 24. Februar, der Hochsaison in den Alpen, stehen erste echte Daten für das R zur Verfügung. Unter den Süddeutschen wütete sich das Virus durch die Apres Ski Clubs mit einem R von 5, jeder Infizierte steckte dort fünf weitere an. Währenddessen wurde es bereits ruhig in NRW, das R sank dort bis zum 9. März auf 0,9, und am 10. März folgten Rheinland Pfalz, Hessen und Hamburg ebenfalls auf 1,0. Weil in Bayern und Baden-Württemberg die Skiparty noch weiter lief, sank das R dort erst um den 20. März herum auf 1,0.

Im deutschen Durchschnitt bedeutet das, dass die 40.000 Erkrankten vom 23. Februar mit einem R von 2,5 weitere 100.000 Personen bis zum 1. März infizierten, und diese mit einem R von 2 noch mal 200.000 Personen bis zum 8. März, und schließlich mit einem R von 1,3 folgten 260.000 Personen bis zum 15. März, dem Tag der Entscheidung des Lockdowns. Alle diese Personen inkubierten Covid-19, wurden mehr oder minder krank, und etwa jeder Zwanzigste ließ sich in der Woche zwischen dem 23. und 27. März testen. 34.000 insgesamt Infizierte wurden bis zu dieser Woche offiziell gemeldet. Tatsächlich waren aber bis zu diesem Zeitpunkt alles in allem etwa 600.000 erkrankt, wie die Summe der obigen Zahlen aussagt (= 40+100+200+260). Einige von ihnen erkrankten so schwer, dass sie ins Krankenhaus mussten und dort im Durchschnitt nach zwei Wochen verstarben. Von den bis zum 25. März 600.000 Erkrankten sind 0,37 Prozent gestorben, wie die Heinsberg Studie vorgibt – das ergeben dann die 2.200 Sterbefälle, die das RKI bis inklusive dem 8. April gemeldet hat. Auf diese Weise lässt sich aus der Heinsberg Sterberate grob hochrechnen, wie hoch die wahre Infektionszahl in Deutschland war.

Die teuerste Party der Weltgeschichte

Das ist die ungefähre Geschichte in Deutschland. Es gibt Nebengeschichten, zum Beispiel die Posaunenchöre im Kreis Hohenlohe und das Starkbierfest in Mitterteich (Kreis Tirschenreuth), verschiedene Parteitage und die Kommunalwahl in Bayern am 15. März, die sich auch in den Zahlen zeigt. Aber die beiden wesentlichen Brandbeschleuniger waren der rheinische Karneval und dann die alpinen Apres Ski Clubs. Andere Länder haben andere Geschichten zu erzählen. In Norditalien spielten mit Sicherheit die unzähligen Dienstleistungsmitarbeiter eine wichtige Rolle, ohne die in den Alpen keine Bar betrieben werden kann. Im Winter bedienen sie die Skigebiete und im Sommer die Strände. Zuhause gibt es keine gute Arbeit, deswegen sind sie auf Wanderschaft. Aber Nonna und Nonno (italienisch für Großeltern) werden regelmäßig besucht, nicht zuletzt, weil man aufgrund der Wohnungsnot häufig gemeinsam lebt. In Italien haben die Generationen fünfmal häufigeren Kontakt miteinander als in Deutschland. Dieser starke Familienzusammenhalt hat sich in diesem Fall als Fluch erwiesen.

Im spanischen Verlauf lassen sich die Massendemonstrationen zum Weltfrauentag am 8. März leicht ablesen und in Frankreich noch die Kommunalwahl vom 15. März. Dass Großbritannien bis zum 25. März praktisch gar keine Maßnahmen durchführte und vor allem nicht die Pubs geschlossen hatte, beschert Ihnen ein R von 1,2 sogar noch an Ostern. Auch Schweden hat noch immer ein R von 1,3 im April, weil es lange zögerte, große Veranstaltungen abzusagen und die Bars und Clubs zu schließen. Aber Schweden feierte kein Karneval und hat dadurch seine Zahlen nicht im Februar schon so weit in die Höhe getrieben. Daher wirkt das R dort nur auf eine kleinere Anzahl von Personen. Die Untersuchung der Virenmutationen zeigt, dass die amerikanische Westküste sich direkt in China angesteckt hat, aber die amerikanische Ostküste – insbesondere New York – hat sich in Europa angesteckt. Die Zahlen erzählen viele Geschichten, und viele sind weder gezählt noch erzählt.

Wahrscheinlich war der NRW-Karneval das allererste große europäische Infektionszentrum, sozusagen das Ereignis 0, in dem es zahlenmäßig explodierte, und erst darauf folgte die große Welle in den Alpen, von wo es in die ganze Welt getragen wurde. Hätte der Karneval am 13. Februar abgesagt werden können? Mit der Faktenlage, die damals existierte, hätte die Bevölkerung das nicht akzeptiert. Hätten die Behörden, ähnlich wie in Taiwan, genau hingeschaut, was in Wuhan passiert, dann hätten sie es wissen können und hätten der Bevölkerung erklären können, warum der Karneval dieses Mal ausfallen muss. Stattdessen wiegte sich das deutsche Gesundheitssystem in einem falschen Überlegenheitsgefühl und vergeudete wertvolle Zeit der Vorbereitung. So wurde der Karneval 2020 zur teuersten Party der Weltgeschichte.

Der Beitrag erschien zuerst bei ACHGUT hier

Weiterführende Literatur z.B. dieses Thesenpapier zur Pandemie durch SARS-CoV-2/Covid-19 vom 5.4.20 erschienen bei SPRINGER nature




Es gibt Statistik ..und es gibt Corona-Statistik – Statistik-Kunde wider den Horror

1. Gerettete Menschenleben. Die dürfen in keiner Politiker-Stellungnahme fehlen. In Wahrheit hat keine Anti-Corona-Maßnahme jemals ein Menschenleben gerettet. Es wird immer nur der Tod hinausgeschoben. Und bei dem durchschnittlichen Sterbealter von über 80 Jahren der bisher in Deutschland an Corona Verstorbenen noch nicht einmal besonders viel. Die letztendliche Sterblichkeitsrate bleibt auch unter Bundeskanzlerin Merkel weiter exakt 100 Prozent. Im Jahr 2020 werden mit oder ohne Corona wieder wie letztes Jahr und das Jahr davor und das Jahr nochmals davor rund 900.000 Bundesbürger sterben. Das ist etwas mehr als einer von hundert, entsprechend in etwa der Mortalitätsrate der Corona-Pandemie (mehr dazu weiter unten).

2. Todesfälle durch Corona. Ist jemand, der vom Bus überfahren wird und den Coronavirus in sich trägt, ein Corona-Toter? Die Panikmacher meinen ja. Zum Glück setzt sich inzwischen aber die allgemeine Erkenntnis durch, dass es Menschen gibt, die mit, und andere, die an Corona sterben. Sollte man unbedingt auseinanderhalten. In Italien etwa sollen weit über 90 Prozent aller offiziellen Corona-Toten multiple und teils schwerste Vorerkrankungen gehabt haben. Umgekehrt in Russland, hier stirbt man nicht an Corona, sondern an Lungenentzündung.

Dann ist zu unterscheiden die Zahl der Menschen, die bisher insgesamt, und die in der aktuellen Woche oder am aktuellen Tag gestorben sind.

3. Coronainfizierte. Das ist die zentrale Zahl überhaupt. Leider kennt sie nur der Liebe Gott allein. Uns Menschen bekannt ist nur die Zahl der als infiziert gemeldeten. Und selbst diese Zahl ist falsch. Denn auch der beste Test erkennt zuweilen zu Unrecht einen nicht Infizierten als infiziert (im Fachjargon: falsch positiv). Auch bei den besten Tests liegt diese Falschpositiv-Rate (alias 1 weniger die Spezifizität) bei 10 Prozent. Würde man also alle 80 Millionen Bundesbürger auf Corona testen, hätte man auf einmal 8 Millionen offizielle Coronakranke, die den Virus überhaupt nicht in sich tragen.

Inzwischen gibt es Versuche, den wahren, aber bisher völlig unbekannten Infiziertenanteil durch eine repräsentative Stichprobe zu schätzen. Sehr gut. Warum ist man nicht früher auf diese Idee gekommen? Bei Wahlprognosen funktioniert das seit Jahrzehnten.

Selbst wenn man alle diese Probleme vernachlässigt, gibt es immer noch die Auswahl zwischen (1) Der Gesamtzahl aller bisher Infizierten (das ist meistens gemeint, wenn man von Verdopplungszeiten spricht, siehe weiter unten) oder (i2) der  Gesamtzahl aller aktuell Infizierten, d.h. die Gesamtzahl aller bisher Infizierten minus die wieder Genesenen minus die Verstorbenen. Das wäre die gesundheitspolitisch relevante Zahl, aber die wird in der Regel nicht benutzt. Ist auch viel kleiner, und das passt vielen Panikmachern nicht.

4. Todesraten. Jetzt wird es kompliziert. Bisher ging es immer nur um eine Zahl. Jetzt braucht man auf einmal zwei. Und dann wird auch noch eine davon durch die andere dividiert, also eine Rechenoperation, mit der viele Bundesbürger so ihre Schwierigkeiten haben (sagt der Bundesverband Legasthenie und Dyskalkulie e.V.).

Der Zähler macht uns das Leben noch recht einfach, hier gibt es nur die vier Kandidaten aus 2. Im Nenner dagegen haben wir die freie Auswahl, und die wird auch weidlich ausgenutzt. So kommt etwa das ZDF in Italien auf 8 Prozent Verstorbene. Hätte man, statt die Zahl der insgesamt Verstorben durch die Zahl der aktuell als Infiziert gemeldeten zu teilen, genauso unsinnig etwa durch die Zahl der am aktuellen Tag neu hinzugekommenen Infizierten geteilt, wären sogar Todesraten von 120 Prozent nicht ausgeschlossen.

In Wahrheit sind alle Kandidaten für den Nenner aus 3. falsch. Die Zahl der in einem bestimmten Zeitraum Verstorbenen müsste geteilt werden durch die Zahl der derjenigen, die sich mit diesen zusammen infiziert hatten. Und wenn man diese Zahl nicht kennt, sind alle Todesraten kaum mehr als Kaffeesatzleserei.

In einem Fall aber hat man diese Zahl: Das war das Kreuzfahrtschiff Diamond Princess; da haben sich 700 Passagiere und Besatzungsmitglieder angesteckt, 7 davon sind gestorben, das sind genau 1 Prozent. Allerdings waren die Passgiere ungewöhnlich alt.  Wenn man die Sterberate der Diamond Princessauf die Altersstruktur der US-Bevölkerung überträgt, ergäbe sich eine Todesrate von  0,125%, erheblich weniger als üblicherweise bei Grippewellen anzutreffen ist.

Einschub der Redaktion

Die Ergebnisse von Gangelt entsprechen in etwa denen der Diamond Princess
aus der t-online Meldung:

„Bisher wurden im Kreis Heinsberg mehr als 1.000 Menschen in über 400 Haushalten untersucht, etwa die Hälfte der getesteten Haushalte und die Tests von 509 Personen wurden bereits ausgewertet. Das entspricht laut Professor Streeck einer repräsentativen Stichprobe. Dabei stellten die Wissenschaftler fest, dass in der Gemeinde Gangelt eine Immunität von 15 Prozent der Bevölkerung nachgewiesen werden konnte. 

Die Wahrscheinlichkeit, an der Krankheit zu sterben liege dort, bezogen auf die Gesamtzahl der Infizierten, bei 0,37 Prozent. Bezogen auf die Gesamtbevölkerung würden 0,06 Prozent der Menschen an Covid-19 sterben. Die in Deutschland derzeit von der amerikanischen Johns Hopkins University berechnete entsprechende Rate verstorbener Infizierter betrage 1,98 Prozent und liege damit um das Fünffache höher, sagte der Virologe. In Gangelt seien auch Menschen positiv auf das Coronavirus getestet worden, die keine oder nur milde Symptome hatten.“

Nun ist 700 keine riesige Stichprobe; rechnet man die Stichprobenunsicherheit mit ein, kommt man auf eine geschätzte Todesrate zwischen 0,1 und 0,6 Prozent.

5. Reproduktionsrate

Damit ist die Zahl der Menschen gemeint, die ein Corona-Infizierter im Mittel selber ansteckt. Die liegt bisher zwischen geschätzten 2 und 3. Zum Vergleich: bei Masern beträgt diese Zahl 5, bei Keuchhusten 15 (Harding Zentrum für Risikokompetenz).

Diese Reproduktionsraten sind Mittelwerte; sie variieren über Raum und Zeit. Aus epidemiologischer Sicht ist es nicht ganz das gleiche, ob bei einer Reproduktionsrate von 2 neunundneunzig Infizierte niemanden anstecken, dafür der hunderste, so wie der notorische Bargastbespaßer aus Ischgl in Tirol, gleich 200 auf einmal. Diese Feinheiten sind aber nur für Experten interessant. Von weit größerer Bedeutung ist die Variation über die Zeit. Hier geht es darum, eine Reproduktionsrate von unter 1 zu erreichen. Dann ist die Pandemie vorbei, und darauf bewegen wir uns mit großen Schritten zu.

6. Wachstumsraten und Verdopplungszeiten

Mit der Reproduktionsrate eng verbunden sind Wachstumsraten und Verdopplungszeiten. Vor allem von letzteren ist in den letzten Tagen viel die Rede. Da ist zunächst die Frage, wer oder was wachsen bzw. sich verdoppeln soll. Üblicherweise meinen die Medien damit die insgesamt bisher Infizierten. Das ist aber wenig zielführend, denn da sind auch die Verstorbenen (Minderheit) und die wieder Genesenen (Mehrheit) mit dabei. Korrekt wäre die Zahl der aktuell Infizierten.

Unabhängig ob aktuell oder insgesamt ergeben sich diese Verdopplungsraten aus der Annahme, dass die aktuelle tägliche Wachstumsrate so bleibt wie sie ist. Gestern 100.000 und heute 107.200 ergibt eine Wachstumsrate von 7,2 %; damit verdoppelt sich die Zahl der Infizierten alle zehn Tage. Wer das nicht glaubt: mit dem Taschenrechner die Zahl 1,072 zehnmal mit sich selbst malnehmen. Am Schluss kommt 2 heraus (bis auf kleine Rundungsfehler).

Was aber, wenn die Wachstumsrate sich verändert? Und das tut sie so sicher wie das Amen in der Kirche. Einige Medien versuchen, kurzfristige Zufallsschwankungen durch das Mitteln der letzten täglichen Wachstumsraten auszugleichen. Das hilft aber auch nicht weiter; es kommt auf die künftigenWachstumsraten an.

Ganz schlimm wird es, wie in den Medien regelmäßig getan, wenn man die Wachstumsrate der als infiziert gemeldeten mit der Wachstumsrate der tatsächlich Infizierten gleichsetzt. Die beiden haben miteinander kaum etwas zu tun. Denn die Wachstumsrate der als infiziert gemeldeten hängt entscheidend von der Intensität des Testens ab. Die hat in den vergangenen Wochen dramatisch zugenommen. Damit können die gemeldeten Fälle zunehmen, aber die tatsächlichen Fälle abnehmen, konstant bleiben oder ebenfalls zunehmen – man weiß es nicht.

7. Einbruch der Wirtschaftsleistung

Das ist einer der vielen Kollateralschäden der Corona-Hysterie. Als kleiner Trost am Schluss: Dieser Einbruch ist zwar beträchtlich und könnte sogar die minus 5% des Jahres 2009 übertreffen, aber dann doch nicht ganz so dramatisch, wie der Einbruch des Sozialproduktes suggeriert. Wer sich im Fachhandel für 2000 Euro einen Wohnzimmerschrank kauft, verbrieft damit einen Anstieg des Sozialprodukts um exakt diese Summe. Wer den (fast) gleichen Schrank für 1000 Euro in Einzelteilen bei IKEA kauft und zu Hause selbst zusammenbaut, reduziert den persönlichen Schrankbeitrag zum Sozialprodukt um 50 Prozent. Denn alle im Haushalt ohne Rechnung produzierten Güter und Dienstleistung werden im Sozialprodukt nicht mitgezählt. Und in dem Umfang, wie diese Haushaltproduktion mit zunehmender Heim- und Kurzarbeit ebenfalls zunimmt, ist der erwartete Rückgang des Sozialprodukts nicht ganz so schlimm.

Ebenfalls betroffen, aber weniger im Gerede, ist die Verteilung des Sozialprodukts. Das Bruttosozialprodukt minus Abschreibungen minus indirekte Steuern plus Subventionen entspricht exakt dem Volkeinkommen, und dessen Verteilung verändert sich in eine Richtung, die nur wenigen gefallen dürfte: Der reichste Mann der Welt, Jeff Bezos von Amazon, wird nochmals mehrere Milliarden Euro reicher, und auch die reichsten Deutschen, die Aldi-Erben und der Lidl-Gründer Dieter Schwarz, werden weitere Milliarden scheffeln. Merkel sei Dank.

Der Beitrag erschien zuerst bei ACHGUT hier




Unsicherheit beenden: Zufallsstichproben testen!

CoViD-19 hat die Welt im Griff. Viele Länder, auch Deutschland, befinden sich im Lockdown. In Italien, England und USA wird die Kapazität der Krankenhäuser knapp oder ist schon überschritten. In Deutschland fehlt Schutzkleidung. Gleichzeitig geraten immer mehr Unternehmen und Selbstständige in existentielle Not. Alle fragen sich: Wie lange wird der Stillstand des öffentlichen Lebens andauern? Wie viele Opfer wird die Pandemie fordern, direkt und indirekt? Während die einen größere Angst vor dem Virus haben, fürchten die anderen mehr die Nebenwirkungen der staatlichen Maßnahmen: Rezession oder gar Depression der Wirtschaft, psychosoziale Überlastung der Bevölkerung, Einschränkung von Grundrechten, Vernachlässigung anderer Erkrankungen. Die allabendlichen Nachrichtensendungen liefern für alle diese Punkte anschauliche Beispiele.

Bei der Suche nach dem optimalen Weg durch die Krise starren alle gebannt auf die jeweils neuesten Statistiken. Wir wollen wissen:

  1. Welcher Anteil der Bevölkerung infiziert sich in welcher Zeit,
    a) ohne und b) mit Eindämmungsmaßnahmen?
  2. Welcher Anteil der Infizierten wird nicht krank, leicht krank, schwerkrank, intensivpflichtig, stirbt?

Allerdings hat sich in den Medien inzwischen auch herumgesprochen, dass die veröffentlichten Statistiken über die Gefährlichkeit des neuen Virus sehr wenig aussagen. Umgekehrt kämen Maßnahmen, die sich an reinen Sterbezahlen orientieren, zu spät. Es gibt einfach zu viele Unbekannte, nämlich:

 

1. Welcher Anteil der Bevölkerung wird getestet, und wie selektiv ist diese Testpopulation?

Während in Italien offenbar Patienten erst dann getestet werden, wenn sie ins Krankenhaus aufgenommen werden, genügt in Deutschland ein „Verdacht“, definiert als Kontakt mit einem nachgewiesen Infizierten oder Aufenthalt in einem definierten Risikogebiet. Menschen mit auffälligen Symptomen werden hingegen auch bei uns nicht getestet, Menschen mit symptomarmen Verläufen überhaupt nicht. Insofern weiß niemand, wie viele Infizierte auf einen positiv Getesteten kommen. Schätzungen der Dunkelziffer reichen von 3-4 bis über 1000.

Wenn man nicht nur „Verdachtsfälle“ oder Schwerkranke, sondern Zufallsstichproben testen würde, könnte man die Dunkelziffer schätzen.  

 

2. Wie zuverlässig ist der Test?

Ist jemand, der positiv getestet wurde, wirklich infiziert?

Prinzipiell können bei Virusinfektionen zwei Typen von Tests eingesetzt werden: Nachweis von Viren, bei SARS-CoV-2 aus einem Halsabstrich (PCR-Methode), und Nachweis von Antikörpern, bei SARS-CoV-2. Letzter scheint kurz vor der Verfügbarkeit zu stehen und soll bereits in einer New Yorker Klinik eingesetzt werden (hier). Ersterer soll akute Infektionen nachweisen, letzterer durchgemachte (und damit hoffentlich Immunität).

Der PCR-Test ist nicht validiert. Der Anteil der positiv Getesteten, die wirklich mit SARS-CoV-2 infiziert sind, berechnet sich nach dem Satz von Bayes. Dazu benötigt man die Sensitivität (Anteil korrekt Positiver = 1 – Anteil falsch Negativer) und Spezifität des Tests (Anteil korrekt Negativer = 1 – Anteil falsch Positiver) sowie die Basisrate (Anteil Infizierter in der Testpopulation).

Der Anteil an Infizierten AI unter den positiv Getesteten beträgt mit S = Sensitivität, Sp = Spezifität und B = Basisrate):

AI = (S + B) / [ (S x B + (1 -Sp) x (1 – B) ]

Für den PCR-Test werden in der bislang sehr spärlichen Literatur Falsch-Positiv-Raten zwischen 0 % und 80 % gehandelt, die Basisrate ist nicht bekannt. Hier einige fiktive Rechenbeispiele (alle Angaben in %):

Der Test ist also bei hoher Basisrate recht zuverlässig, bei niedriger nicht. Das könnte erklären, warum in Deutschland gegenüber Italien so viel mehr positiv Getestete auf Verstorbene kommen: Vermutlich ist in Italien in der Testpopulation (krankenhauspflichtige Lungenentzündung) die Basisrate um ein Vielfaches höher als in Deutschland („Verdachtsfälle“, s.o.). Man liest oft, in Italien sei die Dunkelziffer höher als in Deutschland. Vielleicht ist in Deutschland zusätzlich aber auch die „Hellziffer“ höher, d.h. es gibt positiv Getestete, die gar nicht infiziert sind.

Die Zuverlässigkeit des Tests hängt gerade bei kleiner Basisrate sehr stark von der Spezifität bzw. Rate der falsch Positiven ab. Wenn diese nicht bekannt ist, kann man in den Satz von Bayes ganz einfach den Anteil der positiv Getesteten aus der Population einsetzen:

Der Anteil Infizierter AP unter den positiv Getesteten (S = Sensitivität, B = Basisrate) ist

AP = ( S x B ) / ( Anteil positiverTests )

 

Der Anteil positiver Tests ist leicht anhand einer Zufallsstichprobe zu  schätzen!  

Die Statistikerin Katharina Schüller hat wesentliche Probleme der bisherigen Corona-Statistiken anschaulich in einem Fokus-Artikel beschrieben und fordert regelmäßige Tests an Zufallsstichproben, um die Mängel zu beheben. Von Seiten der Medizin wird regelmäßig auf solche Forderungen geantwortet: Die Labore sind ausgelastet, dafür haben wir keine Kapazität.

Aber macht es angesichts von mehr als 50.000 „bestätigten“ Fällen in Deutschland und einer parallel verhängten Kontaktsperre für alle noch Sinn, jeden einzelnen „Verdachtsfall“ (ich erinnere, Verdachtsfall wird man nicht durch Erkrankung, sondern ausschließlich durch Kontakt mit einem positiv Getesteten oder Aufenthalt in Risikogebiet) unter Quarantäne zu stellen und zu beobachten? Wäre es nicht zielführender, die vorhandene Testkapazität aufzuteilen auf a) Patienten mit erheblichen klinischen Symptomen, und b) Zufallsstichproben? Die Zufallsstichproben müssten (per einfacher Änderung des Infektionsschutzgesetzes) aus der Einwohnermeldedatei gezogen, regelmäßig getestet und klinisch beobachtet werden, um Schätzungen für die vielen Unbekannten zu erhalten.

Eine einfache Rechnung zeigt, dass bereits einer Zufallsstichprobe von 400 Personen beispielsweise eine Rate von 5 % auf +/- 2 % genau geschätzt werden kann, und mit 2000 Personen auf +/- 1 % genau. Das würde uns schon viel weiterhelfen.

Hier können Sie eine Petition an die Bundesregierung unterzeichnen, die Tests an Zufallsstichproben fordert.




Aktuelle Daten zur Arktis: Eisfläche wird größer, Eisdicke unverändert – nix mit eisfrei …

Wie erklärt man es, dass Leute freiwillig an Kreuzzügen teilnehmen, um anderen das Heil zu bringen?
Wie erklärt man es, dass Regierungen ihre Bevölkerung auf dem Altar einer aberwitzigen Ideologie, einer Klimareligion opfern?

Weder Rex Murphy noch Patrick Moore hatten eine befriedigende Antwort.

Letztlich gibt es zwei Mittel, die man anwenden kann, um denjenigen, die sich in Lügen und wirren Ideen verheddert haben, Gelegenheit zu geben, ins normale Leben zurückzukehren, Daten/Fakten und heftige Schläge auf den Vorderkopf, die die Determination des Schlägers deutlich machen, sich nicht mehr länger belügen und schröpfen lassen zu wollen.

Passend dazu, die faszinierende Reise von Murmansk zum Nordpol und zurück auf dem nuklear getriebenem Eisbrecher 50 Years of Victory

Wir versuchen es mit Daten/Fakten.

In diesem Post haben wir die neuesten Daten über die Arktis zusammengestellt. Es ist recht ruhig geworden, um die Arktis, so wie die Klimahysteriker die Lust an vielem verloren zu haben scheinen: Brasiliens Amazonas ist in Vergessenheit geraten, die afrikanische Heuschreckenplage, die kurz in öffentlich-rechtlich beschallten Zimmer gastierte, ist weiter geflattert, im Zusammenhang mit Australien interessiert nur noch Tennis, kurz: Die guten Menschen sind zu neuen Ufern aufgebrochen, von denen aus sie ihre Katastrophenmeldungen verbreiten können.

Das Warum ist schnell erzählt: Die Realität hat sie eingeholt. Der Versuch, Klima-Panik zu schüren, ist einmal mehr gescheitert bzw. sie laufen Gefahr, beim Versuch, Klima-Panik zu schüren, mit Dakten konfrontiert zu werden.

Z.B. mit Daten zur Arktis.

Die Ausdehnung des Eises in der Arktis wächst schneller als in den vergangenen Jahren. Es gibt nicht weniger, sondern mehr Eis.

MASIE – Multisensor Analyzed Sea Ice Extent beim National Snow and Ice Data Center ansässig, veröffentlicht die aktuellsten Daten zur Ausdehnung des arktischen Meereseises. Die Daten vom heutigen Tag ergeben die folgende Abbildung:

Die Ausdehnung des Meereseises in der Arktis ist derzeit größer als sie das in den letzten vier Jahren war. Weitere Daten sind nicht notwendig. Die Klimawandel-Hysteriker behaupten: Das Eis in der Arktis werde weniger. Es wird nicht weniger. Im Gegenteil: Die Ausdehnung wird größer. Das Eis wächst.

Aber, so die nächste Linie der Verteidigung, das ist alles neues Eis, kein altes, kein dickes, nur dünnes Eis. Eine weitere Behauptung, eine weitere falsche Behauptung, wie die folgende Abbildung zeigt, auf die wir besonders stolz sind, denn sie wird aus Daten, die Cryosat liefert, der europäische Satellit, der eigens ins All gebracht wurde, um die Dicke des arktischen Eises zu messen, zusammengestellt. Die Daten werden beim Centre for Polar Observation and Modelling verarbeitet und in Abbildungen überführt, Abbildungen wie diese hier:

Wie man sieht hat sich an der Eisdicke seit 2011 nicht viel, um nicht zu sagen, nichts geändert. Verbindet man diese Beobachtung mit der Beobachtung, dass die Ausdehnung des Eises in der Arktis größer wird, dann kann man nicht anders als festzustellen: In der Arktis wächst die Eisfläche. Ein diametraler Widerspruch zu den Behauptungen und Vorhersagen der Klimawandel-Hysteriker. Wir erinnern nur an den Ober-Hysteriker Al Gore, der sich am angeblich von Menschen gemachten Klimawandel eine goldene Nase verdient:

 

(https://www.cbsnews.com/news/gore-arctic-ice-may-soon-vanish-in-summer/)

Selbstverständlich hat Al Gore kein Patent auf das Verbreiten von Klima-Hysterie, er scheint eher ein Nachahmer zu sein. Im folgenden Beitrag werden eisfreie Polkappen schon für spätestens 1989 vorhergesagt. Der Beitrag stammt aus dem Jahre 1969. 2019 hatten wir also ein rundes Jubiläum: 50-Jahre-Panikmache, und die Arktis friert immer noch.

QuelleDer Beitrag erschien zuerst bei ScienceFiles hier

Update vom 1.2.20


Die Bilderserien vermitteln einen guten Eindruck über das Eiswachstum in der Arktis in diesem Winter.

07.08.19-16.12.19
https://www.file-upload.net/download-13885015/ice-extent.gif.html
17.12.19-30.01.20
https://www.file-upload.net/download-13885014/ice-extent-2.gif.html

Mit Dank an Leser Martin Ende




KLEINE KLIMAKUNDE – Grüne Klimakiller (1)

Ja, das Wort ist Unfug. Klima kann man nicht killen, es ist und bleibt eine Wetterstatistik. Es klingt aber so schön reißerisch und vielleicht lockt es Leser an, die nur an Kohle, Öl und Gas denken, wenn jemand „Klimakiller“ sagt. Hier geht es aber um die Wirkung der gar nicht reinen Ökoenergien auf das Klima.

Die menschliche Nutzung der Wind- wie auch der Sonnenenergie ist ein Eingriff ins Ökosystem. Energie kann nicht erzeugt, nur gewandelt werden. Jede Naturenergie wird ohne menschlichen Eingriff zu 100 Prozent von der Natur genutzt, jeder Eingriff stört das ursprüngliche energetische Gleichgewicht.Solar- und Windenergie sind das Ergebnis der Sonneneinstrahlung, die wiederum einem kernphysikalischen Fusionsprozess der Sonne entspringt. Die Strahlung sorgt für direkte wie auch indirekte Energiezufuhr über Luftdruckunterschiede und Wasserkreisläufe. Sonnenenergie sorgt für die Erwärmung des Bodens, die Fotosynthese und die Verdunstung von Wasser, der Wind ebenfalls für Verdunstung und zusätzlichen Wärmeentzug.

Sobald der Mensch eingreift und Energie „abzweigt“, fehlt sie der Natur an anderer Stelle. „Jeder Eingriff in dieses bodennahe Ausgleichs- und Kühlsystem muss zu Änderungen im Wärmehaushalt der betroffenen Regionen führen“, schreiben die „Energiedetektive“ aus Graz in ihrer Studie 1). Die Entnahme von Sonnen- und Windenergie ändert natürliche Klimaprozesse. Windkraftanlagen beeinflussen die natürliche Ausgleichsströmung zwischen Zonen verschiedenen Luftdrucks, die Energie fehlt im bodennahen Kühlsystem und ändert damit auch die Wasserbilanzen. Sie greifen in das Lüftungssystem der Natur ein.

Wie das im Detail geschieht, durch welche sich überlagernden Prozesse, die sich kompensieren, aber auch verstärken können, ist noch nicht eindeutig geklärt. Es gibt eine dünne Quellenlage, die verschiedene Theorien zeigt.
Die „Energiedetektive“ gehen davon aus, dass die geminderte Energie des Windes nach der Windkraftanlage (WKA) den Boden weniger kühlt und weniger Feuchtigkeit verdunsten lässt. Weniger Verdunstung und weniger Wolkenbildung, weniger Regen in weiterer Entfernung wären die Folge. In Summe würde die Sonneneinstrahlung zunehmen, was die Erwärmung wiederum fördert.Andere gehen davon aus, dass durch die Drehung der Rotoren die laminare Schichtung der strömenden Luft aufgebrochen werde. Es erfolgt eine Umwandlung in Elektrizität mit einem Wirkungsgrad von etwas über 40 Prozent. Physikalisch bedingt unterliegt der maximale theoretische Wirkungsgrad der Windkraftanlagen der so genannten Betz-Grenze von 59 Prozent, hinzu kommen die praktischen Reibungs-, Wärmeverluste, Umwandlungs- und Leitungsverluste.

Die gegenseitige Windverschattung mehrerer Anlagen in Windindustrieparks mindert zusätzlich den rechnerischen möglichen Ertrag. Ein Teil der umgewandelten Energie wird sofort über die Verlustwärme von Generator und – sofern vorhanden – Getriebe und der Trafostation am Boden an die Umgebung abgegeben.

Der nicht umgewandelte Teil der Energie sorge für Verwirbelung. Es bilden sich so genannte Wirbelschleppen, die man sich als horizontale Tornados (geringer Intensität) vorstellen kann, die noch kilometerweit Bestand haben. Die vertikale Durchmischung der Luft bewirke einen Transport der feuchten Luft aus den bodennahen Schichten in höhere. Dabei kann es zur Auskondensation der Luftfeuchte in größerer Höhe durch den niedrigeren Druck kommen, was dann, wie auf dem Foto zu sehen, die Wirbelschleppen sichtbar macht.

Dazu komme der thermische Effekt. Durch den Luftabtransport aus bodennahen Schichten würde dem Boden Luftwärme entzogen, die feuchte Luft ziehe gleichzeitig Verdunstungswärme ab. Abkühlung und geringere Feuchtigkeit verschlechterten die Bedingungen für das Pflanzenwachstum. Die anthropogen verursachte Wolkenbildung sorge als atmosphärischer Wasserdampf für die Zunahme dieses stärksten und häufigsten Treibhausgases.

Eine weitere Theorie geht davon aus, dass die Verwirbelung der Luft zu deren Erwärmung führt und die Ablenkung nach oben sogar zu einer Verwirbelung und Zerstreuung von Wolkenfeldern führen kann.

Im Wald haben Windkraftanlagen unzweifelhaft besonders schädigenden Einfluss. Zunächst wird der Wald durch den Einschlag als CO2-Senke und Wasserspeicher dezimiert. Erosion und Auswaschung des ehemaligen Waldbodens sowie Versandung führen zu schnellerem Wasserabfluss, eine Versteppung der gerodeten Flächen droht.Hinzu kommt die unterirdische Bodenversiegelung durch die mehrere tausend Tonnen schweren Stahlbetonfundamente, die mehr als drei Meter mächtig sind. Der feuchte Boden darüber trocknet aus, das Wasser kann nicht versickern und an der Grundwasserbildung teilnehmen. Der gleiche Effekt tritt auf den verdichteten Zufahrtsstraßen und Montageplätzen auf, die in der Ausdehnung die Fundamentflächen der Anlagen weit übersteigen. Desweiteren führen die Erdkabel für die Stromableitung zu örtlicher Austrocknung des Bodens. Die klimaregulierende Wirkung des Waldes wird insgesamt reduziert, der natürliche Widerstand gegen Extremwetter verringert sich.

Der Dürremonitor des Helmholtz-Zentrums für Umweltforschung zeigt die verschiedenen Trocknungsgrade des Bodens in Deutschland im Oberboden und in etwa 1,8 Metern Tiefe an. Offensichtlich ist, dass das Gebiet der trockensten Böden etwa deckungsgleich mit der räumlichen Verteilung von Windkraftanlagen ist.
Korrelation ist nicht Kausalität, der Bezug scheint dennoch augenfällig. Deckungsgleichheit mit der Niederschlagsverteilung besteht hingegen, abgesehen vom Osten des Landes, nicht.

Die Erkenntnisse sind nicht neu. Die Wirkung von Windkraftanlagen auf die Bodenfeuchte wurde bereits vom Wissenschaftlichen Dienst des Bundestages (WD8-3000-057/13) beschrieben. Dass dies öffentlich kaum kommuniziert wird, ist Ergebnis von Lobbyarbeit und Energiewendeerfolgsjournalismus in unseren Medien.
Ebenso korrelieren der Ausbau der Windenergie und die Anzahl der Tornadomeldungen in Deutschland 1). Wachsen mehrere Windindustrieparks räumlich zusammen, wie zum Beispiel in der Uckermark, kann man davon ausgehen, dass die Beeinflussung des Mikroklimas zu einer Änderung des Regionalklimas führt.

Klima ist mehr als nur Temperatur

Die durchschnittlichen Windgeschwindigkeiten scheinen zu sinken. Ursache könnten die vielen Windkraftanlagen an der Nordseeküste und in der norddeutschen Tiefebene sein. Wurden in den 60er Jahren in Osnabrück noch im Jahresdurchschnitt 3,7 Meter pro Sekunde Wind gemessen, sind es heute nur noch 3,2 Meter pro Sekunde 2). Dies könnte die Verdunstung mindern, in heißen Sommern jedoch auch die Abkühlung und damit Extremtemperaturen begünstigen.Bei der Offshore-Windkraftnutzung beträgt die Luftfeuchte am Fuß der Anlage, also auf Wasserspiegelhöhe einhundert Prozent. Dementsprechend werden größere Mengen Feuchtigkeit in höhere Luftschichten befördert, was mehr als an Land die Wolkenbildung und damit die Bildung des Treibhausgases Wasserdampf fördert.

Die Frage, ob die Nutzung der Windenergie „gut“ ist fürs Klima, lässt sich nur mit „nein“ beantworten. Sie kann die Bildung von Treibhausgas (Wasserdampf) fördern, für Austrocknung des Bodens sorgen und damit für verringerte Fotosynthese als CO2-Senke. Bezüglich der quantitativen Auswirkungen gilt auch hier das Wort von Paracelsus: Die Dosis macht`s. Der bisherige massenhafte Ausbau und der geplante exzessive Zubau zu den schon vorhandenen fast 30.000 Anlagen im Land steigern die negativen Umwelt- und Klimawirkungen.

Jede Windkraftanlage muss durch ein fast 100-prozentiges konventionelles Backup im Netz abgesichert werden, das wiederum Klimawirkung hat. Der Lastfolgebetrieb konventioneller Anlagen in nicht optimalen Betriebsbereichen erhöht deren spezifische Emissionen pro Kilowattstunde. Der „Wasserbetteffekt“ über den europäischen Emissionshandel (Windstrom verdrängt Emissionszertifikate ins Ausland und hält deren Preis niedrig) kommt hinzu.

Verhinderte Forschung

Zur genaueren Bewertung der Folgen der Windenergienutzung bräuchte es Messnetze im Bodenbereich für Aufzeichnungen von Temperatur und Luftfeuchte und deren Betrieb und Auswertung über längere Zeiträume. Zunächst bräuchte es aber den politische Willen und das Geld dazu, dies untersuchen zu lassen. Auf eine Anfrage der FDP-Bundestagsfraktion zum massenhaften Insektensterben an den Rotorblättern der Windkraftanlagen antwortete Umweltministerin Schulze, dass sie keinen Handlungsbedarf sehe. Man möchte die Welt, wie sie gefällt. Oder um es mit Schopenhauer zu sagen: „Was dem Herzen widerstrebt, lässt der Kopf nicht ein.“Mit den grünen „Klimakillern“ verhält es sich genauso. Viel einfacher ist es für Politiker und Journalisten, fossile Verbrennungsprozesse allein für Klimawandel und das Elend dieser Welt verantwortlich zu machen.

Was bewirkt exzessive Windenergienutzung? Zugestellte Landschaften, ihrer Weite und ihrer Ruhe beraubt, Windindustriegebiete anstelle Natur. Der Blick darauf ist subjektiv. Manche verdienen an jeder Drehung des Rotors und sogar dann, wenn er steht, weil der Strom nicht abgenommen werden kann. Andere leiden unter Infraschall, haben Schlafprobleme, Bluthochdruck und den Wertverfall ihrer Immobilie. Auch hier wird die Gesellschaft gespalten.

Die Auswirkungen auf die Umwelt sind erheblich, auf Menschen, Flora und Fauna. Diese Themen sind an vielen Stellen schon beschrieben, zum Beispiel hier, hier und hier.

Windkraftanlagen beeinflussen das regionale Wetter und wirken sich langfristig auf das Klima aus. Dieses Feld der Forschung ist vor allem hinsichtlich seiner quantitativen Auswirkungen noch ausgesprochen unterbelichtet. Sollten Leser dazu weitergehende Erkenntnisse oder Quellen haben, nehmen wir diese gern entgegen.

In Teil 2 geht es um die Wirkungen der Photovoltaik auf den Treibhauseffekt.

1) Dieser Beitrag entstand unter maßgeblicher Verwendung einer ausführlichen Studie „Ermittlungsakte Energiewende – Nebenwirkungen auf Klima und Umwelt“
vom „Energiedetektiv“ aus Graz. Hier der Weg zur Studie.

2) donnerwetter.de, Pressemitteilung vom 29.5.2015

Der Beitrag erschien zuerst bei TE hier




Meeresspiegel und effektives N

Ich erwiderte:

Brandon, FALLS es eine solche Beschleunigung gibt, ist sie vernachlässigbar gering. Ich kann nirgendwo einen statistisch signifikanten Beweis dafür finden, dass er real ist. Allerdings „leugne“ ich überhaupt nichts*. Ich stehe lediglich nicht hinter den entsprechenden Statistiken.

[*Eschenbach drückt sich im Original etwas drastischer aus. Anm. d. Übers.]

Brandon antwortete:

,Falls es eine solche Beschleunigung gibt‘: Es gibt sie, Willis! Und ich zeige es dir gleich. – ,sie ist vernachlässigbar gering‘ Wenn du ein besseres Modell hast, wie das Klima abläuft, dann kannst du mit mir über relative Größenordnungen von Auswirkungen sprechen.

Brandon unterstrich seine nicht gestützten Behauptungen mit der folgenden Graphik der Lufttemperatur, wobei ich nicht so genau weiß warum … ich glaube, er griff hastig nach der erstbesten Graphik und verwechselte diese mit Meeresspiegel.

Nun habe ich kürzlich einen Beitrag zum Anstieg des Meeresspiegels geschrieben mit dem Titel „Inside The Acceleration Factory” [etwa: innerhalb der Beschleunigungs-Maschinerie]. Allerdings geht das Problem hinsichtlich von Behauptungen über den Meeresspiegel tiefer. Es besteht darin, dass die entsprechenden Daten in sehr hohem Maße autokorreliert sind.

„Autokorreliert“ im Zusammenhang mit einer Zeitreihe wie Meeresspiegel oder Temperatur bedeutet, dass die Gegenwart mit der Vergangenheit korreliert ist. Mit anderen Worten, Autokorrelation bedeutet, dass heiße Tage wahrscheinlicher heiße Tagen als kühle Tagen folgen, und umgekehrt. Gleiches gilt für warme und kalte Monate oder warme und kalte Jahre. Erstreckt sich eine solche Autokorrelation über lange Zeiträume, Jahre oder Jahrzehnte, nennt man das oft „langzeitliche Persistenz“ oder LTP.

Und Trends sind sehr verbreitet in LTP zeigenden Datensätzen. Eine andere Art, dies zu beschreiben, findet sich in einem Beitrag im Magazin Nature aus dem Jahr 2005 mit dem Titel „Nature’s Style: Naturally trendy“. Das kommt ziemlich genau hin. Natürliche Datensätze neigen dazu, Trends verschiedener Länge und Stärke zu zeigen aufgrund von LTP.

Und diese langzeitliche Persistenz LTP führt zu großen Problemen, wenn man zu bestimmen versucht, ob der Trend in einer gegebenen Zeitreihe statistisch signifikant ist oder nicht. Um dies zu erläutern, möchte ich das Abstract von „Naturally Trendy“ diskutieren. Die Ausschnitte daraus sind kursiv gesetzt. Es beginnt so:

Hydroklimatologische Zeitreihen zeigen oftmals Trends.

Stimmt. Zeitreihen von Durchflussmenge in Flüssen, Regenmenge, Temperatur und so weiter haben Trends.

Während die Größenordnung von Trends ziemlich genau bestimmt werden kann, ist die korrespondierende statistische Signifikanz, welche manchmal zur Untermauerung wissenschaftlicher oder politischer Argumente herangezogen wird, weniger sicher, weil die Signifikanz entscheidend abhängt von der Null-Hypothese, welche wiederum subjektive Dinge reflektiert darüber, was man zu sehen erwartet.

Halten wir hier mal kurz an. Über jedwedes vorgegebene Zeitintervall befindet sich jede wetterbezogene Zeitreihe, sei das nun Temperatur, Regenmenge oder welche Variable auch immer, in einem von zwei Zuständen:

Aufwärts oder

Abwärts.

Die relevante Frage für einen gegebenen Wetter-Datensatz lautet also niemals „zeigt sich ein Trend?“. Der zeigt sich immer, und wir können dessen Größe messen.

Die relevante Frage lautet vielmehr: ist ein vorhandener Trend ein UNGEWÖHNLICHER Trend oder spiegelt er einfach nur die natürliche Variation?

Nun haben wir Menschen einen gesamten großen Bereich der Mathematik erstellt, genannt „Statistik“, um genau diese Frage zu beantworten. Wir sind Spekulanten, und wir wollen die Möglichkeiten ausloten.

Allerdings stellt sich dann heraus, dass die Frage nach der Ungewöhnlichkeit eines Trends etwas komplizierter ist. Die wirkliche Frage lautet: ist der Trend UNGEWÖHNLICH – im Vergleich zu wem oder was?

Die gute alte mathematische Statistik beantwortet die folgende Frage: ist der Trend UNGEWÖHNLICH im Vergleich zu Zufallsdaten? Und das ist eine sehr nützliche Frage. Sie ist auch sehr genau für wirkliche Zufalls-Spielerchen wie etwa würfeln. Nehme ich einen Würfelbecher mit zehn Würfeln darin und bekomme beim Würfeln zehnmal die Augenzahl drei, würde ich sonstwas darauf wetten, dass die Würfel gezinkt sind.

ALLERDINGS – und das ist ein sehr großes allerdings – wie sieht es aus, wenn die Frage lautet, ob ein gegebener Trend ungewöhnlich nicht im Vergleich zu einer Zufalls-Zeitreihe ist, sondern zu einer autokorrelierten zufälligen Zeitreihe ist? Und im Besonderen, ist ein gegebener Trend ungewöhnlich im Vergleich zu einer Zeitreihe mit langzeitlicher Persistenz (LTP)? Sie fahren in ihrem Abstract fort:

Wir betrachten statistische Trends hydroklimatologischer Daten beim Vorhandensein von LTP.

Sie führen eine Reihe von Trend-Tests durch, um herauszufinden, wie gut diese sich im Vergleich zu Zufalls-Datensätzen mit LTP machen.

Monte Carlo-Experimente mit FARIMA-Modellen zeigen, dass Trend-Tests ohne Berücksichtigung von LTP die statistische Signifikanz beobachteter Trends mit LTP erheblich überschätzen.

Einfach gesagt, reguläre statistische Tests, die LTP nicht berücksichtigen, zeigen fälschlich signifikante Trends, obwohl diese in Wirklichkeit einfach nur natürliche Variationen sind. Im Hauptteil der Studie liest man dazu:

Noch wichtiger ist, wie Mandelbrot und Wallis (1969b, S. 230-231) beobachteten, „eine wahrnehmbare markante Charakteristik fraktionalen Rauschens ist, dass deren Beispielfunktionen eine erstaunliche Vielfalt von ,Besonderheiten‘ aller Art zeigen, einschließlich Trends und zyklischer Schwingungen mit unterschiedlichen Frequenzen“. Man kann sich leicht vorstellen, dass LTP verwechselt werden kann mit Trend.

Das ist eine sehr wichtige Beobachtung. „Fraktionales Rauschen“, also Rauschen mit LTP, enthält eine Vielfalt von Trends und Zyklen, die natürlich und im Rauschen inhärent sind. Aber diese Trends und Zyklen haben keinerlei Bedeutung für irgendetwas. Sie tauchen auf, dauern eine Weile an und verschwinden wieder. Es sind keine fixierten Trends oder permanente Trends. Sie sind die Folge der LTP und nicht extern angetrieben. Sie sind auch nicht diagnostisch – man kann nicht davon ausgehen, dass die Gegenwart von etwas, das wie ein 20-Jahre-Zyklus aussieht, ein konstantes Merkmal der Daten ist, und er kann auch nicht herangezogen werden als ein Mittel zur Vorhersage der Zukunft. Er könnte einfach ein Teil von Mandelbrots „erstaunlicher Vielfalt von Besonderheiten“ sein.

Der gebräuchlichste Weg, mit LTP umzugehen, ist der Gebrauch von etwas, was „effektives N“ genannt wird. In der Statistik „repräsentiert N die Anzahl der Datenpunkte. Haben wir also z. B. zehn Jahre mit monatlichen Datenpunkten, heißt das N = 120. Je mehr Datenpunkte man hat, desto stärker im Allgemeinen die statistischen Schlussfolgerungen … aber wenn LTP präsent ist, wird die statistische Signifikanz erheblich überschätzt. Und mit „erheblich“ kann mit regulären statistischen Verfahren leicht eine Überschätzung der Signifikanz um 25 Größenordnungen herauskommen …

Ein allgemeines Verfahren zur Berücksichtigung dieses Problems ist die Berechnung der Signifikanz derart, als ob es sich um eine viel kleinere Anzahl von Datenpunkten handelt, also ein kleineres „effektives N“. Dann führen wir die regulären statistischen Tests noch einmal durch.

Ich selbst verwende jetzt das Verfahren von Koutsoyiannis, um das „effektive N“ zu berechnen. Das hat mehrere Gründe.

Erstens, man kann es mathematisch aus bekannten Grundsätzen ableiten.

Zweitens, es ist abhängig von genau gemessenen Persistenz-Charakteristika des analysierten Datensatzes, sowohl lang- als auch kurzfristig.

Drittens, wie im Link oben schon diskutiert, war das von mir unabhängig davon entwickelte Verfahren zu diesem Zweck genau das, welches Demetris Kousoyannis schon gefunden hatte. Er wird oft erwähnt in der Studie „Naturally Trendy“.

Damit als Prolog komme ich jetzt zurück zur Frage nach dem Anstieg des Meeresspiegels. Es gibt ein paar Rekonstruktionen dieses Anstiegs. Die grundlegendsten davon stammen von Jevrejeva sowie Church und White und auch aus den TOPEX/JASON-Daten. Hier folgt eine Graphik aus dem oben erwähnten Beitrag. Sie zeigt die Daten von Tiden-Messpunkten nach Church und White:

Nun habe ich in meinem anderen Beitrag schon darauf hingewiesen, dass sich … komischerweise … mit genau dem gleichen Startpunkt wie die Satelliten-Aufzeichnungen, also 1992, der Trend in den Tiden-Daten von Church und White mehr als verdoppelt hat.

Und während diese Änderung des Trends an sich schon bedenklich ist, gibt es ein noch größeres Problem. Das zuvor erwähnte „effektive N“ ist eine Funktion von etwas, das man den „Hurst-Exponenten“ nennt. Der Hurst-Exponent ist eine Zahl zwischen Null und +1, welche die Größe der LTP anzeigt. Ein Wert von ein-halb bedeutet keine LTP. Hurst-Exponenten von Null bis ein-halb zeigen negative LTP (Wärme gefolgt von Kälte usw.) und Werte über ein-halb zeigen die Existenz von LTP (warm gefolgt von warm usw.) Je näher der Hurst-Exponent bei 1 liegt, umso mehr LTP zeigt sich in dem Datensatz.

Und wie groß ist nun der Hurst-Exponent im oben gezeigten Datensatz von Church und White? Nun, er beträgt 0,93, also fast schon 1 … ein sehr, sehr hoher Wert. Teilweise schreibe ich dies der Tatsache zu, dass jedwede globale Rekonstruktion das Mittel aus Aberhunderten Tiden-Aufzeichnungen ist. Führt man eine großräumige Mittelung durch, kann die LTP im resultierenden Datensatz verstärkt werden.

Und wie groß ist nun das effektive N, also die effektive Anzahl von Datenpunkten, in den Daten von Church und White? Beginnen wir mit „N“, also der tatsächlichen Anzahl der Datenpunkte (in unserem Fall hier Monate). In den Meeresspiegel-Daten von C&W umfasst die Anzahl der Datenpunkte 1608 Monate mit Daten, also N = 1608.

Weiter, das effektive N (normalerweise abgekürt als „Neff“) ist gleich:

N (Anzahl der Datenpunkte) hoch 2*(1 – Hurst-Exponent))

Und 2* (1 – Hurst-Exponent) ist gleich 0,137. Daraus folgt:

Neff = N(2 * (1 – Hurst-Exponent)) = 16080,137 = 2,74

Mit anderen Worten, die C&W-Daten enthalten so viel LTP, dass sie sich im Endeffekt so verhalten, als ob es nur drei Datenpunkte gäbe.

Reichen nun diese drei Datenpunkte aus, um einen Trend in den Daten bzgl. Meeresspiegel zu finden? Nun, fast, aber nicht ganz. Mit einem effektiven N von drei beträgt der p-Wert des Trends in den C&W-Daten 0,07. Dies liegt etwas oberhalb dessen, was in der Klimawissenschaft als statistisch signifikant gilt; das ist ab einem Wert von 0,05 der Fall. Und hätte man ein effektives N von vier anstatt von drei, wäre es tatsächlich statistisch signifikant mit einem p-Wert kleiner als 0,05.

Hat man jedoch nur drei Datenpunkte, reicht das noch nicht einmal aus, um zu erkennen, ob die Ergebnisse verbessert werden durch Hinzufügen eines Beschleunigungs-Terms in die Gleichung. Das Problem hierbei ist, dass man mit einer zusätzlichen Variable jetzt drei regelbare Parameter für die Berechnung kleinster Quadrate hat bei nur drei Datenpunkten. Dies bedeutet, dass man Null Freiheitsgrade hat … das funktioniert nicht.

„Leugne“ ich also, dass sich der Meeresspiegel-Anstieg auf signifikante Weise verstärkt?

Aber nein, ich leugne gar nichts. Stattdessen sage ich, dass wir nicht über die Daten verfügen, die wir brauchen, um die Frage zu beantworten, ob sich der Anstieg beschleunigt.

Gibt eine Lösung für das LTP-Problem in den Datensätzen? Nun, ja und nein. Es gibt in der Tat Lösungen, aber den Klimawissenschaftlern scheint es vorbestimmt, diese zu ignorieren. Ich kann nur vermuten, dass der Grund hierfür darin zu suchen ist, dass viele Behauptungen bzgl. signifikanter Ergebnisse zurückgezogen werden müssten, falls man die statistische Signifikanz korrekt berechnen würde. Noch einmal zu der Studie „Nature’s Style: Naturally Trendy“:

In jedem Falle gibt es aussagekräftige Trend-Tests zur Bestimmung der LTP.

Es ist daher überraschend, dass in fast jeder Abschätzung einer Trend-Signifikanz bei geophysikalischen Variablen während der letzten paar Jahrzehnte eine angemessene Berücksichtigung der LTP nicht vorhanden ist.

In der Tat, das ist überraschend, besonders wenn man sich in Erinnerung ruft, dass die Studie Naturally Trendy bereits vor 14 Jahren veröffentlicht worden ist … und die Lage hat sich seitdem nicht verbessert. LTP wird nach wie vor nicht angemessen berücksichtigt.

Noch einmal zu der Studie:

Diese Ergebnisse haben Implikationen sowohl für die Wissenschaft als auch für die Politik.

Beispiel: Hinsichtlich der Temperaturdaten gibt es überwältigende Beweise, dass sich der Planet über das vorige Jahrhundert erwärmt hat. Aber ist diese Erwärmung der natürlichen Dynamik geschuldet? Angesichts dessen, was wir über die Komplexität, langzeitlicher Persistenz und Nicht-Linearität des Klimasystems wissen, scheint die Antwort Ja! zu sein.

Ich bin sicher, dass man die Probleme sieht, welche eine derartige statistische Ehrlichkeit einem viel zu großen Teil der Mainstream-Klimawissenschaft bereitet …

Link: https://wattsupwiththat.com/2019/02/20/sea-level-and-effective-n/

Übersetzt von Chris Frey EIKE




Datenana­lyse: Erwärmung nur unter demo­kratischen, aber nicht unter republi­kanischen Präsi­denten

Temperaturdaten der NOAA

Ein anonymer Kommentator dieses Blogs [WUWT] versendet die oben stehende Graphik und schreibt dazu:

Ich betrachtete die Aufzeichnung der globalen Temperatur und bemerkte eine seltsame Korrelation. Ich berechnete den Temperaturtrend für jede Präsidentschaft separat und multiplizierte das Ergebnis mit der Anzahl der Jahre, um eine „Gesamt-Temperaturänderung“ zu erhalten. Falls es in einem bestimmten Jahr mehr als nur einen Präsidenten gab, rechnete ich für beide. Ich habe nicht in Statistiken herumgespielt, um die Größe der Änderung zu erfassen. Vielleicht ergeben sich bei einer anderen Betrachtungsweise andere Ergebnisse, aber das hier machte ich als erstes.

Es stellte sich heraus, dass alle 8 Regierungen, welche einen Abkühlungstrend überwachten, von den Republikanern gestellt worden sind. Es gab keinen einzigen Präsidenten der Demokraten, der einen Abkühlungstrend überwachte. Auch waren alle 6 Präsidenten während der stärksten Erwärmungstrends von den Demokraten.

Ich habe keine Ahnung, was das bedeuten könnte, aber ich halte es für interessant.

Mein erster Gedanke jenseits einfacher Zufalls-Erscheinungen mit kleinem N war etwas, das Larry Bartels vor ein paar Jahren bemerkte, dass nämlich die Wirtschaft während der letzten Dekaden unter demokratischen Präsidenten stärker gewachsen ist als unter republikanischen Präsidenten. Aber der Zeitmaßstab funktioniert nicht, um diesen auf die globale Erwärmung zu übertragen. Vielleicht auf CO2-Emissionen, aber ich glaube nicht, dass er sich in der globalen Temperaturaufzeichnung so direkt zeigt.

Also bezeichne ich diese Datenverteilung als „auch eine von denen“. Mein Korrespondent schreibt:

Ich erwarte zu hören, dass es als eine „unechte Korrelation“ verworfen wird, aber normalerweise höre ich dieses Argument bzgl. Korrelationen von Leuten, welche diese Korrelationen „nicht mögen“ (klingt seltsam/lächerlich) und nicht wirklich weiter erklärt wird. Es kommt mir so vor, dass falls man argumentieren will, dass eine Korrelation „unecht“ ist, man immer noch einen unbekannten dritten Faktor ausmachen muss.

In diesem Falle weiß ich nicht, ob man einen unbekannten dritten Faktor spezifizieren muss, weil man dieses Muster vielleicht auch aus Zufallszahlen erhält, falls man nur ausreichend viele Dinge betrachtet. Gabelungen und so weiter. Auch gab es viele republikanische Präsidenten in den frühen Jahren dieser Zeitreise, bevor das Theater um die globale Erwärmung angezettelt worden ist. Und ich habe die Zahlen in der Graphik nicht selbst gecheckt.

Link: https://wattsupwiththat.com/2019/02/13/data-analysis-global-temperature-has-not-increased-under-republican-presidents-only-democrats/

Übersetzt von Chris Frey EIKE




Windkraft 2018: „Die fossilen Brennstoffe der vergangenen Jahre werden abgebaut“… im Einhorn Fantasy-Land.

* **

Von Mike Brown, am 5. Februar 2019 auf Invers unter sauberer und nachhaltiger Energie verfasst:

Die Statistik zeigt, 2018 war ein riesiges Jahr für Windstrom und es wird noch mehr kommen

Es ist ein fliegender Start.

Die Kapazität der Windenergie in Nord-, Mittel- und Südamerika stieg im vergangenen Jahr um 12 Prozent. Dies wurde vom Global Wind Energy Council (GWEC) festgestellt. Weltweit wurden weitere 11,9 Gigawatt Kapazität hinzugefügt, wobei in den Vereinigten Staaten und Brasilien die größten Anleger zu finden sind.

Der Bericht ist ein gutes Zeichen für Pläne, mehr Energieverbrauch auf nachhaltige Quellen umzustellen und den Verbrauch fossiler Brennstoffe von gestern zu senken.

[…]

Inverse (der Logik, der Vernunft und der realen Welt)

***

Handzeichen…?

  1. Wer glaubt, dass Mike Brown den Unterschied zwischen Kapazität (Anschlussleistung) und Generation (abgegebene Energie) versteht?
  2. Wer glaubt, dass Mike Brown tatsächlich glaubt, dass 11,9 Gigawatt neuer Windkapazitäten im Vergleich zum Anstieg der Rohölproduktion im Jahr 2018 eine große Zahl sind?

So sieht es aus, wenn „die fossilen Brennstoffe vergangener Jahre abgebaut werden“ – im Vergleich zu tatsächlich erzeugter Energie der Windkraft.

BP 2018 & US-EIA_dropkickingwind

US-Erdölproduktion vs. globale Windstromproduktion (2016-2018). Die US-Rohölproduktion für 2018 beinhaltet keinen Dezember. Die weltweite Windenergieproduktion für 2018 wurde mit einem Wachstum von 12% geschätzt. Datenquellen: BP 2018 Statistical Review der World Energy und US Energy Information Administration.

In der Realität sind fossile Energieträger erneuerbare Träume und werden dieses auf absehbare Zeit bleiben. Das Wachstum der amerikanischen Rohölproduktion in den USA war im Vergleich zum Vorjahr 7-8-fach so hoch wie Erzeugung von Windstrom in der gesamten weiten Welt von 2016 bis 2018.

Zeit für meine Lieblingsgrafik…

EIA – Energieverbrauch – nach Quellen Welt

Das Verblüffende ist, dass der Mensch und die Zivilisation weitaus stärkere Klimaveränderungen bewältigten, bevor jemand herausfinden konnte, wie man Kohle, Erdöl und Erdgas verbrennt.

Auf der oben verlinkten Webseite von Invers ist weiter zu lesen

 … Wichtige Highlights kamen aus Nordamerika, das der Vorstandsvorsitzende des GWEC, Ben Backwell, als „einer der ausgereiftesten und wettbewerbsfähigsten in der Windbranche“ bezeichnete, wo der Wind mehr als 160.000 Arbeitsplätze unterstützte. Brasilien leistete einen weiteren herausragenden Beitrag, indem es zwei Gigawatt hinzufügte und mehr zu einem konkurrenzfähigen Preis von 22 USD pro Megawattstunde versteigerte.

Mehr dazu: Warum erneuerbare Energien die am schnellsten wachsende Energiequelle werden sollen

Der Bericht folgt Trends und Regierungszielen, die auf nachhaltige Energie ausgerichtet sind. Mexiko, das im letzten Jahr ein Gigawatt Wind auf fünf Gigawatt aufgestockt hat, soll vor 2024 35 Prozent der gesamten Stromkapazität aus erneuerbaren Energien erreichen. Das Energieministerium der Vereinigten Staaten von Amerika hat im letzten Monat gezeigt, dass die erneuerbaren Energien zuletzt drei Prozent der Gesamtkapazität ausmachen eine Zahl, die bis 2020 auf 13 Prozent steigen wird.

USA-EIA, predicted-energy-generation-based-on-source

Neben der Rettung des Planeten werden diese Initiativen voraussichtlich Kostenvorteile bieten. Die Schweizer Investmentbank UBS machte im vergangenen August geltend, dass die Kosten solcher Quellen bis 2030 so nahe an Null gehen könnten, „dass sie fast kostenfrei sein werden“.

Aha, Windstrom summierte sich in den USA übers Jahr auf drei Prozent der elektrischen Energie auf. Wann und in welcher nutzbaren Menge – weiß nur der Wind.

Gefunden über WUWT vom 06.02.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/02/06/2018-wind-power-dropping-the-fossil-fuels-of-yesteryear-only-in-unicorn-fantasy-land/