1

Duplik auf die Kritik von Justus Lex an meinem Artikel zur Verfassungswidrigkeit der beiden Shutdownbeschlüsse

Er ist auch einverstanden mit meiner Einschätzung der Verfassungswidrigkeit des Shutdownverlängerungsbeschlusses vom 15. 4. 2020. Das sind schon 75 % Übereinstimmung. Dissens besteht bezüglich der verfassungsrechtlichen Einordnung des ersten Shutdownbeschlusses vom 23. 3. 2020. Hier übersieht Lex die umfassende empirische Studie aus Frankreich mit dem schon alles sagenden Titel „SARS-CoV-2 : fear versus data“. Hätte er seine Energien nicht so stark auf die Feinheiten des Verfassungsprozessrechts konzentriert, sondern auf diese bahnbrechende Studie, welche SARS-CoV-2 in seiner Gefährlichkeit gleichsetzt  mit der alltäglicher  Coronaviren, hätte er im Quellenverzeichnis bemerkt, dass die Studie am 19. 3. 2020 erschienen ist, vier Tage vor dem Shutdownbeschluss. Es gehört zu den essentiellen Aufgaben eines auf Epidemien spezialisierten Instituts wie des Robert Koch Insituts ( RKI ), die einschlägige internationale Fachliteratur im Blick zu haben, gerade im Vorfeld eines für das Land so bedeutsamen Regierungsbeschlusses. Dann hätte es unverzüglich die Bundesregierung unterrichten müssen und diese hätte angemessen reagieren, d.h. auf den Shutdown verzichten müssen.

Ich muss aber einräumen, dass ich in meinem Text den zeitlichen Vorlauf des Erscheinens der Studie zum späteren Shutdownbeschluss nicht kommuniziert habe. Am Ende eines herausfordernden Schreibprozesses, in dem ich mich mit der fremdartigen epidemiologischen Materie vertraut machen musste,  war mir offensichtlich die Konzentration abhanden gekommen. Umso mehr wäre ich auf aufmerksame Leser angewiesen gewesen.

 

2.  Ich bin erstaunt über das Hohe Lied, das Lex auf das RKI anstimmt. Auf das Unterlassen zentraler epidemiologischer Unterscheidungen bezüglich des Krankheitszustands der Infizierten und der eigentlichen Todesursache , verabsäumt durch die Politik uind das RKI, habe ich gleich zu Beginn meines Artikels hingewiesen. Diese Unterlassungen hatten eine unnötige Beunruhigung und Angsterzeugung in der Bevölkerung zum Ergebnis. Das RKI hat bis in die unmittelbare Gegenwart den epidemiologischen hardliner gespielt.  Seitdem die Fallzahlen deutlich sinken, fängt der Präsident des RKI plötzlich an, von der „zweiten oder gar dritten Infektionswelle“ zu fabulieren. Dies ist reine Angstmache, seit hundet Jahren hat es in Deutschland keine Infektionswelle gegeben, welche nach dem Abklingen noch einmal angeschwollen wäre. Das ist genau die angsterzeugende Rolle, die das Umweltbundesamt, wie das RKI eine Bundesoberbehörde, in der Klimapolitik spielt. Diese auffällige Parallele hätte Lex eigenlich nicht entgehen dürfen.

 

3.  Stichwort: Risikoanalyse von 2013. Dazu stelle ich Lex nur eine Frage: Warum ist ihm die völlig überzogene Risikoanalyse der Bundesregierung von 2013 ( 26 Mio Kranke und 7,5 Mio. Tote in Folge einer Sars-Epidemie ) so bedeutsam, die Risikoanalyse des Weltklimarats IPCC bezüglich des Klimawandels ( Gefahr des Untergangs der ganzen Menschheit in wenigen Jahrzehnten ) aber, wie ich mal unterstelle, nicht ?

 

4.  Rechtfertigung der deutschen Coronapolitik durch Lex: Nahezu alle Länder der Welt haben ähnlich drakonische Maßnahmen ergriffen. Gegenfeststellung : 190 Länder haben das Pariser Klimaschutzabkommen unterschrieben. Frage: Wird es dadurch richtig?

 

5.  Die Einschätzungsprärogative des Gesetzgebers / Verordnungsgebers, die grundsätzlich besteht, ist umso geringer, je intensiver der Grundrechtseingriff ist. Der Grundrechtseingriff durch den Shutdown ist historisch beispiellos. Daher kommt der strengste richterliche Kontrollmaßstab, die Inhaltskontrolle, zum Zuge. Die Einschätzungsprärogative ist hier auf  Null reduziert. Da wird vom Gericht alles auf Punkt und Komma auf den Prüfstand gestellt. In unserem Fall würde das Gericht bei der Prüfung des  Shutdownbeschlusses vom 23. 3. 2020 nicht nur die  französischen Studie, sondern etwa auch etwa die Beispiele Südkorea und Schweden in Betracht ziehen, die – ohne Shutdown- erfolgreich mit dem Coronaproblem umgegangen sind. Das Gericht würde auch die erstaunliche Entwicklung des Reproduktionswerts R in seine Erwägung einbeziehen, auf die ich in meinem Artikel hingewiesen habe. R hatte sich in Deutschland von einer Messzahl weit über 3 in kurzer Zeit nach unten bewegt und war bereits einige Tage vor dem Shutdownbeschluss vom 23. 3. 2020 auf unter 1 gefallen –  ein Wert, den Merkel immer wieder als Ziel angegeben hatte. Bei all diesen entscheidungsrelevanten Faktoren könnte sich die Bundesregierung nicht darauf berufen, sie nicht gekannt oder anders gewichtet zu haben.

 

6.  Lex rekurriert bei der Verfassungsbeschwerde maßgeblich auf den Grundsatz der Subsidiarität. Dieser Grundsatz ist inder Tat zentral für die Verfassungsbeschwerde., es gibt aber in Form der sog. Vorabentscheidung gem § 90 Abs.2 S. 2 BVerfGG eine wichtige Ausnahme, die von Lex ignoriert wird. Das BVerfG kann, wenn eine Verfassungsbeschwerde von „allgemeiner Bedeutung “ ist, vor Erschöpfung des Rechtwegs entscheiden. Wann, wenn nicht im gegenwärtigen Fall einer historisch beispiellosen Grundrechsbeeinträchtigung einer ganzen Nation, liegt die „allgemeine Bedeutung“ vor.? Ich glaube, es gibt gute Gründe, diese Verfassungslage nicht von einem mit drei Verwaltungsrichtern besetzten OVG beurteilen zu lassen, sondern vom BVerfG.

 

7.  Das für Lex so zentrale Verfassungsprozessrecht spielt in der universitären Praxis überhaupt keine Rolle. Ich bin Prof. für Öffentliches Wirtschafts- und Finanzrecht, d.h. für materielles Recht, nicht für Prozessrecht, welcher Art auch immer. Zusätzlich bin ich einer  der ganz wenigen Juristen mit einer interdisziplinären Venia, welche auch noch die Politikwissenschaft einschließt. Mein Interessenspektrum ist weit, daher lese ich Eike ( u.a. ).

Mein Artikel war auch nicht für den “ nach Recht suchenden Bürger “ ( Zitat Lex ) gedacht, Rechtsberatung machen die Rechtsanwälte. Sondern als kritische interdisziplinäre Analyse der Coronahysterie einschließlich der verfassungsrechtlichen Einordnung der staatlichen Beschränkungsmaßnahmen. Dass Lex die Parallele zur Klimahysterie nicht erkennt, finde ich außerordentlich bedauerlich.




Bericht zur Coronalage 07.05.2020 – eine Risikoabwägung fand und findet nicht statt

Zwei Analysen sind getrennt durchzuführen, jeweils in zwei Unterkategorien. Erstens die Analyse der Gefährlichkeit der Krankheit selbst, mit den Unterkategorien Risiko für den Erkrankten und Risiko für die Allgemeinheit. Zweitens eine Analyse der möglichen Schutzmaßnahmen, unterteilt in die Unterkategorien Nutzen und Schaden, den sie verursachen. Die erste Risikoanalyse ist eine rein medizinische. Bei der zweiten sind alle möglichen Fächer und Gebiete gefordert.

In den beiden vorangegangenen Coronabeiträgen ging es um die Gefährlichkeit der Erkrankung für die Allgemeinheit. Dies ist die Domäne der Epidemiologen und Immunologen. Und man kann es gar nicht oft genug sagen, nicht die der Virologen, die fälschlicherweise in den Medien dazu stets befragt werden. Sprechen wir nun von der Gefährlichkeit der Krankheit, die den Namen Covid-19 erhalten hat, für den Erkrankten selbst. Und diese Frage können die medizinischen Praktiker beantworten.

Wie gefährlich ist Covid-19 für die daran Erkrankten?

Wie sehen Verlauf und Therapie bei der Krankheit mit namen Covid-19 aus, gibt es Folgeschäden und wer ist davon betroffen? Beginnen wir mit dem Tod. Hic Gaudet Mors Succurrere Vitae(hier freut sich der Tod, dem Leben zu helfen), lautet der Wahlspruch der Pathologie. Sie ist es, die uns vor allen sagen kann, wie man an einer Erkrankung verstirbt bzw. wegen oder mit ihr. Doch dazu benötigt es eine fachgerechte Obduktion, die anfangs regelrecht verhindert wurde, weil als Covidtote geltende Verstorbene panisch sofort in Plastiksäcke verfrachtet und verbrannt wurden. Dies hat sich durch die Intervention der Pathologen geändert. Ich hatte Gelegenheit, Herrn Professor Dr. Peter Schirmacher, Geschäftsführender Direktor der Allgemeinen Pathologie der Universität Heidelberg, dazu zu befragen – hier meine Fragen und seine Antworten:

Sehr geehrter Herr Kollege Prof. Schirmacher, wie viele Verstorbene, die auf dem Totenschein als Todesursache Covid-19 stehen hatten, haben Sie obduziert?

Schirrmacher: Zehn.

Wie viele offiziell an Covid-19 Verstorbene wurden insgesamt in Deutschland obduziert?

An den akademischen Zentren in Deutschland 50, eine geringere Zahl weiterer Obduktionen mag an Prosekturen/Krankenhauspathologien erfolgt sein, sicher weniger, aber genaue Zahlen habe ich hierzu nicht. Zudem haben Obduktionen in der Rechtsmedizin (Prof. Püschel hat darüber berichtet: Meines Wissens nach werden in Hamburg alle COVID Fälle in der Rechtsmedizin obduziert – bislang wohl etwa 100) und in den Zentralkrankenhäusern der Bundeswehr stattgefunden; insgesamt würde ich von etwa 180–200 ausgehen.

Woran sind die Toten verstorben?

Wenn die Verstorbenen sicher an COVID verstorben sind, sind sie an fortgeschrittenen Lungenveränderungen verstorben. Wir haben auch zwei Verstorbene, bei denen zwar COVID Veränderungen vorliegen, die aber m.E. das Versterben nicht hinreichend erklären. Herr Püschel meint, dass etwa ein Viertel seiner COVID-Toten nicht an COVID verstorben sind; auch diese Fälle haben wir.

Woran machen Sie die Krankheit fest?

Wir konnten mittlerweile ein typisches histologisches Bild der Lungenveränderungen und dessen Entwicklung ermitteln, das auch zur Symptomatik passt und das Versterben erklärt. Wir planen, dies schon in der nächsten Woche zusammenzufassen und rasch zu publizieren.

Welche wichtige Rolle spielt aus Ihrer Sicht dabei der Test?

Für uns erst einmal keine; wir reagieren auf das positive/negative Testergebnis entsprechend; fehlt bei einer passenden Symptomatik das Testergebnis, holen wir dies vor Obduktion ein oder warten auf das klinische Testergebnis. 

Würden Sie Verstorbene mit typischen Befunden auch der Erkrankung Covid-19 zuordnen, wenn deren Test negativ war.

Die Erkrankung zeigt ein recht einheitliches Bild, das aber nicht spezifisch ist und z.B. bei ARDS/Beatmungslunge [Anmerkung: Überdruckbeatmung] in ähnlicher Form auftreten kann, was sicher auch eine Rolle spielt. Aber natürlich würde sich im Kontext des klinischen Bildes, der Anamnese etc. die Frage stellen. M.W. sind die jetzt durchgeführten Tests sehr sensitiv, so dass ich bei Verstorbenen praktisch kaum mit derartigen Fällen rechne.

Gibt es eine spezielle Risikogruppe, und wie ist die Altersverteilung der Toten?

Wir haben einen Verstorbenen von 41 Jahren obduziert, der jedoch nicht an der Covid-Lungenerkrankung verstorben ist, ansonsten sind alle unsere Verstorbenen und Obduzierten über 76 Jahre mit einem Median von über 80 Jahren. Männer sind auch bei uns häufiger, und natürlich finden sich bei einem signifikanten Teil der Verstorbenen in diesem Alter auch schwere andere Grunderkrankungen, wie durch Bluthochdruck verursachte Herzmuskelerkrankung, chronisch-obstruktive Lungenerkrankung oder auch eine Leberzirrhose [Anmerkung, dies deckt sich mit den Aussagen des Rechtsmediziners Prof. Püschel]. Grundsätzlich ist die altersspezifische Mortalität inzwischen gut bekannt: Sie ist für unter 20-Jährige praktisch null, bei unter 40-Jährigen wohl deutlich unter 1 Promille und geht ab da langsam hoch; signifikant wird sie erst für die über 60-Jährigen, vor allem mit Vorerkrankungen. Natürlich können an Viruserkrankungen auch junge Menschen sterben, das gilt für die Influenza, oder denken sie an eine Cosackievirus-Infektion. Aber diese Fälle sind immer sehr selten.

Fürchten Sie, dass bei Überlebenden schweren Folgeschäden bleiben, z.B. eine Lungenfibrose?

Ja, bei den Beatmeten kann dies je nach Schwere und Beatmungsdauer der Fall sein. M.W. sprechen die Beatmungsmediziner von durchschnittlich 30 Prozent Lungenfunktionsreduktion nach stattgehabter Überdruckbeatmung. Da spielen aber viele Faktoren eine Rolle (Dauer/Art Beatmung, Weening, Vorerkrankungen, Alter etc.). Genaues hierzu kann sicher ein Beatmungsmediziner angeben; zu Spätfolgen kann m.E. bei diesen Patienten noch niemand etwas sagen. Bei den nicht beatmeten Patienten gibt es wenig Anhaltspunkte; gemäß der Neurologen, können die bei etwa 30 Prozent beobachteten neurologischen Ausfälle (überwiegend Geruchs-/Geschmackssinn) wohl in einzelnen Fällen länger anhalten; genaueres können hier sicher die Neurologen sagen.

Früh auf wahrscheinliche Behandlungsfehler hingewiesen

Soweit der Pathologe. Hören wir nun die Meinung der Therapeuten. Hier gibt es kaum Qualifiziertere als die Lungenärzte des Verbandes Pneumologischer Kliniken (VPK), die sehr früh und sehr nachdrücklich auf wahrscheinliche Behandlungsfehler hinwiesen, die inzwischen auch international bestätigt wurden. Allein dafür gebührt diesem Fachverband großer Dank und Anerkennung. Hier nun Fragen an den Präsidenten des VPK, Herrn Dr. med. Thomas Voshaar, Chefarzt der Medizinischen Klinik III des Bethanien Krankenhauses in Moers, nach seiner Erfahrung im Umgang mit an Covid-19 Erkrankten (wie dort eine fachlich hochwertige Covidtherapie umgesetzt wird, können Sie übrigens hier anschauen)

Sehr geehrter Herr Kollege Dr. Voshaar, ist Ihrer Meinung nach Covid-19 eine eigenständige Erkrankung, und woran machen Sie diese Erkrankung fest?

Vosshaar:Sie gehört zur Gruppe der Viruspneumonien, die oft vielgestaltig sind. Covid-19 zeigt aber in den schweren Fällen ein typisches Bild. Die meisten Menschen bemerken eine Infektion mit dem SARS-CoV-2 gar nicht oder erleben eine Woche lang Symptome der oberen Atemwege, wie Halsschmerzen und heilen dann aus. Bei manchen entwickelt sich jedoch in der zweiten Woche eine sich rasch verschlechternde Lungenentzündung mit Atemnot. Wir haben bisher 44 Patienten stationär deswegen behandelt. Gelingt es, eine Intubation [Einführung eines Schlauchs in die Luftröhre unter Narkose] zu vermeiden, gesunden auch diese Patienten fast immer.

Was ist für Sie entscheidend für die Diagnose?

Die Symptomatik der Patienten, dann die typischen Lungenveränderungen in einem CT sowie eine Blutdiagnostik, die z.B. andere Ursachen auszuschließt. Der Test selbst kann durchaus auch negativ sein, wenn beispielsweise die Infektion vom Hals in die Lunge gewandert ist. Dann spricht der Test nicht mehr an. 

Wie steckt man sich eigentlich genau an?

Wir glauben, dass die Tröpfchengröße eine wesentliche Rolle spielt. Wenn man z.B. niest, dann fallen die großen Tropfen mit der Viruslast, wir sprechen von Aerosolen, schnell zu Boden. Die winzig kleinen schweben jedoch länger in der Luft. Diese werden auch durch Sprechen freigesetzt. Befinden sich mehrere Menschen in kleinen geschlossenen Räumen, dann können diese winzigen Aerosole auch den Weg direkt in die Lunge finden und sofort eine schwere primäre Pneumonie auslösen. Interessanterweise stecken sich dabei aber bei weitem nicht alle an. Warum? Eine Frage, die sicher noch zu beantworten ist, vielleicht gibt es ja bei manchen eine mögliche Immunität durch andere durchgemachte Coronainfektionen, oder das Virus mutiert schnell, und wir haben in Deutschland eine mildere Variante erlebt. Das sind Spekulationen. Sicher ist, dass winzige Aerosole schnell verweht werden, weshalb eine Ansteckung im Freien sehr selten sein dürfte. Neben den klassischen Regeln der Hygiene ist es essenziell, regelmäßig zu lüften, um die Ansteckung in geschlossenen Räumen zu verhindern.

Gibt es eine spezifische Behandlung?

Nein, aber eine Sache ist sehr wichtig. Man muss versuchen, eine Intubation, für die man die Patienten narkotisieren muss, und eine folgende maschinelle Überdruckbehandlung möglichst zu vermeiden. An einer Viruspneumonie Erkrankte sterben oft 24 Stunden nach einer solchen Behandlung, oder es gelingt oft nicht, sie wieder in eine selbstständige Atmung zurückzuführen. Man sollte deshalb Covid-19 Kranke, solange sie ansprechbar, einigermaßen bei Kräften sind, keine Blutbildauffälligkeiten und kein schwerkrankes Herz haben, nicht intubieren, sondern sie über eine Maske mit Sauerstoffzufuhr frei atmen lassen, sowie lindernde Medikamente geben. Das gelingt fast immer, und nach einer Woche heilen diese Patienten aus. Allerdings sinkt die Sauerstoffsättigung dabei stark ab, in einem Fall bei uns sogar bis 70 Prozent, aber wenn man dann solche Patienten intubiert, zeigt sich, dass sich nahezu alle Patienten direkt schon bei Intubation verschlechtern. Das zeigen auch Berichte aus den USA, der Kreislauf bricht sofort ein, es müssen stützende Medikamente gegeben werden und dann muss auch die Beatmung rasch so angepasst werden, dass gute Werte „entstehen“, dafür hat man schließlich intubiert. Konkret heißt das meist, dass die inspiratorische Sauerstoffkonzentration und der Beatmungsdruck angepasst werden müssen. Beides schädigt aber die Lunge, wie wir schon lange wissen. Die gerade durch ein Virus entzündete Lunge schädigt es möglicherweise noch mehr. Mit den Kreislaufveränderungen kommen nach Intubation auch erst die Probleme an Niere etc. etc.

Kann man einschätzen, für wen diese Erkrankung schwerwiegend verlaufen wird und für wen sie tödlich endet?

Es sind die bekannten Risikofaktoren, die zu Todesfällen führen können, wahrscheinlich vor allem Herz-, Diabetes- oder Krebserkrankungen. Wir haben insgesamt einen Patienten verloren. Dieser litt an einer schweren Muskelerkrankung. Asthma gehört meiner Einschätzung aber nicht dazu. Aber auch die frühe Intubation ist, wie gesagt, ein Risikofaktor. In den USA wird derzeit dieser Fehler erkannt. Dort wurden sogar gut ansprechbare Patienten narkotisiert und intubiert. Ähnlich ist man wahrscheinlich auch in China und Italien verfahren. Ich fürchte, dies macht einen beträchtlichen Teil der Todeszahlen aus.

Sind Folgeschäden wie z.B. eine Lungenfibrose bei überlebenden Schwererkrankten zu erwarten? 

Was die Folgeschäden angeht, wissen wir von einigen Patienten, die wir bereits nachuntersucht haben und die alle nicht beatmet wurden, dass es wohl ohne Residuen [Anmerkung: Gewebeverdichtungen] abheilt. Einige Narben bleiben wohl auf der Lunge, das aber ist auch nach bakteriellen Pneumonien so, also nichts Besorgniserregendes. Wurde maschinell beatmet, kommt es auf die Dauer und den Beatmungsdruck an. Je länger und je höher, desto mehr entwickeln sich Folgeschäden. Auffallend ist, dass SARS-CoV-2 auch Nerven befällt, sowohl im Gehirn als auch peripher. Die Riechstörungen sind bekannt. Ein Patient berichtete von Gefühlsstörungen, vielleicht gibt es noch andere Hirnschäden. Die meisten dieser Beschwerden dürften sich wieder zurück entwickeln, aber insgesamt ist die Frage nach Folgeschäden erst nach vielen Monaten wirklich beantwortbar. An dieser Stelle wird auch deutlich, dass eine zentrale Stelle, die schnell interdisziplinäres Wissen bereitstellt, fehlt. Ich muss mir z.B. selbst Neurologen oder Pathologen suchen, um wichtige Informationen außerhalb meines Fachgebietes zu erhalten.

Wären viele der stationär Behandelten auch ambulant behandelbar, welche Ressourcen bräuchte es dazu?

Wir behandeln jetzt viele schon ambulant, wobei wir sie via App oft überwachen. In anderen Fällen sagen wir, dass sie sofort anrufen bzw. kommen sollen, wenn es schlechter geht.

Könnte es sein, dass viele der hochbetagten Verstorbenen sinnvoller palliativ in ihren Pflegeheimen hätten versorgt werden können?

Ja. In diesem Zusammenhang sollte man auch realistisch sehen, dass ein alter Mensch nach einer langen Phase der maschinellen Überdruckbeatmung kaum in ein selbstbestimmtes Leben zurückkehren wird. Nach gründlicher Aufklärung sollte im Erkrankungsfall geklärt sein, und jede Entscheidung ist zu respektieren, ob ein sehr alter Mensch bei Verlust der Entscheidungsfähigkeit, vorher in der Patientenverfügung auch eine Intubation ablehnen kann. Voraussetzung dafür ist eine gute hausärztliche und palliativmedizinische Versorgung in den Pflegeheimen selbst.

Bestand oder besteht die Gefahr, dass es in ihrem Krankenhaus zu einer Überbelegung und Minderversorgung hätte kommen können, oder ist diese Frage nicht beantwortbar?

Wir hatten nie Sorge, in eine bedrohliche Überbelegung zu geraten. Wir konnten uns sicher auch mit mehr Zeit vorbereiten als Italien. 

Besteht eine relevante Gefahr für die Behandler, sich selbst zu infizieren und schwer zu erkranken?

Wenn eine professionelle Maskennutzung gewährleistet wird, kaum. Auch einfache Maßnahmen wie regelmäßiges und häufiges Lüften der Zimmer sind sehr wichtig. 

Fazit der medizinischen Risikoanalyse

(bezogen auf den Erkrankten und die Allgemeinheit)

Für den Erkrankten ist Covid-19 gefährlicher als eine Grippe. Covid-19 ist eine infektiöse Erkrankung der Lunge. Sie ist als eigenständiges Erscheinungsbild zu sehen und stellt eine neue, schwere Viruserkrankung dar, ausgelöst durch eine Infektion mit dem SARS-CoV-2 Virus. Für die meisten Infizierten stellt sie jedoch keine Bedrohung dar. Ein kleiner Anteil der Infizierten entwickelt jedoch eine gefährliche Lungenentzündung, vor allem ältere Menschen, die aber auch bei jüngeren vorkommt. Dadurch unterscheidet sie sich von einer Influenza (Grippe), bei der Pneumonien auch oft vorkommen, aber nicht in diesem Maße.

Richtig behandelt, vor allem bei Vermeidung einer Intubation mit Narkose und maschineller Überdruckbeatmung trotz niedriger Sauerstoffblutsättigung, heilen fast alle Patienten aus. Wahrscheinlich werden kaum Folgeschäden später zu beobachten sein, das gilt es aber in den nächsten Monaten sicherer zu beurteilen. Problematisch wird es, wenn schwere Begleiterkrankungen vorliegen, wie oft bei alten Menschen. Dann kann die Lungenentzündung tödlich enden oder den Tod durch die Grunderkrankung beschleunigen. Viele als Covid-19 Tote geltende werden an dieser Grunderkrankung gestorben sein und mit Covid. Ganz grundsätzlich können auch gesunde, junge Menschen an Covid-19, wie auch an Influenza, sterben, aber das ist die absolute Ausnahme.

Die tragische Besonderheit von Covid-19, die auch für andere Viruspneumonien gilt, die nicht in einem solch öffentlichen Fokus standen, ist: Die auf vielen Intensivabteilungen übliche, schnelle Intubation bei Sinken der Sauerstoffblutsättigung trotz Ansprechbarkeit der Patienten, mit Narkose und maschineller Überdruckbehandlung, stellt einen eigenen Risikofaktor dar. Die zu frühe Intubation ist für die meisten Folgeschäden und für einen beträchtlichen Teil der Todesopfer verantwortlich zu machen. Diese Erkenntnis scheint sich nun international durchzusetzen und stellt einen bedeutenden Fortschritt für die zukünftige Behandlung von Viruspneumonien dar.

Keine Killerseuche

Für die Allgemeinheit ist Covid-19 nicht gefährlicher als eine Grippe (siehe meine beiden vorausgegangenen Beiträge). Covid-19 ist, bezogen auf die Gefahr für die Gesamtgesellschaft, keine Killerseuche. Infektiösität und Letalität sind geringer als vielfach erwartet. Derzeit liegt der Anteil von Covid-Toten in Deutschland, bezogen auf 100.000 Einwohner/Jahr, bei unter 10 und reiht sich weiter hinten ein in der Rangliste der gefährlichen Todesursachen. Dies würde sich auch nicht ändern, wäre der Anteil doppelt oder gar dreifach so hoch. Der Infektionsverlauf ähnelt der einer klassischen Grippe. Die Infektion ist spätestens seit Mitte März im Abklingen.

Die Todeszahlen werden sich länderspezifisch nicht oder wenig dramatisch von den Zahlen der Vorjahre unterscheiden. Die klare Risikogruppe erlaubt ein schützendes Vorgehen, ohne die gesamte Gesellschaft in Quarantäne zu nehmen und den massiven Folgeschäden auszusetzen. Ob nun in den einzelnen Ländern 5.000 mehr oder weniger versterben, ist für jeden einzelnen Toten tragisch, ändert jedoch nichts bezüglich der geringen Gefahr für die Gesamtgesellschaft. Diese belastbare Einschätzung wird auch nicht von Bildern geändert werden können, die überfüllte Intensivabteilungen, gestapelte Särge oder Leichen in Kühllastern zeigen, ohne diese in den Kontext von Umstände und Gesamtzahlen zu setzen.

Hochqualifizierte interdisziplinäre Netzwerke ermöglichen auch bei dünner Datenlage gute Einschätzungen. Die Leserinnen und Leser meiner Beiträge werden feststellen, dass diese Risikoeinschätzung schon vor 50 Tagen möglich war undvier Tage später mit aller Deutlichkeit.

Auch andere kamen bekanntlich früh zu diesen Rückschlüssen. Doch wie ist das möglich, die damalige Datengrundlage war viel dünner? Ganz sicher nicht deshalb, weil man gut geraten hat, sondern deshalb, weil es möglich war, abseits jeder Panikreaktion die wenigen vorhandenen Fakten und Hinweise, die es gab, in den richtigen Kontext zu stellen und sich die jeweils passenden Fachexpertisen einzuholen. Bekannt war zum Beispiel, dass die Hotspots offensichtlich sich nicht weiter in den Ländern verbreiteten (weit vor dem Lockdown), die Daten der Diamant Princess, die Daten von Prof. Hendrik Streeck, die Vergleichszahlen mit den Vorjahren und einiges mehr.

All dies deutete mit ausreichender Klarheit darauf hin, dass es sich hochwahrscheinlich nicht um eine Killerseuche mit zig Millionen möglichen Todesopfern weltweit handelt. Alles, was man dazu benötigt, ist ein interdisziplinäres Denken, welches bei wichtigen Fragen die jeweils zuständige Fachmeinung berücksichtigt. Zur Behandlung von Covid fragt man die Kliniker, aber zur allgemeinen Gefährlichkeit eben die Epidemiologen, wie die des Deutschen Netzwerks Evidenzbasierte Medizin. Solch hochqualifizierte Meinungen lassen sich ohne Weiteres finden, sowohl in Deutschland als auch international, man muss nur danach suchen.

Lauterbach schätzte gefährliche Medikamente falsch ein

Am Ende muss man sich auf die rationale Intuition eines interdisziplinären Teams verlassen. Noch etwas anderes Entscheidendes kommt dazu. Am Ende des Tages, erfolgt eine Risikoeinschätzung auf der Basis dessen, was der Psychologe Prof. Julius Kuhl rationale Intuition nennt. Zu bedenken ist, dass Statistik selbst nur auf Modellen beruht, und Modelle können aus methodischen Gründen keine Hypothese beweisen. Das bedeutet, auch die beste Statistik bildet nie die Wirklichkeit ab, sie nähert sich ihr immer nur an. Deshalb kommt es entscheidend darauf an, mit welcher reflektierten Vorerfahrung die Statistik interpretiert wird. Sind es Fachleute, die ihre Kompetenz genau auf dem infrage kommenden Gebiert belegt haben und – waren sie fähig aus ihren bisherigen Fehlern zu lernen, handeln sie also reflektiert?

Nur ein Beispiel. Wenn der meiner begründeten Meinung nach beste derzeitige Epidemiologie John Iaonnidis davor warnt, die getroffenen Maßnahmen seien übertreiben, weil die Letalität viel niedriger und die Ausbreitung schon viel weiter fortgeschritten sei, dann ist es unverantwortlich, eine solche Stimme mattzusetzen durch die eines auf Viren-RNA-Forschung spezialisierten Virologen, der schon einmal in einem ähnlichen Fall eine falsche Risikoeinschätzung getroffen hat und nie hat erkennen lassen, dass er daraus gelernt hat. Wenn ich wissen will, ob das Dach dicht ist, frage ich den Dachdecker und nicht den Heizungsmonteur. Vor allem, wenn mich der Heizungsmonteur schon einmal falsch bezüglich des Daches beraten hat.

Auch Prof. Karl Lauterbach, der zurzeit in den Medien vorrangig um seine wissenschaftliche Einschätzung gefragt wird, hat in der Vergangenheit bewiesen, dass er gefährliche Medikamente falsch einschätzt und deren Zulassung maßgeblich fördert, obwohl die vorhandene Datenlage davon abriet. Diese Medikamente wurden dann auch wegen ihrer gefährlichen Nebenwirkungen später vom Markt genommen, beispielsweise Cerivastatin (Lipobay) oder Sibutramin (Reductil) (s.a. Gunter Frank, Schlechte Medizin, Knaus Verlag) Deswegen wäre ich hinsichtlich der Fähigkeit einer reflektierten Risikoanalyse bei ihm skeptisch. Experten wie Professor Sucharit Bakhdi oder Professor Stefan Hockertz schätze ich deutlich kompetenter ein, doch sie werden aus den Leitmedien ausgeschlossen.

Es kommt eben darauf an, wen man fragt und welche Meinung man als die maßgebliche auswählt. Im Unvermögen, die passenden Expertenmeinungen zu den jeweils anliegenden, wichtigen Fragestellungen zu identifizieren und zu moderieren, lag von Anfang an der Systemfehler und da liegt er immer noch. Denn es geht weiter. Impfungen? Diese Frage ist derzeit nicht relevant, weil jeder Fachmann weiß, dass ein guter Impfstoff frühestens in einem Jahr genutzt werden kann. Auch Bill Gates kann nicht zaubern. Dazu kommt, dieser Impfstoff müsste dann hochwahrscheinlich vor Covid-20 schützen. Zweite Welle? Mit welchem fachlichen Geheimwissen wird davor gewarnt, mit welchen Quellen? Es ist eine hochspekulative Hypothese, die gerade im geöffneten Österreich faktisch widerlegt wird. Und warum wurde, wenn man so viel Angst davor hat, eine Herdenimmunität durch den Lockdown verhindert? Das alles spricht nicht für ein reflektiertes, kompetenzgesteuertes Krisenmanagement.

Eine kompetente Risikoanalyse hätte den falschen Alarm schon längst abgeblasen. Der Pandemie Krisenstab im Max-Weber-Land, hätte frühzeitig Großveranstaltungen abgesagt und bei den früh bekannten Risikogruppen die entsprechenden Maßnahmen zum Schutz dieser Gruppe diskutiert sowie professionell, konsequent und human umgesetzt (auch mit Hilfe der präventiv angelegten Pandemievorräte). Man hätte Pläne ausgearbeitet für Schwerpunktkrankenhäuser, die von den zuständigen Spezialisten, den Lungenfachärzten geleitet worden wären. Man hätte Hausärzte, Palliativmediziner und Pflegedienste einen eigenen Stab bilden lassen, um gute Lösungen für die ambulante Versorgung der Schwerkranken und Pflegebedürftigen zu finden.

Vor allem hätte der Krisenstab eine umfassende Risikoanalyse der weitergehenden Schutzmaßnahmen durchgeführt und festgestellt, dass deren Schadenspotential extrem hoch ist. Spätesten Mitte März hätte der Krisenstab festgestellt, dass bezüglich einer die Allgemeinheit bedrohenden Pandemie ein falscher Alarm besteht. Weil das Risikopotential von Covid 19 bezogen auf die Allgemeinheit deutlich geringer ist, als das der weiteren Schutzmassnahmen (Schulschliessungen und Lockdown), hätte man diese nicht eingeleitet. Daraufhin hätte der Krisenstab die Politik und diese die Bevölkerung entsprechend informiert. Daraufhin wäre der Krisenstab nach Hause gegangen, um die anderen ihre Arbeit machen zu lassen.

So wäre die Risikoanalyse im Max-Weber-Land verlaufen. In der Bundesrepublik Deutschland und in fast allen anderen Demokratien kam es bekanntlich anders. Warum das so ist, und was wir vor allem Anderen ändern müssen, um solche Desaster in Zukunft zu vermeiden, darum geht es in dem nächsten und für mich abschließenden Corona Beitrag hier auf der Achse des Guten. Es geht vor allem darum wie die Demokratie es geschafft hat, ihre eigentliche Stärke, die offene Debatte, in eine Schwäche zu verwandeln.

Falls sie diesen Beitrag plausibel finden, dann verbreiten Sie ihn bitte weiter.

Der Beitrag erschien zuerst bei ACHGUT hier




Keine staatstragende Statistik?

 Ein Blick in die offizielle Sterbestatistik zeigt: COVID-19-Sterbefälle machen sich bislang in der Gesamtzahl der Sterbefälle nicht bemerkbar. Eine Übersterblichkeit durch COVID-19 ist bisher nicht feststellbar. Das ergibt sich aus der am 30.04.2020 veröffentlichten Sonderauswertungdes Statistischen Bundesamts zu den Sterbefallzahlen in Deutschland für den Zeitraum vom 01. Januar 2016 bis 05. April 2020. Das Statistische Bundesamt versucht sich trotz dieses Befundes in regierungstreuer Stimmungsmache und konstruiert einen Zusammenhang von Corona und erhöhten Sterbefallzahlen.

Private Grafik von Mathias Seifert aus den Daten des statistischen Bundesamtes. Sein Kommentar dazu: Laut WHO starben die ersten beiden Personen in Deutschland mit/an Covid-19 am 10.03.2020, am 26.03.2020 starben 49 Personen, am 31.03.2020 128, am 05.04.2020 184 und am 06.04.2020 waren es 92. Der (bisherige) Maximalwert wurde am 16.04.2020 mit 315 Verstorbenen erreicht. Und Herr Söder befürchtet ja inzwischen, dass es zu einer zweiten Welle kommen könnte, die ähnlich schlimm wie die erste ist.

Hier zunächst die vom Statistischen Bundesamt verlautbarten Fallzahlen zu den Sterbefällen 2016 bis 2020:

Gesamtjahr:

2016: 910.902

2017: 932.272

2018: 954.874

2019: 935.292

Nur Januar-März:

2016: 242.030

2017: 269.618

2018: 277.876

2019: 251.876

2020: 250.338

Nur März:

2016: 83.669

2017: 82.934

2018: 107.104

2019: 86.419

2020: 85.922

Da sich auf dieser Basis eine Übersterblichkeit wegen COVID-19 nicht feststellen lässt, griff das Statistische Bundesamt in die Trickkiste. Es verlängerte den nach der ersten Sonderauswertung vom 17.04.2020 angekündigten Berichtszeitraum. Statt wie eigentlich vorgesehen die Sterbefallzahlen für den Zeitraum bis 31. März 2020 mitzuteilen, wurde der Zeitraum bis zum 05. April 2020 verlängert.

Das ermöglichte es dem Bundesamt, in einer Pressemitteilung wie folgt einen angeblichen Zusammenhang zwischen Sterbefallzahlen und Corona unter Bezugnahme auf nur eine einzige Woche herzustellen:

Auch im März 2020 mit insgesamt mindestens 85.900 Sterbefällen ist bei einer monatsweisen Betrachtung kein auffälliger Anstieg der Sterbefallzahlen im Vergleich zu den Vorjahren erkennbar. Seit der letzten Märzwoche liegen die tagesgenauen Zahlen allerdings tendenziell über dem Durchschnitt der Jahre 2016 bis 2019. Da die Grippewelle 2020 seit März als beendet gilt, ist es naheliegend, dass diese vergleichsweise hohen Werte in einem Zusammenhang mit der Corona-Pandemie stehen.

Tatsächlich liegen die Sterbefallzahlen für die Woche vom 30.03. bis 05.04.2020 zwar leicht über den Vorjahreszahlen. Aber es ist unseriös, aus den Zahlen von nur einer Woche Rückschlüsse auf einen Corona-Zusammenhang zu ziehen. Es gibt stets, wie man bereits an den oben aufgeführten Zahlen sehen kann, erhebliche Schwankungen in den Fallzahlen, sowohl wöchentlich als auch monatlich und jährlich.

Lässt man sich dennoch einmal auf diese Wochenbetrachtung des Statistischen Bundesamts ein, so ist folgendes auffällig: Die erhöhte Sterblichkeit betrifft nur die Altersgruppe über 80 Jahre. Die Sterbefallzahlen für die Altersgruppe bis 80 Jahre liegen hingegen im normalen Bereich, wie die nachfolgende Auflistung zeigt.

Anzahl Sterbefälle Woche 30.03.-05.04. (Alter bis 80 Jahre):

2016: 8.622

2017: 7.913

2018: 8.637

2019: 8.156

2020: 8.147

Corona als Grund für die erhöhte Sterblichkeit der über 80-Jährigen zu benennen, wie es das Statistische Bundesamt tut, ist nach derzeitigem Kenntnisstand rein spekulativ. Die Erhöhung liegt im Rahmen der normalen Schwankungen. Der Erhöhung könnte auch ein Nachholeffekt zugrunde liegen.

Der Zeitraum Januar bis März 2020 weist geringere Sterbefallzahlen auf als die entsprechenden Vorjahreszeiträume 2017 bis 2019. Das gilt auch für die über 80-Jährigen: Auch bei ihnen sind die Sterbefallzahlen von Januar bis März 2020 mit 146.097 geringer als in den Vorjahren 2017 und 2018 (155.364 bzw. 159.664) und auch als im Jahr 2019 (143.958), wenn man berücksichtigt, dass 2020 einen Tag mehr hatte. Wenn Corona der Grund für eine etwas erhöhte Sterblichkeit bei den über 80-Jährigen sein sollte, dann ist der Effekt jedenfalls nicht größer als bei einer Influenza.

Das Narrativ der Bundesregierung gerät weiter ins Wanken

1. COVID-19 macht sich bisher statistisch nicht als Sondereffekt bemerkbar. Die bisherigen Sterbefallzahlen (bis 05.04.2020) lassen auch nicht erkennen, daß es eine hohe Dunkelziffer bei den COVID-19-Sterbefällen geben könnte, wie teilweise gemutmaßt wird. Vielmehr deuten sie darauf hin, dass die Corona-Gefahr überschätzt wird.

2. Das Statistische Bundesamt bezeichnet einen möglichen Zusammenhang zwischen Corona und erhöhten Sterbefallzahlen als naheliegend, obgleich diese Annahme anhand der Zahlen von nur einer Woche angesichts der natürlichen Schwankungsbreite derzeit rein spekulativ ist.

3. Lässt man sich mit dem Statistischen Bundesamt dennoch auf eine Betrachtung der einen Woche vom 30.03. bis 05.04.2020 ein, so ist folgendes festzustellen:

  • Es sind immer noch weniger Sterbefälle als im „Grippejahr“ 2018.
  • Die etwas erhöhten Sterbefallzahlen betreffen nur die Altersgruppe über 80 Jahre.
  • Ein Nachholeffekt aufgrund geringerer Sterbefallzahlen in den Vormonaten ist denkbar.
  • Wenn COVID-19 eine Rolle spielt, dann ist sie nicht sehr bedeutend.
  • Demographisch bedingt sind gegenüber früheren Jahren ohnehin tendenziell mehr Sterbefälle zu erwarten, da die Lebenserwartung seit Jahren stagniert und die Zahl der alten Menschen im typischen Sterbealter stark zunimmt.

4. Das Narrativ der Bundesregierung (Corona als ein ohne Rücksicht auf Verluste mit allen Mitteln zu bekämpfendes Killervirus) gerät weiter ins Wanken. Die Sterbefallzahlen lassen bislang keine außergewöhnlichen und dramatischen Auswirkungen erkennen und stellen die Sinnhaftigkeit und Aufrechterhaltung vieler getroffenen Maßnahmen infrage. Eine Gefährdung des Gesundheitswesens (die zu vermeiden erklärtes Ziel der Maßnahmen war) ist nicht ersichtlich.

5. Es ist beschämend und bezeichnend zugleich, dass das Deutschland des Jahres 2020 nicht in der Lage ist, zeitnah die Sterbefallzahlen zu aktualisieren, sondern eine Nachlaufzeit von drei bis vier Wochen benötigt. Zur politischen Verantwortung gehört es auch, für eine sichere Datengrundlage zu sorgen, um sachgerechte Entscheidungen treffen und Maßnahmen auch kurzfristig wieder aufheben zu können. So sollten derzeit zumindest Zahlen bis 26.04.2020 zur Verfügung stehen. Hier haben Bundesregierung und Landesregierungen versagt.

Anhand aktuellerer Sterbefallzahlen ließe sich leicht überprüfen, ob ein bis 05.04.2020 noch nicht feststellbarer Zusammenhang mit Corona mittlerweile eventuell doch gegeben sein könnte und welche Altersgruppen gegebenenfalls betroffen sind. Etwaig erforderliche Schutzmaßnahmen, aber auch deren Aufhebung, ließen sich dann sehr viel zeitnäher, zielgenauer und risikogruppenorientiert treffen. Das Versagen der Regierung wird die Bürger aufgrund an falscher Stelle ansetzender und zu lange andauernder Maßnahmen sehr teuer zu stehen kommen und die ohnehin eintretenden Wohlstandsverluste vervielfachen.

Der Beitrag erschien zuerst bei ACHGUT hier




Wind und Sonne für die Stromerzeugung in CORONA-Zeiten

Deutschland im April 2020. CORONA zieht durch´s Land. Doch, wie  zum Ausgleich dieses Ungemachs, herrscht schönes Wetter … die Atmosphäre ist rekordverdächtig trocken, es gibt viel Sonnenschein. Zudem weht vielerorts ein ausgleichender Wind. Angenehme Verhältnisse für Menschen, die ausserhalb der ihnen auferlegten ´Quarantäne´ mal frische Luft schnappen wollen.

Es überwiegen Witterungsbedingungen, die auch für die „moderne“ Elektrizitätsversorgung eine prima Grundlage liefern sollten. Meint, wir haben im April 2020 Sonne undauch Wind. Dumm ist bloss (wie´s nun mal auf der Erde so geregelt ist),  dass selbst bei wolkenlosem Himmel nachwievor des Nachts die Sonne nicht scheint und auch der gelobte Luftzug leider nicht stetig verläuft … immer wieder schlafft alles ab und dreht kein Rad.  Geeignete E-Speicher gibt´s nicht bzw. sind maximal in homöopathischen Dimensionen nicht zu finden. Was bedeutet, dass die „erneuerbaren“ Energiequellen auch im 20.sten Jahr der Energiewende (EEG Gesetz seit 1.4.2000) weiterhin die „konventionelle“ Stromerzeugung an ihrer Seite brauchen, um ausreichend Leistung abzuliefern.

Letzteres ist der casus knaxus: Die Leistung muss selbst im CORONA-April quantitativ (GWh) und qualitativ (Hertz) stimmen, um neben der Wirtschaft (obwohl kaum aktiv) und den Wirtschaften (aber die sind ja auch geschlossen!) wenigstens die home-offices elektrisch angemessen zu versorgen. So trifft zwangsläufige ´Politik´ auf ´Natur´: Der Wille zum EEG allein zählt nicht allein, es müssen auch die  atmosphärischen Systemfaktoren  mitmachen. In diesem Sinne beobachten wir im Monat April, was die Versorgung mit elektrischer Energie angeht, fast zwangsläufig (und wie fast überall im Leben), einerseits die Ablieferung einer ´Kür´ (hier: Strom aus Wind und Sonne), zu der aber  andererseits wiederum auch eine ´Pflicht´ gehört (hier: Elektrizität aus sogenannten Grundlastkraftwerken) … und dies alles ´ordentlich´, also mit mindestens 8 von 10 Punkten im Sinne des Eiskunstlaufbewertungssystems, sonst läuft da nichts stabil. Wobei wir gerade in der ´Kür´ festhalten müssen, dass neben deren Menge auch die Qualität bitteschön ausreichen sollte, um im Netz wenigstens 49,9/50,1 Hertz zu halten …

Industriestaaten mit anspruchsvollen Produktionslinien (und CORONA-Intensivstationen?!) vertragen keine Flatterhaftigkeit. Leider ist den meisten Freunden der alternativen Stromerzeugung bis heute nicht beizubringen, dass es für stabile 50 Hertz immerauch richtig „Masse in Bewegung“ braucht … die mit Solarpaneelen jedoch nicht zustande kommt. 100% Sonnenstrom sind zwar theoretisch genug, um das Licht beim privaten Stromkunden leuchten zu lassen, aber leider nicht in der Lage, das Netz eines Hochtechniklandes standhaft zu halten. Das Wort vom „blackout“ (tritt bei 49,8 Hertz ein, wenn nicht netztechnisch ´eingegriffen´ wird/werden kann) geistert herum. Dabei ist Annalena B. auch noch der Meinung das Netz sei der Speicher?!

Kommen wir zurück zur „Pflicht“ in der Stromversorgung. Dieser Part ist nicht nur hilfreich, sondern er stellt vielmehr eine absolute Notwendigkeit dar, er ist sozusagen ´alternativlos´ im Sinne von Angela M.. Meint: Ausser einer erneuerbaren benötigt man unbedingt auch eine konventionelle Stromerzeugung in seinem Land! Rückenstärkend kann es sein, wenn im Zweifelsfall Nachbarn da sind, die bei Versorgungsengpässen (kommt immer wieder vor wenn z.B. a) keine Sonne am Himmel zu sehen ist   oder b) wenig bis kein Wind weht  oder   c) Speicherseen trocken fallen) aushelfen könnten. Wir denken hierbei an unsere Freunde in Frankreich (besitzen nämlich grundlastfähige Energie aus Atomkernen) oder an die Kollegen z.B. in Polen (machen den Turbinen mit viel Kohle beständig Dampf).

Man muss nur wissen: Im engeren Sinne „Pflicht“ ist diese nachbarschaftliche Lieferfähigkeit nicht, es handelt sich nur um eine freiwillige Kür, mit der die von nebenan etwas in´s deutsche Netz zuschiessen könnten.Denn „Schengen“ gilt beim Stromfluss nicht bzw. es ist nicht wie bei der Personenfreizügigkeit … die Bewegungsbedingungen des Stroms sind sozusagen relativ zu sehen und wer zu viel hat, könntezwar was abgeben, mussdas jedoch nicht gezwungenermassen. Einklagbar ist diese Form der Freiheit jedenfalls nicht, hier gilt nur ´Freiwillige vor´ … aber wer ist schon ständig frei und dann auch noch rundum willig?

Das ist dann im Prinzip nämlich ein wenig ähnlich dem Beginn der CORONA-Krise: Was man selbst nicht besitzt bzw. versäumt hat vorzuhalten, das versucht man dann „Bitte, bitte!“ vom Nachbarn zu bekommen. Bei Schutzmasken beispielsweise hat das aber bekanntlich erst mal nicht sooo gut funktioniert. Beim Strom ist und wäre es  s e l b s t v e r s t ä n d l i c h  ganz anders.

D.h. bei der Lieferung von elektrischem Strom haben wir nie kein Problem. Der Verfasser verweist auch gleich nochmals auf die o.a. mehr (oder weniger) verlässlichen Freunde … . Es gilt die alte Weisheit, dass man in einer Krise und für eine Krise gewappnet sein sollte. Man nennt das allenthalben ´Vorsorge´ oder auch ´Staatsverantwortung´.

Schauen wir uns die derzeitige deutsche Stromversorgung einmal im Zeitraum zwischen dem 17. und dem 22. April 2020 an: Der Stromverbrauch in Deutschland liegt insgesamt bei rd. 7621 GWh (hier: 1270 GWh/Tag).  Das ist deutlich weniger als im passenden Vergleichszeitraum 2019 (11.4.-16.4.) mit rd.  9176 GWh (1529 GWh/Tag). Genauer gesagt ist das rd. 17% tiefergelegt … ein deutlicher Rückgang, der primär auf den CORONA-lockdown zurückzuführen sein dürfte.

Die in Deutschland erzeugte Energie (GWh / Anteil in %):

Es ist gelungen, den Anteil der erneuerbaren Quellen in 2020 gegenüber 2019 im „Testzeitraum“ tatsächlich relativ bevorzugt einzuspeisen: Während in der konventionellen Stromerzeugung i.M. der o.a. Tage der Anteil um -50% zurückging, ist diese bei den erneuerbaren mit i.M. +5% sogar leicht gestiegen. Die in der Summe insgesamt deutlich geringere Stromerzeugung ging somit im Wesentlichen zu Lasten der konventionellen Quellen.

Wie Abb. 1 zeigt, wird der benötigte Strom im Jahr 2019 (im Vergleichszeitraum) aus inländischer Energieerzeugung voll gedeckt, d.h. die Verbrauchslinie liegt immer unterhalb des summierten deutschländischen Angebots. Im Jahr 2020 ist das etwas anders: Während in Tagen stärkeren Windanfalls dies noch so gilt (siehe z.B. Mittwoch 22.4.2020) ist es an windschwächeren Stunden jedoch umgekehrt (siehe Abb. 2). Da muss von aussen „zugefüttert“ werden, denn der Verbrauch in Deutschland ist offensichtlich höher als das angebotene Angebot aus heimischer Produktion (siehe z.B. Freitag 17.4.2020) … dabei ist der Verbrauch an diesem Beispieltag sogar um 34%geringer als am Freitag den 11.4.2019. Merke: Effektiver Verbrauch bedeutet nie ´mögliches-machbares´ Angebot,  denn letzteres ist steuerbar, der Verbrauch jedoch nicht wirklich (*)!

Mit Blick auf die o.a. Tabelle kommt der Verdacht auf, dass die ´Einsparungen´, die man in Deutschland bei den konventionellen Quellen von 2019 auf 2020 erreicht hat, mit Strom aus ausländischer Produktion (relativ) substituiert wurden. Aus welchen Quellen (jenseits der deutschen Grenzen) es stammt, ist unbekannt … mit grosser Wahrscheinlichkeit wohl jedoch aus einem der dort primär „konventionell“ arbeitenden Kraftwerke. Aber, und sozusagen zur Beruhigung, wir wissen ja eines ganz sicher: CO2, das im Ausland ausgepufft wird, belastet eben gerade nichtdie deutsche Öko-Bilanz … nur für die erdumspannende Atmosphäre, da bleibt´s egal. Wie war das Wort dafür? Doppelmoral / Heuchelei?!

Durch die im Jahr 2019 im Vergleichszeitraums zu allen Tagen in Deutschland geringere Stromabnahme als die bereitgestellte Stromerzeugung, konnte Energie in die Nachbarländer exportiert werden … ob nun reell verkauft oder mit Zuzahlung verschenkt sei mal dahingestellt (wir könnten´s prüfen aber eigentlich ahnen wir´s wohl ohnehin). Im Jahr 2020 hingegen wurde, primär an Tagen mit einem relativ geringeren Angebot an Windenergie, eine deutliche Menge an Strom importiert!Und dies, das sollte klar sein, obwohlinsgesamt und absolut gegenüber dem Aprilzeitraum des Jahres 2019 nur rd. 80% der Strommenge benötigt wurde?!

War dies nun „strategisch“ gedacht oder war es schlicht nur billiger, als Strom aus heimischer Produktion anzufordern (meint konventionelle Kraftwerke ´hochfahren´ zu müssen)? Sicher ist, dass damit und zwangsläufig die deutsche Ökobilanz im April 2020 positiv ausfällt: Nur 250g/kWh CO2kommen aus den deutschen Kraftwerksschornsteinen … im April 2019 waren es dagegen 430 g/kWh (nach https://www.agora-energiewende.de/service/agorameter). Da sieht man (sagt nun der ideologisierte Betrachter), wie überflüssig deutscher Kern- und Kohlestrom doch ist. Und da man ja, wie oben bereits festgestellt, den vollen Durchblick dafür hat, dass CO2, welches im Ausland emittiert wird, dort in jedem Fall dauerhaft bleibt, ist es für D im Zweifelsfall eine win-win-Situation … kein unnötiger heimischer Kohleverbrauch (wer weiss, wozu man DIESE Kohle nochmal brauchen kann!) UND auch noch tolle Luft ohne das fiese CO2-Gift. Am besten ist jedoch Kernenergie, oder?!

Da diese Betrachtungen des Verfassers nun nicht gleich die ganze Welt retten sollen/können, gibt es nachfolgend nur ein vorläufiges Fazit zum Stromangebot und den Stromverbrauch im April des Jahres 2020:

  1. Deutschland benötigt teils >30% weniger an elektrischer Energie als im Vergleichszeitraum des Jahres 2019 … ´CORONA´ mit „lock-down“-Syndrom.
  2. Wenn die Sonne scheint und der Wind weht … dann hat man offenbar zu viel an Strom
  3. Wenn das Wetter ohne viel Wind daherkommt … dann scheint die elektrische Energie nicht auszureichen? Oder man will, vorbildlich ökologisch gedacht, den (nicht ausreichenden) ´erneuerbaren´ sauberen und angeblich CO2-freien Stromquellen schlicht wie ergreifend keine konventionellen dreckigen CO2-ausschleudernden Kraftwerke zuschalten?

(*) Das ändert sich aber potentiell dann, wenn die sogenannten Smartmeter (intelligente Stromzähler mit externer Eingriffsmöglichkeit) beim Verbraucher eingebaut sind. In dem Fall kann nämlich der Anbieter/der Stromlieferant bestimmen/regeln, wannder Kunde seine Wäsche wäscht … .

Abb.  1 : Stromerzeugung und –verbrauch, 8.-18.4.2019 (Karfreitag = 19.4.2019). https://www.agora-energiewende.de/service/agorameter

Abb. 2: Stromerzeugung und –verbrauch, 14.-24.4.2020 (Ostermontag = 13.4.2020). https://www.agora-energiewende.de/service/agorameter

Der Autor kann dies z.Zt. nicht beantworten, denn ´Absichten´ herauszufinden wäre eher die Aufgabe eines investigativen Journalismus. Vielleicht ist ja auch ohnehin alles ganz einfach und es wäre wie´s sein könnte: Zufall. Nur spricht die zu beobachtende Systematik stark dagegen, eher ist es eben doch so, dass man (politisch gewollt?) beginnt im Netz rum zu mogeln, in dem man den Eindruck hervorruft, als ob die konventionelle Energieerzeugung in/aus deutschen Landen so ´üppig´ gar nicht nötigt sei; „Ihr seht doch, da sind doch genug ´Erneuerbare´ vorhanden, der Trend sagt´s ebenfalls, und der Zukauf aus dem  Ausland, nun, das bisschen“.  Was man nicht vergessen sollte später zu erinnern: Wenn Ende des nächsten Jahres alle deutschen „Kern“-Grundlastwerke abgeschaltet sind, dann hätte man für deren im Netz fehlenden Strommengen schon jetzt mal, sozusagen intellektuell-argumentationstechnisch, vorgebaut … .

Dazu mal gelistet der aktuelle Anteil der deutschen Kernenergie (Grundlast) an der heimischen Stromerzeugung (Daten /Termine siehe Abb. 1 – 6) :

Die Mengen sind trotz inzwischen vieler endgültiger Abschaltungen noch immer relevant und kein Pappenstiel. Alles kerntechnisch-schwunghafte durch erneuerbar-statisches zu ersetzen wird daher soooo einfach nicht klappen, denn da spricht auch noch die Physik ein Wörtchen mit … der Verfasser erinnert ganz zwanglos an die alternativlose Notwendigkeit der Netzstabilität, also an das ´must´ von 50 Hertz: Wenn am 22.April 2020 bereits rd. 75% der Stromerzeugung ´alternativ´ und damit schwung- bzw. masselos stattfanden, dann wird das jedoch bannig eng . Aber wir haben ja zum Glück unsere Nachbarn in Frankreich und Polen! Nur bitte und ohne Häme: „Schengen“ gibt´s in Corona-Zeiten gerade nicht mehr und die Lieferung von grundlastfähigem Strom erfolgt ebenfalls und wie oben schon festgestellt, nur freiwillig … in etwa so freiwillig, wie die Lieferung von Schutzmasken an die gemeinsamen EU-Freunde ablief.

Die hier im Text vorangestellte Frage war eigentlich ´Kann man nicht´ oder ´will man nicht´? Die nach Erfahrung des Verfassers wahrscheinlichste Antwort: Man könnte wohl schon … aber allein ökotechnisch scheint es den Verantwortlichen in Zeiten von CORONA wohl angenehmer zu sein, die Atmosphäre nicht auch noch ´zusätzlich´ mit Kohle oder Gas aufzuheizen, denn die allgemeine Virus-Lage ist sozusagen bereits heiss genug? Da greift man lieber (eventuell auch tatsächlich rein preislich interessant?!) z.B. nach dem Angebot an überschüssigem ´Atom´-Strom aus Frankreich. Denn dort hat man mit der ebenfalls nur noch auf kleiner Flamme wurstelnden Industrie jetzt im April 2020 wohl viel zu viel Energie … also ne Menge übrig. Der CORONA-lockdown trat dann für die Gallier als sowas wie eine ´Grundlast als Last für´s Netz´ auf/ein? Das war für Deutschland wiederum und jetzt gerade im doppelten Sinne günstig: Bandenergie („Pflicht“ im Stromgeflecht!) als ausländischer (Atom-/Kohle-)Segen in windschwachen Zeiten  … die flatterhafte „Kür“ im deutschen Netz braucht schliesslich einen stabilen Ausgleich. Und gut ist´s für die vielleicht doch noch kommende Diskussion: Mit den erneuerbaren schaffen wir´s … „seht ihr doch!“

Als passende Artikel zum Thema sei auch verwiesen auf:
https://eifelon.de/umland/erneuerbare-lieferten-52-prozent-des-verbrauchs-wirklich.html
und
https://www.tichyseinblick.de/kolumnen/lichtblicke-kolumnen/die-regenerative-geldverschwendung/

Abb. 3: Nettostromerzeugung in Deutschland am 11. April 2019 (www.energy-charts.de)

Abb. 4: Nettostromerzeugung in Deutschland am 16. April 2019 (www.energy-charts.de)

Abb. 5: Nettostromerzeugung in Deutschland am 17.April 2020 (www.energy-charts.de)

Abb. 6: Nettostromerzeugung in Deutschland am 22.April 2020 (www.energy-charts.de)

Der Beitrag erschien zuerst bei die kalte Sonne hier




Corona-Panik Lockdown – NACHHILFE IM SCHWEINESTALL

Der kleine Unterschied

Hätten wir vom Seuchenmanagement in der Tierhaltung etwas für die Bekämpfung von Corona lernen können?

Bevor wir in das Thema einsteigen möchten wir Autoren betonen, dass wir uns der feinen Unterschiede zwischen den Gattungen Mensch und Tier, zwischen Nutztier und Haustier, und auch der Verschiedenheit der ärztlichen Zielsetzungen hier wie dort durchaus bewusst sind.

Der Arzt hat das oberste Ziel seinen Patienten zu heilen. Bei Nutztieren aber – und nur von solchen ist hier die Rede –  ist der Veterinär primär nicht dem Wohle des Tieres verpflichtet, sondern den Wünschen des Halters. Hier kann die Gesundheit der Herde Priorität vor dem Überleben des Individuums haben.

So ist der Nutztier-Veterinär gewohnt, die Gesundheit des Kollektivs vor Augen zu haben, insbesondere beim Epidemien. In der Humanmedizin aber steht das Management von Seuchen nicht im Fokus. Kein Wunder also, dass die Meinungen unserer Ärzte auf diesem Gebiet wesentlich stärker divergieren, als bei einer Appendizitis.

 

Schweine im Lockdown?

Die Viren ignorieren großzügig den feinen Unterschied zwischen den Gattungen Mensch und Tier. Sie nisten sich dort ein, wo sie sich wohl fühlen. Lassen Sie uns daher der Veterinärmedizin über die Schulter schauen, vielleicht können wir etwas lernen.

Zunächst ein Gedankenexperiment; übertragen wir die deutschen Corona-Maßnahmen auf einen Schweinestall. Einige Tiere dort zeigen Symptome, wie sie bereits in ausländischen Zuchtbetrieben beobachtet worden sind, verursacht durch die Infektion mit einem neuartigen Virus. Einige ältere Eber mussten schon gekeult werden.

Ein neu entwickelter Test wird bei einigen Tieren durchgeführt, mit dem Ergebnis, dass nur wenige infiziert sind; deren Symptome reichen von kaum feststellbar bis lebensbedrohlich. Eine Impfung gibt es nicht. Um Übertragung auf die mehrheitlich gesunden Schweine zu verhindern unterbindet man jetzt jeglichen Kontakt zwischen allen Tieren, indem man sie in Einzelboxen unterbringt. Nur Säue werden nicht von ihren Ferkeln getrennt.

Der Betrieb lässt aber keine totale Isolation zu und es kommt immer wieder zu neuen Infektionen. Gleichzeitig erholen sich infizierte Tiere, sie bleiben aber weiterhin in ihren Boxen. Erst nach sehr langer Zeithaben alle ihre Infektion durchgemacht, jetzt haben sie Antikörper – sofern sie überlebt haben. Es kehrt Ruhe ein im Stall und der Normalbetrieb wird wieder aufgenommen. Ohne Lockdown hätte man das gleiche Ergebnis gehabt, allerdings in kürzerer Zeit.

 

Aus dem Alltag des Nutztiers

Lockdown im Schweinestall ist in der Praxis unrealistisch. Bei einer sehr ansteckenden Seuche, für die es keinen Impfstoff gibt, hat man im Schweinestall folgende Alternativen:

  1. Falls man Hinweise hat, dass nur wenige Tier dem Virus erliegen werden, ergreift man keine Maßnahmen; man macht weiter, so wie immer. Praktisch alle Tiere werden jetzt infiziert und bilden Antikörper. Ein gewisser Prozentsatz stirbt bei dem Prozess. Dann ist die Welle vorbei und die Sache ist ausgestanden.
  2. Falls zu erwarten ist, dass Vorgehensweise 1 zu hohe Verluste mit sich brächte, isoliert man so schnell wie möglich die infizierten, d.h. positiv getesteten Tiere oder tötet sie. Die negativ getesteten bleiben zusammen und werden vor Infektion von außen – von anderen Ställen – rigoros abgeschirmt.
  3. Falls man für Vorgehensweise 2 zu spät dran ist, und sich schon zu viele Tiere infiziert haben,isoliert man den ganzen Stall von der Außenwelt. Der Virus hat jetzt gewonnen und der Halter muss sich auf große Verluste einstellen.
  4. Falls sich in Szenario 1 oder 2 herausstellt, dass bestimmte Tiere – etwa trächtige Säue – besonders geringe Überlebenschancen hätten, dann isoliert man diese Population. Wenn das Virus dann verschwunden ist, führt man alle wieder zusammen.

Welche Alternative angezeigt ist hängt primär davon ab, welcher Prozentsatz eine Infektion nicht überleben würde. Bei gewissen Seuchen hat man hier gute Erfahrungswerte und kann sofort handeln. Anderenfalls muss man die Mortalitätsrate selbst ermitteln.

 

Der Forscher im Stall

In praxi wird man beim ersten Anzeichen einer Seuche zuerst den Tierverkehr von und zu dem betroffenen Stall unterbinden, den Erreger identifizieren und seine Charakteristika  bestimmen, falls diese nicht schon bekannt sind; diese sind Übertragungsweise, Inkubationszeit, Mortalitätsrate. Dafür muss jedes Tier im Stall getestet und jedes verstorbene obduziert werden.

Mortalität ist hier der alles entscheidende Parameter, und der kann nur durch Obduktion bestimmt werden, denn nicht jedes positiv getestete tote Tier ist dem Virus erlegen. Sollte es nicht möglich sein alle Tiere im Stall zu untersuchen, dann muss eine repräsentative Untergruppe zu hundert Prozent getestet und gegebenenfalls obduziert werden.

Erst wenn die Mortalitätsrate bekannt ist kann eine der Alternativen 1 – 4  ausgewählt werden.

 

Auf den Menschen übertragbar

Nutzen wir jetzt die Erfahrungen aus der Welt der Tiere für die Menschheit, die heute im Bann von Covid19 gefesselt ist. Als feinfühliger Leser werden Sie jetzt Bedenken anmelden, man könne doch, um Himmels Willen, das Seuchenmanagement vom Schweinestall nicht auf die Menschheit übertragen! Soll man etwa den Verlust von Menschenleben von vorne herein bewusst in Kauf nehmen?

Keine Sorge. Beide Welten haben etwas gemeinsam: nur auf Basis von Fakten kann man wirksame Maßnahmen ergreifen. Im Falle Covid19 hatte man den Erreger mit seiner Übertragungsweise, seiner Inkubationszeit und seinen Wirtsvorlieben schnell erfasst, fehlt nur noch eine vertrauenswürdige Zahl für die Mortalität.

Die Mortalitätsrate ist der Anteil der Todesfälle durch Covid19 an der Gesamtzahl der Infizierten. Beide Zahlen sind schwer zu erheben – darüber ist viel berichtet worden. Die bei „Worldometer“ veröffentlichten Mortalitätsraten variieren von Land zu Land so extrem, dass man ihnen kaum vertrauen kann: Russland 1%, Deutschland 4% und Belgien 15%. Das macht wenig Sinn, denn die Mortalität ist primär ein Merkmal des Virus und hängt sekundär von der ärztlichen Versorgung der Erkrankten ab. Sie hat aber nichts mit der Wirksamkeit von unterschiedlichen Quarantänemaßnahmen in den Ländern zu tun.

Kein Zweifel besteht allerdings, dass alle Kinder eine Covid19 Infektion überleben. Bei Erwachsenen nehmen die Chancen mit dem Alter dramatisch ab: ein 75 Jähriger hat ein 40x so großes Risiko an der Infektion zu sterben wie ein 35 Jähriger. Es macht also gar keinen Sinn, von einer pauschale Mortalität zu sprechen! Man kann die Daten für Kinder, Alte und alle dazwischen nicht in einen Topf werfen. Die Senioren sind die klar definierte Risikogruppe.

Das sind nun genau die Randbedingungen für die Variante 4 in der obigen Liste. Die Alten müssen vor Infektion geschützt werden, der Rest der Welt soll sich durchseuchen und dem Virus harte Kante zeigen. Wenn die Seuche dann verschwunden ist, sind auch die Senioren wieder sicher.

Bei Menschen gibt es nun ein Instrument zum Schutz vor Ansteckung, welches bei Vierbeinern weniger funktioniert: Vernunft. Wenn unseren Oldies klar ist, dass sie eine Infektion vielleicht nicht überleben würden, dann werden sie sich von selbst entsprechend verhalten. Sie brauchen keine Gesetze, sondern nur den gesunden Menschenverstand, um zu wissen, was sie tun und lassen müssen.

Während unsere Senioren dann also den Tag im Liegestuhl, am Computer oder vor dem Fernseher verbringen, kann der jüngere, aktive Anteil der Bevölkerung seiner Arbeit nachgehen. Der eine oder andere wird sich wohl eine Woche lang krank melden, oder zwei, aber das ist nichts Neues. Diese Vorgehensweise wäre dem schwedischen Modell sehr ähnlich, das auf Einschränkung der Bewegungsfreiheit verzichtet, aber an die Eigenverantwortung appelliert. Damit ist die Seuche anscheinend gut überwunden worden.

 

Politik und Wissenschaft

Das Thema Corona hatte in Deutschland von Beginn an starken politischen Spin. Was die Regierung entschieden hat darf vom Mediziner nicht in Frage gestellt werden, sofern der nicht als Spinner diffamiert werden möchte. Für den spontan oder auch hastig verordneten Lockdown muss die Wissenschaft nun nachträglich die Begründung liefern, und das tut sie auch ganz brav. Das ist nicht gut so.

Politiker auf allen Ebenen – Land, Bund, Europa und UN – müssen sich den Vorwurf gefallen lassen, dass sie nicht dafür gesorgt haben, dass eine zuverlässige Zahl für die Covid19 Mortalität ermittelt wurde, deren Kenntnis ja Voraussetzung für die Wahl angemessener Quarantäne Maßnahmen gewesen wäre. Da gibt es einerseits Experten, die glaubwürdig versichern, Corona sei nicht schlimmer als eine übliche Grippen, und andere, die den Untergang der Menschheit prophezeien.

Statt die Fragen wissenschaftlich zu lösen geht man politisch vor: die einen werden von Medien und selbsternannten Wahrheitsfindern desavouiert, die anderen werden hofiert.  Das ist das Ende der modernen Zivilisation, die auf dem Boden der Aufklärung gediehen war.

Unsere Staatslenker, die sich auf allen Kanälen permanent als so verantwortungsvoll und alternativlos verkaufen, haben gezeigt, dass sie in einer möglicherweise echten Krise total überfordert sind. Sie sind Schönwetter-Kapitäne, die sich bei Sonnenschein ganz wichtig am Steuer des Schiffes fotografieren lassen, bei Sturm aber gehen sie mit ihren Beratern unter Deck, um Presserklärungen zu formulieren.

In anderen Ländern waren die Maßnahmen übrigens unerwartet erfolgreich. Südafrikas Regierung hat seit Ende März totalen Lockdown verordnet, und schon jetzt wird deutlich, wie viele Menschenleben dadurch gerettet wurden: Die Mordrate im Land ging von etwa 50 pro Tag auf 15 zurück. Warum? Das Haus darf nur aus lebenswichtigen Gründen verlassen werden und es wird kein Alkohol verkauft.

 

Dieser Artikel entstand in Zusammenarbeit mit Frau Dr. med. vet. Ellen Zech-Wedde

 

Dieser Artikel erschien zuerst bei www.think-again.orgund im Buch „Grün und Dumm“  https://think-again.org/product/grun-und-dumm/

 

 

 




Ergebnisse der CO2 – Messung am Mauna Loa (Hawai)

 

  1. Überprüfbarkeit dieser Kernaussagen des IPCC

Bisher wurden diese Aussagen vorallem durch Computermodellierungen gestützt die zeigen,

dass eine Erhöhung des CO2 – Gehaltes eine Erwärmung verursachen soll. Ein experimenteller Nachweis dieser Annahme mittels eines Großversuches fehlte bis heute, sodass ein Zirkelschluss nicht auszuschließen war.

 

  1. CO2 – Messung:

Am Mauna Loa – Observatorium wird seit 1958 durchgehend der CO2– Gehalt der Atmosphäre gemessen. Diese weltweit längste Messreihe wird als Referenzkurve (sogenannte Keeling Kurve nach dem Initiator Prof. Keeling) für die Entwicklung des CO2 – Gehalts, auch vom Weltklimarat IPCC, herangezogen.

Es besteht nunmehr durch die Corona Krise erstmalig die Möglichkeit, die Entwicklung des CO2 – Gehaltes in einem weltweiten Großexperiment zu überprüfen. Durch den Lock Down ist es global zu einem Wirtschaftseinbruch gekommen, der sich u.a. auch in einem drastischen Rückgang des Erdölverbrauches niederschlägt (fallweise mit negativen Rohölpreisen).

 

  1. Messdaten des Mauna Loa – Observatorium

Die nachstehende Abbildung ist der offiziellen Homepage der NOAA (National Oceanic and Atmospheric Administration) entnommen:  https://www.esrl.noaa.gov/gmd/ccgg/trends

  1. Ergebnisse

Die CO2 – Kurve am Mauna Loa steigt weiterhin ungebremst an und überschreitet bereits im April 2020 den Höchstwert vom Mai des Vorjahres. Die NOAA  gibt im Detail an:

März 2019: 411,97 ppm = 0,0411 %

März 2020: 414,50 ppm = 0,0414 %

Die Steigerungsrate gegenüber dem März des Vorjahres beträgt somit 2,53 ppm und ist höher  als die jährliche Steigerungsrate der letzten 3 Jahre (2017 – 2019) mit durchschnittlich 2,40 ppm, im letzten Jahr 2019 belief sie sich auf 2.47 ppm (siehe Homepage NOAA).

Informationen: der CO2 – Gehalt zeigt jahreszeitliche Schwankungen mit einem Maximum im Mai und einem Minimum im Oktober, die nach allgemeiner Ansicht mit der Vegetationsperiode zusammenhängt. Den schwächsten Anstieg zeigt die Kurve jedes Jahr zwischen Feber und März. Weitere Informationen können der oben zitierten Homepage der NOAA entnommen werden.

 

  1. Schlussfolgerungen zum derzeitigen Beobachtungszeitpunkt (02.05.2020)

Trotz der starken Reduktion der menschlichen CO2 – Emissionen durch die Corona Krise zeigt das CO2 keinen Rückgang. Daraus folgt nach jetzigem Kenntnisstand:

  • Der CO2 – Gehalt der Luft wird bisher nicht messbar durch den Menschen beeinflusst
  • Maßnahmen zur Reduktion der menschlichen CO2 – Emissionen wären daher zur Klimabeeinflussung bisher wirkungslos

 

  1. Weitere Vorgangsweise

Es ist denkbar, dass der menschliche Anteil am gesamten Kohlenstoffkreislauf so gering ist, dass er im statistischen Rauschen nicht wahrgenommen wird, bzw. der Beobachtungszeitraum noch zu kurz ist, um schwache Veränderungen registrieren zu können.  Die Messungen der nächsten Monate werden darüber Klarheit bringen.

 

Anschrift des Autors: manfred.koehler@outlook.com

 

Über den Autor

Nach dem Studium der Geologie in Innsbruck und einigen Jahren der wissenschaftlichen Forschung und Lehrtätigkeit bot sich mir die Gelegenheit, als Ingenieurkonsulent für Technische Geologie in einer international tätigen Planungsunternehmung bei Großprojekten auf der ganzen Welt tätig zu sein. Ich arbeitete in 22 Ländern auf 4 Kontinenten u. a. für die UNO in Libyen, die Weltbank in Honduras und die Kreditanstalt für Wiederaufbau in Indonesien und lernte dabei auch die Probleme dieser Multinationalen Institutionen sehr gut kennen.

Besonders fordernde Projekte waren u.a. die Betreuung als federführender Geologe von 1978 – 2002 beim längsten Eisenbahntunnel der Welt, die gesamte geologische Betreuung der Pipelineprojekte in Saudi-Arabien im Rahmen der bisher größten Trinkwasserversorgung und die Sanierung einer über 300m hohen Bogenstaumauer in einem Karstgebiet, die instabil zu werden drohte.

Der erfolgreiche Abschluss dieser Projekte, bei denen Millionen- und Milliardenwerte auf dem Spiel standen und Menschenleben gefährdet waren, lehrte  mich vorallem eines: nur die Beachtung der Faktenlage und ihre möglichst umfassende Auswertung ohne Voreingenommenheit sind die Grundlage für richtige Entscheidungen. Politische Vorgaben zwangen zu oft harten Auseinandersetzungen mit Regierungsstellen um nicht den Boden einer seriösen Projektierung und die eigene fachliche Reputation zu verlieren.

Vorallem Tunnelbauprojekte, bei denen täglich die geologischen Prognosen überprüft werden, erforderten eine genaue Unterscheidung zwischen gesichertem Wissen, vermutetem Wissen und Spekulation. Dies bedingt jedenfalls eine intensive, eigene Auseinandersetzung mit den Fachfragen, ein kritikloses Übernehmen von herrschenden Lehrmeinungen war nicht zielführend.

 

 

 




Die regenerative Geldverschwendung

Corona legt auch den Irrweg der deutschen Energiewende schonungslos offen. Losgelöst vom Bedarf verteuert Ökostrom das System. Der krisenbedingt gesunkene Verbrauch trifft auf erratische, subventionierte und verpflichtende Einspeisung. Es beschert uns einen Blick in die Zukunft unseres Energiesystems. Von Frank Hennig und Dr.-Ing. Detlef Ahlborn.

Zweiundfünfzig – 52 Prozent! So groß ist der Anteil der von Januar bis März 2020 gelieferten Produktion der „Erneuerbaren“ am Gesamtstromaufkommen. Am 21. April speisten Wind- und Solaranlagen den Rekordwert von 58,5 Gigawatt Strom ein (was einen kritischen Blick auf die installierte Leistung von 115,5 GW wirft. Warum kommt bei optimalem Wetter nicht mehr heraus?).

Wie immer, wenn die medialen Jubelperser einen Anlass suchen und finden, der deutschen Energiewende zu huldigen, greifen sie zu Durchschnittszahlen. Die naturgesetzlich notwendige Gleichzeitigkeit von Stromproduktion und –verbrauch kann man damit umgehen und auch die Tatsache, dass wir dieses erforderliche Gleichgewicht inzwischen nicht mehr im Griff haben. Bereits heute – vor Atom- und Kohleausstieg – sind wir bezüglich der Sicherheit unseres Netzbetriebes vom Ausland abhängig. Mit schöner Regelmäßigkeit flutet der deutsche Schönwetter-Ökostrom das europäische Netz, wonach sich bei Einbruch der Dunkelheit – wenn Menschen den Luxus elektrischer Beleuchtung in Anspruch nehmen – die Stromflussrichtung umkehrt und wir zum bedürftigen Importeur werden. Der Monat April 2020 legte dies schonungslos offen:

Ganz offensichtlich fallen große Exportmengen und niedrige Börsenpreise mit hohen Leistungen aus Wind- und Solarenergie zeitlich zusammen, bei geringer Produktion muss Strom importiert werden. Dieser Zwangsexport ist nötig, um die Netzstabilität zu erhalten. Das führt bei der besonderen, kaum speicherbaren Ware Strom zum Irrsinn des Entsorgens von Strom gegen eine Gebühr. Im Energiewende-Neusprech heißt diese Gebühr Negativpreis. Neu und auffallend sind längere Zeiträume durchgehenden Imports, was offenlegt, dass unsere Netzsicherheit inzwischen maßgeblich von unseren Nachbarn gewährleistet wird.

Gegen Gebühr entsorgte Strommenge (Megawattstunden) und volkswirtschaftliche Kosten für die Monate Januar bis April 2020

Mit der von Januar bis April verschenkten Strommenge ließe sich die Stadt Hamburg acht Monate lang mit Strom versorgen. Der gleiche Strom, der für 107,4 Millionen Euro entsorgt werden musste, wurde den Produzenten aufgrund von gesetzlich garantierten Einspeisevergütungen mit 976,9 Millionen Euro bezahlt. Die Stromverbraucher zahlen beides: Produktion und Entsorgung des „Ökostroms“, allein in diesem Jahr bisher fast 1,1 Milliarden Euro. Dieser Betrag entspricht dem Hochschul-Budget des Landes Rheinland Pfalz.

Eine weitergehende Erläuterung der Zusammenhänge, bezogen auf das erste Quartal 2020, findet sich hier. Der lange Jahre übliche Vorwurf, wir sollten weniger Strom exportieren, um Emissionen zu senken, ist bereits gegenstandslos geworden. Unser Exportstrom ist heute überwiegend Ökostrom, wie an dieser Korrelation erkennbar ist.

Die heilige grüne Einfalt beklagt in einer Gebetsmühle die angebliche Unflexibilität der konventionellen Stromerzeuger, ohne zu erwähnen, dass ein Mindestbetrieb dieser Anlagen technisch notwendig ist, um Systemdienstleistungen (Frequenzhaltung / Spannungshaltung) zu erbringen und damit das Netz zu sichern. Die gepriesenen „Erneuerbaren“ könnten es technisch ohnehin nur eingeschränkt tun, sie werden aber regulativ dazu nicht animiert. Wie auf diesem Weg die Öko-Vollstromversorgung gelingen soll, ist ein regierungsamtliches Geheimnis. Den bejubelten 52 Prozent volatiler Einspeisung stehen genau null Prozent Systemverantwortung gegenüber.

Die Situation könnte auch mit einer gewissen Realitätsferne der Entscheider zu tun haben. Wirtschaftsminister Altmaier antwortete nach dem Kabinettsbeschluss zum Kohleausstieg im Januar auf eine Frage zum Thema Versorgungssicherheit, dass man künftig weniger exportieren werde. Dies ist bereits jetzt der Fall, ganz ohne abgeschlossenen Atom- und begonnenen Kohleausstieg. Hinzu kommt die Import-Notwendigkeit. Nur gut, dass unsere Nachbarländer nicht auch ihre Stromsysteme nach deutschem Muster in Grund und Boden fahren.Frau Andreae, Cheflobbyistin und Geschäftsführerin des inzwischen politisch ergrünten BDEW (Bundesverband der deutschen Energie- und Wasserwirtschaft) vergießt indessen Krokodilstränen über den stockenden weiteren Ausbau von Zufalls-Stromproduzenten. Rein rechnerisch wäre nach den Wende-Konzepten natürlich der weitere exzessive, sogar beschleunigte Ausbau der instabilen Erneuerbaren nötig. Eine Studie des Übertragungsnetzbetreibers TransnetBW nennt die Randbedingungen zum Erreichen der klimapolitischen Ziele bis 2050: Bei Zunahme der Stromnachfrage um 50 Prozent eine drei- bis vierfache Erhöhung der installierten Leistung Wind und Solar, zudem reiche der Netzentwicklungsplan 2030 nicht aus.

So hätte die Einspeisung im Monat April 2020 ausgesehen, wenn wir hypothetisch die dreifachen Kapazitäten der Wind- und Solarstromerzeugung bereits hätten:

Stromerzeugung und Verbrauch bei verdreifachten Wind- und Solarkapazitäten

Erkennbar ist, dass uns beim Ausgleich dieser extremen Schwankungen dann auch die Nachbarn nicht mehr helfen könnten. Jeder Zubau solcher Kapazitäten verschärft das Entsorgungsproblem und dennoch bleiben wir zeitweise auf Import angewiesen. Große Stromspeicher finden derzeit nur in Szenarien statt, Power-to-Gas in Pilotanlagenmaßstab ohne Aussicht auf Wirtschaftlichkeit. Selbst Optimisten halten den Grünen Wasserstoff nicht vor 2030 für wirksam. Unterdessen bauen Windanlagenhersteller Arbeitsplätze ab, Vestas 400, Enercon in Magdeburg 143. Die Realitäten zeigen, dass jegliche Subventionswirtschaft befristet ist.

Dringend nötig wäre ohnehin ein Ausbaumoratorium der volatilen Einspeiser, um die Netzfrequenz zu beherrschen. Der maßgebende Parameter für die Energiewende sind nicht x-Millionen Tonnen vermiedenen Kohlendioxids, sondern es ist die 50- Hertz-Netzfrequenz.

In diesen Krisenzeiten irrlichtern die Grünen auf der Suche nach medialer Aufmerksamkeit mit schrägen Vorschlägen durch das Land. Kurz vor dem Ruin stehende Hotel- und Gastronomiebetriebe sollen ihre Heizungen erneuern, deutsche Kernkraftwerke sollen sofort abgeschaltet werden (weil Revisionen im Schutzanzug zu gefährlich sind) und im Bundestag fordern sie die Regierung auf – Pandemie hin oder her – den „weltweiten Atomausstieg voran zu bringen“. National will man mit einer Absenkung der EEG-Umlage punkten. Um satte fünf Cent pro Kilowattstunde (ausgehend von 6,756 plus Mehrwertsteuer) soll entlastet werden, um die Wirtschaft wieder anzukurbeln. Man verweist darauf, dass dann Elektroautos, Wärmepumpen und Wasserstoff-Anwendungen wirtschaftlicher würden. Auch dies ein Zeichen wahrlich überbordender Wirtschaftskompetenz der Grünen. Wenn eine Umlage durch Steuergeld oder Geld aus einer CO2-Abgabe ersetzt wird, macht dies die Technologie nicht wirtschaftlicher.Künftig werden diejenigen Länder wirtschaftlich erfolgreich sein, die Zugang zu ausreichender und preiswerter Energie haben. Davon verabschieden wir uns zusehends. Der April 2020 war ein Rekordmonat im negativen Sinne, ein Offenbarungseid und ein Pyrrhussieg. Der Überproduktion, die nicht gebraucht, sondern teuer entsorgt werden muss, steht Mangel gegenüber, der teuer ausgeglichen werden muss. In einer Strombilanz reicht es nicht aus, nur Durchschnittswerte zu betrachten.

Der Dorfteich war im Durchschnitt nur einen halben Meter tief. Aber die Kuh ist trotzdem ertrunken. Nicht zu 52, sondern zu 100 Prozent.


Dr.-Ing. Detlef Ahlborn ist Maschinenbau-Ingenieur, angewandter Mathematiker und 2. Vorsitzender der Bundesinitiative Vernunftkraft e.V. Dort leitet er den Arbeitsbereich Technik.

Der Beitrag erschien zuerst auf TE hier




Tschernobyl hätte nicht sein müssen

In diesen Tagen vor 34 Jahren wurde die Berichterstattung von der ukrainischen Reaktor-Katastrophe im Kernkraftwerk Tschernobyl beherrscht wie derzeit vom Corona-Virus. Es war das erste, bis dahin größte Kernkraftunglück, und es ist es bisher auch geblieben. Ausgelöst wurde die Katastrophe, weil in dem Werk mit dem Reaktor 4 ein vollständiger Stromausfall simuliert werden sollte, um das Verhalten der Anlagen zu testen. Hierbei haben die Beteiligten schwerwiegend gegen die Sicherheitsvorschriften verstoßen. Diese Verstöße führten zusammen mit bauartbedingten Eigenschaften des Reaktors zu einem unkontrollierten Leistungsanstieg. Der Reaktor erreichte einen instabilen Betriebsbereich und explodierte.*) Aber der erste „GAU“ fand nicht in Tschernobyl statt, sondern 1967 als ein Versuch mit dem AVR-Versuchs-Hochtemperatur-Reaktor in Jülich, um seine Sicherheit zu testen. 1977 ist dieser Sicherheitsversuch dort wiederholt worden. Ergebnis beider Versuche: Kein Schaden, keine Strahlung nach außen, keine Verstrahlung des Personals. Nur ist das öffentlich nicht wahrgenommen worden und ist auch nach wie vor nicht bekannt.

Die deutschen Versuchsreaktoren AVR und THTR

Darauf aufmerksam gemacht hat jetzt der Nuklearphysiker Dr. Ing. Urban Cleve, Dortmund. Er war führend an der deutschen Hochtemperatur-Reaktortechnik (AVR in Jülich und THTR in Hamm-Uentrop) beteiligt. Der AVR ist der erste deutsche Hochtemperatur Reaktor (HTR). Die Abkürzung THTR steht für Thorium-Hoch-Temperatur-Reaktor. Beide gehören in die Kategorie Kugelhaufen-Reaktor. Cleve war Mitarbeiter der BBC/Krupp Reaktorbau GmbH. Diese hatte ihn 1964 zum Leiter ihrer Hauptabteilung Technik ernannt, wo er für die Konstruktion, Bauleitung, Prüfungen, E-Technik und Inbetriebnahme des AVR in Jülich zuständig war. Auch war er daran beteiligt, die Planung für das Kernkraftwerk THTR-300 bis zur Baureife zu dokumentieren. Bei den GAU-Versuchen in Jülich ging es darum, die nuklearphysikalische inhärente Sicherheit zu belegen. Cleve erläutert:

Die drei erfolgreichen GAU-Versuche in Jülich und in China

„Mit dem AVR wurde diese zweimal getestet, das erste Mal vor der Inbetriebnahme. Ohne diesen Test wollte der TÜV keine Betriebsgenehmigung erteilen. Hierzu wurden alle Sicherheitseinrichtungen, Abschaltstäbe, Gebläse, Reservegeneratoren etc. blockiert,  alles war funktionsunfähig. Nach Drücken des Schnellschlusses bei Voll-Last, wobei momentan die gesamte Kühlung des Kugelbettes ausfiel, kühlte sich der Reaktor von allein ab und wurde nach ca.14 Tagen aus dem kalten Zustand wieder problemlos angefahren. Grund hierfür war der negative Temperaturkoeffizient, das heißt: Bei Ausfall der Kühlung des Reaktorkerns sinkt die Reaktivität bis gegen Null.  Das zweite Mal wurde dieser Versuch wiederholt mit Messung aller relevanten Daten, aus denen ein Programm zur Auslegung künftiger Reaktoren, so u. anderem der Versuchsreaktor HTR-10 in China, gebaut wurde. Mit diesem kleinen Versuchsreaktor wurde dieser Versuch zum dritten Mal erfolgreich durchgeführt. … Also zusammenfassend, bei Ausfall jeglicher Kühlung des Kugelbettes kühlten sich der AVR und der HTR-10  selbstständig ab. … Der AVR hat aber in 23 Betriebsjahre nachgewiesen, dass er konstruktiv und nuklearphysikalisch ‚GAU-frei‘ ist.“ (Aus: Cleve-Mail vom 12. Oktober 2019).

Mit einem HTR in Tschernobyl hätte es die Katastrophe dort nicht geben können

Am 8. Mai 2014 hatte Cleve an das zuständige Bundesministerium**)unter anderem geschrieben: „Beim AVR, als ich den ersten ‚Test-Gau’ eines KKW (Kernkraftwerks) in Jülich verantwortlich 1967 leitete, noch vor Tschernobyl, hätte man nach Abschaltung des Reaktors ‚nach Hause gehen können’, selbst wenn alle Sicherheitseinrichtungen funktionsunfähig sind. Wenn man nach drei Tagen dann wieder zum KKW kommt, kann man es problemlos wieder in Betrieb nehmen. Vergleichen Sie diese Bilder mit Fukushima, da erkennen Sie den Unterschied. Hätte, wie von der Ukraine angefragt, dort ein HTR gestanden, wäre Tschernobyl verhindert worden.“

Ursprünglich wollte die Ukraine einen deutschen THTR bauen

In der Tat hatte die Ukraine ursprünglich einen THTR bauen wollen und mit BBC/Krupp deswegen in Kontakt gestanden. Das Vorhaben scheiterte am Beschluss der Landesregierung Nordrhein-Westfalen, die THTR-Entwicklung einzustellen. Die Ukraine entschied sich dann für einen russischen Reaktor. Cleve hält es für möglich, dass die Ukraine den erfolgreichen AVR-Test-GAU mit dem russischen Reaktor nachahmen wollte. Er vermutet, dass die Kollegen in der Ukraine, in Kenntnis des AVR-Erfolges, zu sorglos an dieses Experiment herangegangen sind, mit den schlimmen Folgen. Doch dies sei nur eine Vermutung, allerdings verständlich. Einem möglichen Vorwurf, der Test-GAU in Jülich sei leichtsinnig gewesen, hält Cleve dies entgegen:

Test-GAU sehr sorgfältig vorbereitet und einen schnellen etwaigen Abbruch vorher trainiert

„Wir haben damals den Test sehr sorgfältig vorbereitet. Ich habe mir von zwei wissenschaftlichen Stellen den voraussichtlichen Temperaturverlauf unabhängig voneinander berechnen lassen. Beide stimmten ziemlich exakt überein und verliefen fast so, wie später gemessen. Zwar hatten wir beim AVR alle Sicherheitseinrichtungen blockiert, aber an jeder Einrichtung stand ein Mitarbeiter, der diese Blockade von Hand auf Kommando sofort wieder aufheben konnte. Das hatten wir vorher ‚trainiert‘. Hätte der Temperaturverlauf zu höheren Temperaturen als berechnet geführt, oder wäre der Anstiegsgradient schneller gewesen, ich hätte den Versuch sofort abgebrochen, mit der Konsequenz, dass das Experiment AVR gescheitert sei.“

Zum 34. Jahrestag der Reaktor-Explosion in der Ukraine am 26. April 1986 hat auch die Aktionsgemeinschaft Energiesicherung und Kerntechnik (AEK) e.V. an den Versuchsreaktor in Jülich erinnert – als eine Tatsache zum Nachdenken, weil sie vergessen worden sei. In ihrer Mitteilung (hier) schreibt sie:

Keinerlei Strahlung, keinerlei Schaden, von der Bevölkerung unbemerkt

„Aachen ist heute für den erbitterten Widerstand gegen ausländische Kraftwerke bekannt. Dabei hat die Hochschule und das Forschungszentrum Jülich einen der interessantesten Reaktortypen, den Kugelhaufenreaktor; hervorgebracht, der heute (wie der Transrapid) in China gebaut wird. Bereits 1967, also knapp 20 Jahre vor Tschernobyl, mussten die Ingenieure zusammen mit dem TÜV zeigen, dass dieser Reaktortyp, in Form des Versuchskraftwerks AVR, auch bei Ausfall der Kühlung und Blockierung der Sicherheitseinrichtungen und Abschaltstäbe sich ganz von allein abschaltet urrd nach einigen Tagen vollständig abgekühlt hat. Die Anlage war stromlos, wie in Fukushima. Das Betriebspersonal musste gar nicht eingreifen. Keinerlei Strahlung, keinerlei Schaden, von der Bevölkerung unbemerkt. Den THTR-300 in Hamm-Uentrop baute man als Nachfolger, betrieb ihn aber nicht lange, obwohl diese Reaktoren großes Potenzial für die Zukunft hatten. Sie wurden in allen Größen auch für den enormen Wärmebedarf der Industrie konzipiert.“

Nähere Informationen zum Hintergrund des Falles Jülich

Die AEK weist ebenfalls auf Urban Cleve hin, der bei ihr auch Mitglied sei. Bei ihm könne man weitere Informationen abrufen, verfügbar im Internet. Näheres und etwas zum Hintergrund finden Sie auch in zwei früheren Beiträgen von mir: Kernkraft, nein danke? (hier) und Eine deutsche Zerstörungswut (hier). Ferner zur Strahlungsgefahr: Die übertriebene Strahlungsangst (hier). Zum deutschen Ausstieg aus der Kernkraftnutzung in unterschiedlicher Sichtweise: Zwischen Stromausfall und Super-Gau (hier). Zur widersprüchlichen Sichtweise: Atombomben dürfen sein, Kernkraftwerke nicht (hier) und Die Schizophrenie gegenüber den Kernkraftwerken (hier).

Die Sorge der Grünen vor der Wiederbelebung der Kernkraft in Deutschland

Die AEK schreibt: „Tschernobyl war ein Experiment, welches gegen alle Regeln verstieß. Sicherheitsvorkehrungen wurden bewusst ausgeschaltet. Der Reaktortyp hat überhaupt nichts mit den in Deutschland vorhandenen Wasserreaktoren zu tun; die aus physikalischen Gründen gar nicht explodieren können.“ Sie wendet sich in ihrer Mitteilung besonders dagegen, dass Die Grünen Tschernobyl-Jahrestage „gebetsmühlenartig“ gegen die Kernkraft nutzen. So habe die Partei die Bundesregierung am 21. April 2020 aufgefordert, ,,sich einer versuchten Renaissance der Atomkraft mit allen zur Verfügung stehenden Argumenten entgegen zu stellen und mit aller Kraft den europäischen und weltweiten Atomausstieg voran zu bringen“. Dafür solle sie ihre kommende EU-Ratspräsidentschaft nutzen (Bundesdrucksache 19/18679). ln einem zweiten Antrag vom selben Tag fordere sie unter anderem, die Urananreicherung abzuschalten und die „Mittel für die Atomforschung“ zu streichen (Bundesdrucksache 19/18678). Die Grünen sorgten sich, es könne sich die internationale Sichtweise, dass Kernkraft klimafreundlich sei, durchsetzen. Sie würden in erschreckender Weise fordern, die Freiheit der Forschung zu beschränken.

Falsche Gesetze gegen eine Strahlungsgefahr, die nicht existiert

Zum Tschernobyl-Gedenktag vor einem Jahr schrieb einer der Experten für radioaktive Strahlung, der Physiker Dr. Lutz Niemann, unter anderem: „Es läuft einiges falsch mit der Kernenergie, besonders in Deutschland. Der Grund sind falsche Gesetze, mit denen eine nicht existierende Strahlengefahr abgewehrt werden soll (§ 28 StrlSchV 1989). Gesetze werden von Menschen gemacht und Menschen können irren. Das ist beim Strahlenschutz sicher der Fall. Der Kernenergieausstieg ist eine Folge der jahrelang geschürten Strahlenangst. Fachleute der Strahlenbiologie und aus der Kernenergiebranche protestieren gegen diese falschen Gesetze, aber sie kommen nur auf ihren Fachtagungen oder in ihren Fachzeitschriften zu Wort. Die hauptamtlichen Strahlenschützer sehen die Dinge teilweise anders, denn ihnen geben falsche Gesetze die Lebensgrundlage. Unsere Massenmedien hätten die Macht zu einer Veränderung, aber bisher haben sie diese Macht nicht genutzt, das ist bedauerlich. Manchmal wird daher von Lückenmedien oder Lügenmedien gesprochen.“ Niemanns ganzer Beitrag hier.

________________________________________

*) Notkühlsysteme wurden abgeschaltet, automatische Signale für die Notabschaltung unwirksam gemacht oder überbrückt. Konstruktionsfehler im Regelstabsystem führten schliesslich dazu, dass beim Einfahren der Regelstäbe die Leistung des Reaktors auf nahezu das 100-Fache der Nennleistung stieg – viel zu schnell und zu massiv für die teilweise ausser Kraft gesetzte automatische Schnellabschaltung. Der Brennstoff erhitzte sich stark. Das Kühlwasser verdampfte schlagartig. Der Reaktordeckel konnte dem enormen Druck nicht standhalten. Zwei Explosionen mit Materialauswurf ereigneten sich, und die Anlage wurde stark beschädigt. Die konstruktionsbedingt großen Mengen an Graphit im Reaktor gerieten in Brand. Mit der starken Hitze gelangte Radioaktivität in große Höhen und verteilte sich über weite Teile Europas.“ (Quelle: Swissnuclear, Verband der Schweizer Kernkraftwerkbetreiber, hier).

**) Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMBF). Adressiert war das Schreiben an den Leiter der Abteilung „Sicherheit kerntechnischer Einrichtungen, Strahlenschutz, nukleare Ver- und Entsorgung“, Dr. Wolfgang Cloosters.

Ferner schreibt Cleve in dem Brief: „Bitte beachten Sie die enormen sicherheitstechnischen  und auch wirtschaftlichen Vorteile eines HTR beim Betrieb und später dann auch beim Rückbau. …. Die ‚Entsorgung’ des AVR kostet 625.000 Euro je Quadratmeter ‚Grüner Wiese’.   Da  braucht man kein ‚Asse’ und kein ‚Gorleben’. Das ‚Restgebäude’ kann man nutzen, wie man möchte, beispielsweise als Aussichtsturm für Wanderer mit Bistro. Genau so kann die Lösung für einen THTR aussehen. … Die Brennelement-Castoren können Sie im Freien aufstellen, da kann auch durch noch so ein schweres Erdbeben nichts passieren, es strahlt nichts mehr nach außen, es geht auch nichts kaputt. Sonne, Mond und Sterne und die Erde selbst strahlen radioaktiv viel intensiver, als jeder HTR-Spannbetonbehälter oder HTR-Brennelement-Castor. Warum werden diese Erfolge einer mit 8 Milliarden Steuermitteln erarbeiteten  Technik von der Politik nicht erkannt, aber auch, warum weigern sich EVU eine Technik ohne ‚Restrisiko’ in Zukunft zu bauen.“ EVU ist die Abkürzung für Energieversorgungsunternehmen.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Bitte mitmachen: Gemeinsame Anfrage an die Fraktionen des Deutschen Bundestages zu den Regierungsmaßnamen in der Corona-Krise

Bei den fünf, zum Teil wegen ihrer kritischen Haltung zu den Regierungsmaßnahmen der Bundesregierung bekannt gewordenen Professoren handelt es sich um Prof. Dr. Sucharit Bhakdi, medizinischer Mikrobiologe an der Universität Mainz, den Toxikologe und Immunologe Prof. Dr. Stefan Hockertz, Prof. Dr. Stefan Homburg (Volkswirtschaftslehre) von der Universität Hannover, Prof. Dr. Werner Müller (Betriebswirtschaftslehre) von der Hochschule Mainz und den Psychologen Prof. Dr. Dr. Harald Walach von der Universität Witten-Herdecke.

Vor ein paar Tagen haben sie eine gemeinsame Anfrage an die Fraktionen des Deutschen Bundestages formuliert. Die Wissenschaftler sehen schwerwiegenden Folgen aufgrund des gegenwärtigen Ausnahmezustands, der von den Regierenden mit dem Kampf gegen den Corona-Virus begründet wird, auf das Land zukommen.

Jouwatch dokumentieren den benannten Text und den Aufruf der Professoren, sich ihren Fragen anzuschließen:

Gemeinsame Anfrage an die Fraktionen des Deutschen Bundestages zu den Regierungsmaßnamen in der Corona-Krise

Anfrage nach Art. 17 GG:

Wir sind 5 Professoren verschiedener Fachrichtungen und wir kommen zu der Einschätzung, dass die Reaktionen der Regierung auf die Covid-19-Pandemie angesichts der davon ausgehenden Bedrohungen nicht verhältnismäßig sind. Wir bitten Sie, die am Ende des folgenden Textes, auf den wir uns verständigt haben, gestellten Fragen im Rahmen einer parlamentarischen Anfrage an die Bundesregierung zu richten. Der Text steht unter dem Motto:

Die Schäden einer Therapie dürfen nicht größer sein als die Schäden der Krankheit

Bei der massiven Einschränkung von Grundrechten hat der Staat eine Bringschuld, seinen Bürgern die Rechtfertigung immer wieder darzulegen. Dabei ist die Abwägung des Für und Wider der Maßnahmen nachvollziehbar zu erläutern. Sie sind nur zulässig, wenn sie zum Schutz eines überragend wichtigen Rechtsgutes zwingend erforderlich sind, wenn sie verhältnismäßig sind und es kein milderes Mittel gibt. Maßnahmen, die zur Erreichung des Zieles nicht geeignet sind, können nicht erforderlich sein, erst Recht nicht zwingend.

Es wurde bisher keine Abwägung der Folgen der Einführung der Maßnahmen gegenüber einem Verzicht darauf veröffentlicht. Wir zweifeln an, dass es diese Abwägung je gegeben hat. Seit Hippokrates‘ Losung „Erstens nicht schaden, zweitens vorsichtig sein, drittens heilen“ ist unbestritten, dass die Schäden einer Therapie nicht größer sein dürfen als die Schäden einer Krankheit. Das gilt auch, wenn man vor der sprichwörtlichen Entscheidung zwischen Pest und Cholera steht.

Man sollte bei einer schwerwiegenden Entscheidung die Chancen nutzen, deren Eintritt einigermaßen wahrscheinlich ist und Risiken vermeiden, deren Konsequenzen bei einem Eintritt existenzvernichtend wären. Wenn man zwischen zwei entgegengesetzten Richtungen entscheiden muss, sollte man für beide Wege die wahrscheinlichen Folgen sowie Chancen und Risiken abwägen. Bei der Abwägung – sollte sie stattgefunden haben – wurde der enorme wirtschaftliche Schaden anscheinend nicht berücksichtigt. Es wurde auch nicht berücksichtigt, dass die Entwicklung eines Medikaments oder Impfstoffes innerhalb kurzer Zeit ausgeschlossen ist und dass die Lähmung des öffentlichen Lebens und der Wirtschaft über mehrere Monate unmöglich ist. Die sich in dieser Situation aufdrängende Problemlösung, über eine fortschreitende Infektion eines überwiegenden Teils der Bevölkerung eine Herdenimmunisierung zu erreichen, wurde anscheinend ohne jede Prüfung verworfen.

Die psychischen Schäden lassen sich wirtschaftlich kaum quantifizieren. Die Schließung von Schulen, Kindertagesstätten und Spielplätzen schädigt unsere Kinder. Ihre Lernmotivation wird geschädigt und sie verlernen soziales Verhalten. Ihre Eltern werden zwischen Home-Office, Home-Schooling und Anspruch, die eigenen Kinder liebevoll betreuen zu wollen, zerrieben. Auch sie werden die aktuelle Situation nur zeitlich begrenzt aushalten können. Diese Belastungen erscheinen zudem völlig überflüssig, denn Kinder und Jugendliche zeigen bei einer Infektion kaum Symptome und in Deutschland leben sie auch nur sehr selten mit ihren Großeltern in einem gemeinsamen Haushalt, so dass von ihnen auch keine Infektionsgefahr für sog. Risikogruppen ausgeht.

Weil es mit der Herdenimmunisierung ein geeignetes und minder schweres Mittel gibt, wie Schweden, Südkorea oder Taiwan beweisen, sind die Maßnahmen der Regierung unzulässig. Es wurde nicht dargelegt, dass die Durchseuchung der Gesellschaft schwerwiegendere Folgen haben sollte als die Zerstörung der Wirtschaft und insbesondere der Zusammenbruch des Mittelstandes.

Wir zweifeln an, dass es überhaupt eine besondere Bedrohung der Bevölkerung und selbst der Risikogruppen gibt. In der Zeit vom 01.01. bis 04.03.2017 sind im zeitlichen Zusammenhang mit einer Grippewelle in der Altersgruppe ab 80 Jahren 25.243 Personen mehr gestorben als im gleichen Zeitraum des Jahres 2016, in dem vom Robert-Koch-Institut keine Grippewelle registriert wurde, wobei zur Vergleichbarkeit der 29.02.16 nicht berücksichtigt wurde. Im Zeitraum vom 13.02. bis 29.03.18 starben während einer anderen Grippewelle 23.971 Menschen dieser Altersgruppe mehr als im gleichen Zeitraum des Jahres 2016. Zwischen dem 02.07. und dem 23.08.18 starben während einer Hitzewelle 9.585 Menschen mehr als im gleichen Zeitraum des Jahres 2016. Zwischen dem 09.03. und dem 24.04.20 wurden vom Robert-Koch-Institut 3.349 Menschen registriert, die im Zusammenhang mit einer Covid-19-Infektion in den Altersgruppen ab 80 verstorben sind – seit dem 25.04. werden diese Zahlen nicht mehr veröffentlicht! Selbst wenn man bei „italienischen Verhältnissen“ hochgerechnet auf die größere Bevölkerung 6,7fache Todeszahlen als jetzt unterstellen würde, wäre noch keine Größenordnung wie im Januar/Februar 2017 oder März/April 2018 erreicht, als die Regierung keinen Anlass zum Handeln gesehen hat und die deshalb auch nicht als bedrohlich eingeschätzt wurde. Es ist auch nicht bedrohlich, wenn wie in den Jahren 2016 bis 2018 90 % der Verstorbenen 60 Jahre oder älter sind und wenn 96,6 % dieser Altersgruppe an Krankheiten statt an Unfällen oder Gewalthandlungen stirbt. Bei Covid-19-Infektionen konnten bisher keine von diesem normalen Verlauf deutlich abweichende Verhältnisse beobachtet werden.

Wenn es aber keine besondere Bedrohung gibt, sind besondere Maßnahmen zum Schutz der Bevölkerung unverhältnismäßig. Wenn bei über 25.000 Toten überhaupt keine Bedrohung vorgelegen hat, dann wird eine besondere Bedrohung wohl frühestens bei der dreifachen Anzahl* vorliegen können.

Die Tagesschau vom 21.04.20 zitierte den Basler Pathologe Tzankov: „Natürlich hätten die Verstorbenen viele Vorerkrankungen und die Lebenserwartung sei sicher kürzer als die von Gesunden. ‚Aber alle diese Patienten hätten wahrscheinlich ohne Covid-19 länger gelebt, vielleicht eine Stunde, vielleicht einen Tag, eine Woche oder ein ganzes Jahr.‘ Ohne das Coronavirus wären die Verstorbenen, die er obduziert habe, ‚wahrscheinlich noch am Leben‘.“ (https://www.tagesschau.de/investigativ/ndr-wdr/corona-obduktionen-103.html) Die Maßnahmen der Regierung ließen sich verfassungsrechtlich aber höchstens dann rechtfertigen, wenn damit eine große Anzahl von Menschenleben nachhaltig gerettet würde. Die Verlängerung einer Sterbephase ist kein überragend wichtiges Gemeinschaftsinteresse! Sie widerspricht wahrscheinlich sogar dem Interesse der Sterbenden. Eine Lebensverlängerung um ein Jahr reicht nicht aus. Sie könnte in keinem Fall die massenhafte Vernichtung der wirtschaftlichen Existenz mittelständischer Unternehmen oder ganzer Branchen (z.B. Gastronomie) rechtfertigen. Die aktuelle Situation unterscheidet sich grundlegend von der verfassungsrechtlichen Problematik beim Luftsicherheitsgesetz. Es geht nicht darum, ob der Staat wahrscheinlich Sterbende aktiv töten darf, um andere Menschen zu retten. Es ist zu fragen, ob der Staat mit unverhältnismäßig hohem wirtschaftlichen Schaden und mit massiven Grundrechtseinschränkungen das Leben von wahrscheinlich Sterbenden verlängern muss, oder ob er nicht Sterbende schneller sterben lassen darf (bzw. sollte oder muss), um die Grundrechte und die wirtschaftliche Existenz der Lebenden zu schützen.

Die Maßnahmen der Regierung erscheinen angesichts der enormen wirtschaftlichen und gesellschaftlichen Schäden, die sie verursachen, auch unverhältnismäßig. Wenn wegen des überwiegend hohen Alters und der Vorerkrankungen jeder potentiell Gerettete noch durchschnittlich 1.000 Tage** Restlebenszeit hätte, würden selbst bei 200.000 vermiedenen Todesopfern nur 200 Mio. Lebenstage gerettet. Bei einem wirtschaftlichen Schaden von 1.000 Mrd. € wären das 5.000 € pro gerettetem Lebenstag, und das wahrscheinlich bei stark eingeschränkter Lebensqualität. Diese hohen Kosten sind durch nichts zu rechtfertigen. Die Maßnahmen, die einen wirtschaftlichen Schaden in solcher Größenordnung verursachen, sind deshalb unverhältnismäßig. Zudem ist zu berücksichtigen, wie viele Menschen durch die unnötige Absage lebenswichtiger Operationen bereits jetzt zusätzlich verstorben sind und wie viele aufgrund der absehbaren Kürzung der Gesundheitsausgaben nach einer tiefen Rezession zusätzlich versterben werden.

Wenn die Regierung die Rechtfertigung für ihre Maßnahmen nicht dezidiert darlegen kann, wären sie aufzuheben. Deshalb verlangen wir Antworten auf folgende Fragen:

1) Welche konkreten Szenarien lagen am 13.03.20 vor, und aus welchen Grund hat sich die Regierung für Kontaktbeschränkungen und gegen die Herstellung der Herdenimmunität entschieden?

2) Was waren die Gründe, wegen der die Regierung in der Covid-19-Pandemie eine Bedrohung für die Bevölkerung sieht, obwohl sich die Sterblichkeit nicht wesentlich von den alltäglichen Todesfällen unterscheidet und sie sogar wesentlich niedriger ist als im Januar/Februar 2017, März/April 2018 und Juli/August 2018, als die Regierung keinerlei Aktivität gezeigt hat.

3) Mit welchen Gründen rechtfertigt die Regierung die hohen wirtschaftlichen Schäden und die zusätzlichen Sterbefälle, die aus ihren Maßnahmen resultieren, vor allem unter Berücksichtigung der geringen geretteten Lebenszeit.

4) Was sind die Gründe für die Schließung von Kindertagesstätten, Kindergärten, Schulen und Hochschule, wenn die Erkrankung doch an jungen Menschen spurlos vorbeigeht und eine natürliche Immunität möglichst vieler Menschen eher hilfreich im Kampf gegen noch wenig bekannte Erreger ist?“

Anmerkungen:

*= bis 25.000 keine Bedrohung, 25-75.000 normale Bedrohung, über 75.000 besondere Bedrohung

**= lt. RKI liegt der Altersmedian der Verstorbenen bei 82 Jahren, es sind 58 % Männer (Restlebenserwartung 6,92 Jahre) und 42 % Frauen (8,21 Jahre) mit Corona-Infektion gestorben, woraus sich eine durchschnittliche Restlebenszeit von 7,46 Jahren ergibt. Wenn aber bei 75 % wegen der Vorerkrankungen eine Restlebenszeit von nur noch 365 Tagen unterstellt wird, dann ergibt sich ein gewogener Durchschnitt von 955 Tagen. 1.000 Tage dürften also nicht zu niedrig geschätzt sein.

28. April 2020

Prof. Dr. Sucharit Bhakdi, Medizinische Mikrobiologie, Universität Mainz

Prof. Dr. Stefan Hockertz, Toxikologie/Immunologie, tpi consult GmbH, Bollschweil, ehem. Univ. Hamburg

Prof. Dr. Stefan Homburg, Volkswirtschaftslehre, Universität Hannover

Prof. Dr. Werner Müller, Betriebswirtschaftslehre, Hochschule Mainz

Prof. Dr. Dr. Harald Walach, Psychologie, Universität Witten-Herdecke

Am 28.04.2020 haben sich die Unterzeichner des folgenden Textes auf folgende gemeinsame Anfrage nach Art. 17 GG an die Fraktionen des Deutschen Bundestages verständigt.

Wenn Sie ebenfalls Antworten auf diese Fragen wollen, dann können Sie sich an die Fraktionen wenden:

CDU/CSU-Fraktion im Deutschen Bundestag – fraktion@cducsu.de
SPD-Bundestagsfraktion – direktkommunikation@spdfraktion.de
AfD-Bundestagsfraktion – buerger@afdbundestag.de
FDP-Bundestagsfraktion – dialog@fdpbt.de
Fraktion Die Linke im Bundestag – fraktion@linksfraktion.de
Bundestagsfraktion Bündnis 90/Die Grünen – info@gruene-bundestag.de

Es genügt ein kurzer Text wie:
Ich schließe mich den Fragen der 5 Lockdown-kritischen Professoren an.

Quelle: https://harald-walach.de/2020/04/29/gemeinsame-anfrage-an-die-fraktionen-des-deutschen-bundestages-zu-den-regierungsmassnamen-in-der-corona-krise/

Der Text und die Bildmontage wurde übernommen von Jouwatch hier



Michael Moore als Energiewende-Kritiker: Der falsche Freund

Mit „wenn sogar der schon sagt, dass…“ fangen dann die Meldungen an und der „Überläufer“ wird zum Kronzeugen erklärt. Wenn also der linke Filmemacher und Aktivist Michael Moore anlässlich des „EarthDay“ seinen neuesten Dokumentarfilm über die angeblich so heilsame „Erneuerbare Energie” kostenlos ins Netz stellt, hat das Gewicht.

Der Film ist ein typisch Moore’sches Stück, in dem der Zuschauer keine Sekunde darüber im Zweifel bleibt, welche Seite die des Filmemachers (also die richtige) und welche die falsche ist. Moores neuester Film „Planet oft the Humans“ stellt in starken – oder genauer gesagt „gestärkten“ – Bildern eine Generalabrechnung mit der weltweiten „Energiewende“ am Beispiel der USA dar. Moore desillusioniert sein grün-weltretterisch angehauchtes Publikum, indem er hinter die Kulissen von Solar-, Wind- und Biomasse-Industrie blickt und die ökologischen Folgen des Hypes um die „renewable energy“ aufzeigt. Überall Scheinheiligkeit, egal wohin Moore in dieser Branche schaut.

Der Film enthält im Grunde jedoch keine einzige Information, über welche die Kritiker der „Energiewende“ nicht schon seit Jahren vergeblich sprechen. Die Herolde und Kobolde der Energiewende sind lauter, besser vernetzt und finanziell so gut ausgestattet, dass Kritiker mühelos aus dem Diskurs gedrängt werden. Doch Moore ist eben nicht irgendein Kritiker, er hat die Seiten gewechselt und ist vom Saulus zum Paulus geworden – so scheint es. Jedoch nur auf den ersten Blick.

Der Film ist wirklich unterhaltsam, und auch wenn Moore, wie üblich, zur Dramatisierung und verkürzter Darstellung neigt, sollten Sie sich den Film unbedingt ansehen, um sich selbst ein Urteil bilden zu können. Aber wie Sie sich natürlich denken können, kann ich mir einige Bemerkungen mal wieder nicht verkneifen.

Die Metamorphose grüner Ideen

So, wie man den Anblick der Weite erst genießen kann, wenn der Gipfel des Berges erklommen ist, konnte auch die Ökobewegung erst in einem Umfeld ökonomischer Sicherheiten, also „auf dem Gipfel“ einer prosperierenden Gesellschaft entstehen. Die Grünen waren, so betrachtet, nie die Revolutionäre, für die sie sich gern halten, sondern leiteten eher evolutionäre Veränderungen und (oft) Verbesserungen ein. Beispiel: Das Auto war eine technische Revolution, während der Katalysator – so nützlich diese Neuerung auch war – lediglich eine Evolution darstellte. Dass man bewährte Prozesse optimieren kann und die Effizienz steigert, ist aber in Industriegesellschaften eine Binsenweisheit.

Doch in vielen Grünen steckt heute eben auch ein linker Revolutionsführer, der raus will, um Politik zu „gestalten“. So kommt es, dass grüne, eher evolutionäre Positionen sich immer mehr linken, revolutionären Positionen annähern. Öko-Bewegungen werden mit der Zeit stets kompromissloser, radikaler, extremistischer. Was als F4F-Eisbär-Rettung beginnt, endet zuverlässig im Nihilismus wie bei „Extinction Rebellion“ und damit in Fundamentalkritik an der Gesellschaft, der Wirtschaft und dem Menschen an sich. Der grünen Bewegung wohnt also eine Tendenz zur Inhumanität inne, weil der vermeintliche Wissensvorsprung einer „eingeweihten“ Elite, die sich im Besitz einer Wahrheit wähnt, die unwissende und unwillige Masse zu ihrem Glück zwingen muss. Nicht anders sieht das Selbstverständnis vieler Linken aus, die sich im Besitz einer perfekten „wissenschaftlichen Theorie” wähnen, an die es die Praxis anzupassen gilt.

Michael Moore stellt die CO2-Molekül-Zählerei nicht grundsätzlich infrage und befasst sich auch nicht mit technologischen Erwägungen, Wirkungsgraden und Kosten. Die unmittelbaren Schäden, welche die Natur durch den Ökostrom-Wahn nimmt, stellt er zwar treffend dar, doch macht er dafür nicht den ideologischen Blindflug verantwortlich, in welchem sich Aktivismus und Politik befinden. Der Linke Moore beschuldigt den Kapitalismus, was sich ideologisch perfekt mit dem deckt, was die grünen Extremisten von Extinction Rebellion antreibt. Der Sammelbegriff „links-grün” trifft also in der Endkonsequenz zu.

Die Kapitalismuskritik des Michael Moore

Für die im Film gezeigte ökologische Katastrophe infolge des Einsatzes von Sonne, Wind und Biomasse macht Moore Kapitalismus und Gewinnstreben skrupelloser Konzerne verantwortlich. Doch unter wirklich marktwirtschaftlichen Bedingungen würden weder Solar- noch Windenergie in der heutigen Form gedeihen. Jenseits von einigen Spezialanwendungen und Off-Grid-Insellösungen bedarf es vielmehr massiver politischer Einflussnahme, damit sich die Wirtschaft auf derlei unattraktives Gelände begibt.

Die Huhn-oder-Ei-Frage ist, was war zuerst da: die Subvention oder die Idee, wie man das Gold der Steuerzahler und Verbraucher mittels Ökostrom zu Stroh spinnen kann? Mangelnde Effizienz und Zuverlässigkeit, großer Flächenverbrauch und hohe Wartungskosten, schlechte Recyclingfähigkeit der eingesetzten Materialien… nur wenig spricht für den massenhaften Einsatz von Solar- und Windkraftanlagen als Ersatz konventioneller Kraftwerke und deren Weiterentwicklung. Doch wo ein politischer Wille ist und Geld winkt, findet die Wirtschaft natürlich einen Weg, es einzustreichen. Die Ineffizienz der „Green Energy“ steht deren Ausbau nur deshalb nicht im Weg, weil die Politik alle Einwände beiseite wischt und Medien, Aktivisten die Profiteure ihr nach Kräften dabei helfen.

Je weiter ein Wirtschaftszweig von der Politik entfernt ist, umso näher ist er den Prinzipien der Marktwirtschaft. Die Branche der Erneuerbaren ist der Politik jedoch sogar noch näher als die Rüstungsindustrie der nationalen Sicherheit. Waffen kann man überall kaufen. Aber ohne politisches Patronat und im echten Wettbewerb kann die „Grüne Energie” nirgends auf der Welt überleben. Was das für wirtschaftliche Folgen hat, begreifen wir erst allmählich – in Deutschland zum Beispiel beim Blick auf die Stromkosten. Michael Moore begriff es, als er sah, wer profitiert und wie die gepriesenen Projekte sich entwickeln.

Blind für die Rolle von Politik, Medien und Aktivisten

Die ökologischen Folgen der „Grünen Energie“ macht Moore in seinem Film insgesamt sehr gut sichtbar. Doch er ist blind für die Rolle von Politik, Medien und Aktivisten, und alle seine Vorwürfe laufen am Ende darauf hinaus, dass der Mensch selbst durch Hemmungslosigkeit (Überbevölkerung) und Gier (Kapitalismus) das eigentliche Problem sei. Doch glaubt im Ernst jemand, die „grüne Revolution“ könnte ein Erfolg sein, wenn sie nur nicht in die Hände „gieriger Kapitalisten“ geriete, die sie „pervertieren“?

Die tendenzielle Überbevölkerung der Erde halte ich – anders als Moore – auch nur für eine temporäre Episode, die durch Bildung, Marktwirtschaft und infolgedessen durch politische Stabilität und akkumulierten Wohlstand überwunden werden kann. Wann eine Gesellschaft den Punkt überschritten hat, ab dem die Bevölkerungszahl nicht weiter wächst und sogar zurückgeht, kann man in der demographischen Entwicklung Europas erkennen. Dass unsere Politiker den einsetzenden Rückgang der Bevölkerung als Problem betrachten, statt hierin eine Chance zur Konsolidierung zu sehen, zeugt meiner Meinung nach leider von Unkenntnis.

Der Film lässt offen, wie sich die Autoren die Lösung des Problems der Überbevölkerung konkret vorstellen und ob der ganze Green-Energy-Schwindel beendet werden kann, bevor die Menschheit den trügerischen Verheißungen noch bis über die Klippe folgt. Sozialistische „Abkürzungen“ durch (andere) staatlicher Eingriffe unter der Ägide einer (anderen) Wissenselite, wie sie vielleicht jenen vorschweben, die den „grünen Weg” verlassen und lieber gleich einen sozialistischen einschlagen möchten, führen aber mit Sicherheit in eine (andere) Katastrophe. Im Film tauchte bei 1:16:00 das Logo von „Extinction Rebellion“ auf, was sicher kein Zufall war.

Dieser Beitrag erschien zuerst auf Roger Letschs BlogUnbesorgt.




Coronapanik und „Klimakrise“ – Petersberger Klimadialog will beides nutzen

Ein Florian Neuhann , zuvor Zuarbeiter für die eindrucksvolle Maybrit Illner, und die beliebte Framing- Sendung „Morgen Magazin“, darf den Lesern mitteilen, dass es nun – mal wieder- auf die Kanzlerin ankommt. Und zitiert dazu den brillanten Lord Nicholas Stern, der schon mal die Nullzinspolitik vorausahnte und in seinem Sternreport die Abzinsrate für zukünftige Investitionen dauerhaft auf 0 % senkte, statt geschichtlich permanent belegter 4-5 %, um damit seine Phantasierechnung über das Verbrennen von Klimageld in eine fiktive Win-Win Situation zu verwandeln. Für diesen Taschenspielertrick wurde er von Labour geadelt und zum echten Lord gemacht. Na, ja, dort gibt es ja auch einen Commander of the Empire namens John Schellnhuber. Das passt irgendwie.

Der Lord darf sagen:

„Wenn jetzt, nach der Corona-Krise, die Wirtschaft wieder aufgebaut werde, dann „darf es keinen Weg zurück geben„. Kein Zurück in eine Welt, in der die CO2-Emissionen ständig weiter stiegen. Stattdessen müsse man die Krise jetzt nutzen – für eine Transformation in eine klimaverträgliche Zukunft. Immer noch seien die Risiken durch den Klimawandel „größer als das, was wir in der Corona-Krise feststellen“. Wieder eine Warnung, wie sie drastischer nicht ausfallen könnte. Verfängt sie diesmal?

Und die ewige Kanzlerin denkt wohl genauso. Jetzt oder nie, und lässt sich nicht lumpen. Denn wenn sie etwas falsch macht, dann richtig und immer wieder. Planbarkeit soll doch ihr Markenzeichen sein, gleich nach dem Talent „vom Ende her“ zu denken.

Daher gibt sie mächtig Gas. Bei TE lesen wir:

Die Kanzlerin geht laut Medienberichten davon aus, dass für eine solche CO2-Reduzierung ein „umfassendes Maßnahmenpaket“ mit Investitionen in klimafreundliche Infrastrukturen und auch „eine CO2-Bepreisung“ erforderlich sei. „Es ist jetzt an der Zeit, unsere Standfestigkeit zu beweisen“, sagte Merkel. Sie betonte das Festhalten am deutschen Kohleaustieg bis 2038 und sagte: „Bis 2030 soll der Anteil erneuerbarer Energien 65 Prozent betragen.“ Und Mit Blick auf die Kosten der Coronakrise sagte sie: „Umso wichtiger wird es sein, wenn wir Konjunkturprogramme auflegen, immer den Klimaschutz ganz fest im Blick zu behalten und deutlich zu machen, dass wir nicht etwa am Klimaschutz sparen, sondern dass wir in zukunftsfähige Technologien investieren.“

Und weil Frau Merkel zwar vieles kann, insbesondere große Staatsprojekte teuerst möglich in den Sand zu setzen, bspw. Eurorettung, Atomausstieg, Migrantenflut, und jetzt Corona-Shutdown, nur nicht mit dem Geld anderer Leute sorgsam umgehen, ist es ihr auch diesmal völlig egal, wer diese schädliche Luxuspolitik eigentlich bezahlen soll. Es sind, wie anders, die täglich arbeitenden, steuerzahlenden Menschen in diesem Land. Diesmal soll ihr Geld aber gleich zweimal ausgegeben werden, einmal zu Linderung der selbstangerichteten Coronanot, und nochmal zur Füllung der Taschen von windigen Profiteuren des „Klimaschutzes“. Und wenn dies alles erfolgreich vollzogen wurde hat Deutschland gerade mal mit 0,000653 °Celsius[1] zur Senkung einer unbekannten Weltmitteltemperatur beigetragen. Aber auch nur dann, wenn die krude Hypothese vom Einfluss des menschgemachten CO2 auf die Weltmitteltemperatur stimmen sollte, wofür es seit über 30 Jahren, trotz Milliarden teurer Forschung noch immer keinerlei Beweis gibt.

Und ihr Obertraumtänzer Entwicklungshilfeminister Gerd Müller der schon mal den Entwicklunghungrigen in den Entwicklungsländern ein bayerisches „I love you“ zuruft, freut sich seiner Liebe nun endlich tatkräftig Ausdruck verleihen zu dürfen und das Geld  – wenn Deutschland die EU-Ratspräsidentschaft übernimmt-  auch in Afrika mit vollen Händen zu versenken. Das nennt er einen „Masterplan“. Henryk M. Broder berichtet bei ACHGUT darüber wie folgt:

„ Zum Petersberger Klimadialog, einer der vielen Konferenzen, die zwischen den Weltklimagipfeln abgehalten werden, damit die Teilnehmer nicht aus der Übung kommen, hat Müller einen Masterplan veröffentlicht – wie man Afrika retten und zugleich die Energieversorgung Europas sichern könnte: indem „aus der Sonne Afrikas grüne Energie“ produziert wird. Eine Win-Win-Idee: „Europa braucht mehr saubere Energie, und Afrika hat die Sonne, Wasserkraft und viele junge, motivierte Menschen.“

Es versteht sich von selbst, dass Müller „Europa“ sagt, aber „Deutschland“ meint. So kämen wir dann endlich zu einem Platz an der Sonne, um den wir seit 123 Jahren kämpfen. Außerdem: Die vielen jungen, motivierten Menschen sind schon da, jetzt muss nur noch die saubere Energie aus Sonne und Wasserkraft erzeugt und irgendwie nach Europa rübergeschafft werden, am besten mit umweltfreundlichen Windjammern.

Müllers Masterplan, wie wir die Welt retten und einen neuen Umgang miteinander und mit der Natur finden, damit nie wieder ein Virus vom Tier auf den Menschen überspringen kann, ist von einer Einfachheit, die alle guten Erfindungen auszeichnet, das Rad, den Geschlechtsverkehr und die Teflon-Pfanne. Hier ist er.

„Die Corona-Pandemie zeigt uns ganz klar: Wir dürfen nicht zur Normalität der Globalisierung zurückkehren. Wir müssen Globalisierung gerecht gestalten und einen neuen Umgang miteinander und mit der Natur finden. Dass das Corona-Virus vom Tier auf den Menschen überspringen konnte, ist auch eine Folge unseres Umgangs mit der Natur.

Um die Corona- und die Klimakrise weltweit einzudämmen, muss Europa jetzt entschlossen eine globale Vorreiterrolle übernehmen und darf nicht nur innen, auf sich selbst schauen.

Neben dem Schutzschirm sollte die EU auch ihren Green Deal für den Klimaschutz auf die europäische Nachbarschaft und afrikanische Länder ausweiten. Und ein ehrgeiziges Investitions- und Innovationspaket für den Ausbau erneuerbarer Energie in Afrika auflegen – weg von Kohle hin zu sauberen Zukunftstechnologien wie ‚grünem‘ Wasserstoff und synthetischen Kraftstoffen, wie wir sie in diesem Jahr in Marokko aufbauen.

Denn in Afrika entscheidet sich die Zukunft des Klimas: 600 Millionen Menschen haben in Afrika noch keinen Zugang zu Strom. Wenn jeder eine Steckdose auf Basis von Kohle bekommen würde, müssten hunderte neue Kohlekraftwerke gebaut werden. So erreichen wir die Klimaziele nie! Die Antwort Europas muss eine Energie- und Klimapartnerschaft mit einer Investitionsoffensive für Afrika sein. Denn Europa braucht mehr saubere Energie, und Afrika hat die Sonne, Wasserkraft und viele junge, motivierte Menschen.

Das liegt auch in unserem Interesse: wir stärken die Technologieführerschaft in Deutschland und helfen, die internationalen Klimaziele viel wirksamer zu erreichen. Gleichzeitig schaffen wir die dringend in Afrika benötigten Arbeitsplätze für die vielen jungen Menschen.

Ich hoffe, dass wir es während der deutschen EU-Ratspräsidentschaft ab Juli schaffen, den EU-Haushalt der kommenden Jahre auf solche Zukunftsinvestitionen auszurichten. Denn das ist die Zukunft: aus der Sonne Afrikas grüne Energie zu produzieren. Für die Menschen dort und uns in Europa.

Das Entwicklungsministerium wird dieses Jahr dazu ein Markteintrittsprogramm für erneuerbare Energien auflegen – gemeinsam mit der Afrikanischen Entwicklungsbank. Vor allem deutschen und afrikanischen Mittelständlern soll so die Finanzierung von Zukunftstechnologien in Afrika leichter gemacht werden.“

Amen

 

 

 

 

[1] Bevor nun wieder das Herumrechnen losgeht. Der völlig unverdächtige Prof. Dr. Stefan Rahmstorf kommt bei anderen Annahmen immerhin auf 0,05 ° C bis 2100




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 3)

Das Zitat oben von Stefan Rahmstorf am 12.2.18[1]  ist ein Beispiel zur Behauptung warum Anomalien genauer sind als die ihnen zugrunde liegenden Absolutwerte. Er hat bis heute nicht begriffen, dass er in diesem Beispiel Absolutwerte misst und diese als Anomalien ausgibt. Klimaanomalien werden jedoch nicht gemessen, sondern aus den Absolutwerten mit all ihren Fehlern berechnet. Und da gilt nun mal das Gesetz von der Fehlerfortpflanzung. Er betreibt also – bewusst oder unbewusst- Etikettenschwindel.

Teil 1 hier und Teil 2 hier

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast eben, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Abbildung 8 Ein systematischer Fehler von + 1 K tritt ab 1940 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ wie alle aktuellen Werte ab 1940 betroffen. Ab 1940 gleicht sich der Fehler aus, vorher aber nicht. Der Trend verschiebt sich.

Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Abbildung 9 Ein systematischer Fehler von + 1 K tritt jetzt 1980 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ zur Hälfte und  alle aktuellen Werte ab 1980 betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.

Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Abbildung 10 Ein systematischer Fehler von + 1 K tritt schleichend ab Beginn auf, weil z.B. die Station altert. Von dieser Veränderung sind das „Station Normal“ entsprechend seinem linearen Anteil ebenso wie  alle aktuellen Werte von Anfang an betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.

Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.

Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!

Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier . Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[2])

Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von so gut wie allen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht nur nicht bekannt, sondern wird auch – auf den ersten Anschein hin- negiert.

Der berühmte Physiker und Nobelpreisträger Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.

 

Anhang.

Zur behaupteten Genauigkeit

Die berechnete Globaltemperatur im letzten Jahrhundert hat sich, gemäß Aussage des Intergovernmental Panel of Climate Change (IPCC) um ca. 0,6 ° bis 0,7° C erhöht, wie uns im Bericht TAR 2001(Third Assesment Report) mitgeteilt wurde. Um diese Aussage treffen zu können, müssen Veränderungen über lange Zeiträume mit einer Genauigkeit von < 1/10 °C ermittelt, erfasst, dokumentiert und verdichtet werden. Das englische Klimazentrum CRU (Climate Research Unit) -siehe Abbildung 1- zeigt sogar einen Anstieg von 0,8 °C mit einem Vertrauensintervall bei 95% von -0,09 bis +0,11 °C (Jahr 1905) bis ± 0,08 ° (Jahr 2005.).[3]

Dem steht aber entgegen, dass selbst bei Verwendung der bestgewarteten Messstationen und von gut trainierten Meteorologen so genau wie möglich abgelesenen Temperaturwerte, diese nur die Bestimmung von Tagesmittelwerten mit einer von  Genauigkeit ± 2 bis ± 3 K erlauben. Zitat des Meteorologen und Statistikers Jürgen Pelz

Jürgen Pelz: „Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der ,Informationstheorie“ Beilage zur Berliner Wetterkarte vom 7.12.1995; S. 5

„Will man beispielsweise die Tagesmitteltemperatur auf ± 0.1 K genau ermitteln, darf der Abstand der Messungen nicht grösser als 15 Minuten sein. Genügt eine Genauigkeit von ± 2 bis 3 K, reichen die Klimatermine.“ [Pelz, 1995b][4]

Trotzdem behaupten die Wissenschaftler der Climate Research Unit (CRU) der University von East Anglia,  welche die CRU Hadley Reihe produzieren[5]: „How accurate are the hemispheric and global averages? Annual values are approximately accurate to +/- 0.05°C (two standard errors) for the period since 1951. They are about four times as uncertain during the 1850s, with the accuracy improving gradually between 1860 and 1950 except for temporary deteriorations during data-sparse, wartime intervals. Estimating accuracy is a far from a trivial task as the individual grid-boxes are not independent of each other and the accuracy of each grid-box time series varies through time (although the variance adjustment has reduced this influence to a large extent). The issue is discussed extensively by Folland et al. (2001a, b) and Jones et al. (1997). Both Folland et al. (2001a,b) references extend discussion to the estimate of accuracy of trends in the global and hemispheric series, including the additional uncertainties related to homogenity corrections.”

[1] Quelle: „Verwirrspiel um die absolute globale Mitteltemperatur“ https://scilogs.spektrum.de/klimalounge/verwirrspiel-um-die-absolute-globale-mitteltemperatur/ (hier)

[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN (hier)

[3] Diese Darstellung der Zeitreihe der mittleren Globaltemperatur kommt auf vielfältige Weise in öffentlichen Berichten des IPCC AR 4 vor. So z.B. Im Summary for Policymakers SPM auf Seite 19, In den FAQ´s des Berichtes der Workung Group 1 Fig. 3.1 auf S 104. In der Technical Summary des Berichtes der Working Group 1 (WG1-TS) als Fiure TS.6 auf Seite 37 usw.

[4] Pelz, J b (1995) Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der Informationstheorie. Beilage zur Berliner Wetterkarte 7.12.1995

[5] Quelle http://www.cru.uea.ac.uk/cru/data/temperature/#datter (hier)

Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Bericht zur Corona-Lage vom 27.04.2020

Aktuell reden alle von der sogenannten „zweiten Welle“, allen voran das Robert-Koch-Institut (RKI) und, dauerpräsent, Professor Christian Drosten. Es wird die drohende Anflutung neuer schwer an Covid-19 Erkrankter nach einer zu frühen Öffnung des Lockdowns beschworen. Aber zumindest für Deutschland darf gefragt werden: Wie sah eigentlich die erste „Welle“ aus – und trifft die Metapher von einer “Welle“ überhaupt zu?

Seit März werden Krankenstationen und Intensivabteilungen geräumt, um Platz zu schaffen für die vielen neuen Covidkranken. Deren Zahl wurde astronomisch hoch eingeschätzt, die Warner sprachen von hunderttausenden zu erwartenden Toten. Doch in sehr vielen Krankenhäusern – nicht allen – und deren Intensivabteilungen herrscht seitdem Leere, und manche melden sogar Kurzarbeit an (auf den Skandal, dass viele Behandlungspflichtige abseits Covid nicht stationär behandelt wurden, sei an dieser Stelle gar nicht eingegangen).

Dennoch hören die Panikmeldungen nicht auf, wie beispielsweise vor zwei Wochen ein dramatischer Aufruf eines bekannten schweizerischen Herzchirurgen, der über katastrophale Zustände in Intensivabteilungen und infiziertes Pflegepersonal berichtete. Genauso schrecken Berichte über gestorbene Pfleger, Ärztinnen und Kinder auf. Doch so gut wie nie werden dazu genaue Zahlen und Umstände genannt, um dies einordnen zu können.

Im Falle des Herzchirurgen machte ich eine Probe aufs Exempel und rief in seiner Klinik in Zürich an. Dort gab man mir die Auskunft, die Betten, die man für Covid frei gehalten habe, seien weitgehend gar nicht belegt. Auch Erkrankungssfälle des Personals seien nicht bekannt. Die gleiche entspannte Lage im 30 Kilometer entfernten Kantonspital Winterthur, welches ich gut kenne. Was soll man davon halten?

Ausbreitungsgeschwindigkeit seit sechs Wochen im Sinken

Tatsache ist, in Deutschland gab es keine auffallende erste Welle. Wieso soll es dann eine zweite geben? „Für eine Übersterblichkeit mit auffälligen Abweichungen nach oben in den Monaten Januar bis März 2020 haben wir aktuell keine Hinweise“, sagt das Statistische Bundesamt. Aktuell sind wir sogar in einer Untersterblichkeit im Vergleich zu anderen Jahren. Warum ist es in anderen Ländern anders? Darauf gehe ich weiter unten in diesem Text ein.

Tatsache ist, die Ausbreitungsgeschwindigkeit ist bereits um den 9. März im Sinken. Dies geht aus der inzwischen ausgiebig diskutierten Kurve des Robert-Koch-Institutes (Abb.4) bezüglich des Reproduktionsfaktors „R“ hervor. Unter dem Schlüsselwert 1 liegt R schon seit dem 20. März, also drei Tage vor dem Lockdown, so das RKI. Als Stefan Homburg, Professor für Öffentliche Finanzen und Direktor des Instituts für Öffentliche Finanzen der Leibniz Universität Hannover, dies feststellte, wurde er in Medien teilweise  verunglimpft (inzwischen hat sich beispielsweise die dpa entschuldigt). Sehr anschaulich werden die Zusammenhänge in Verbindung mit der von Homburg angeführten Kurve auch im sehenswerten Coronovideo Nr. 35 des Hals-Nasen-Ohren-Arztes und Kollegen Bodo Schiffmann erläutert. Beachten Sie auch seinen Hinweis auf eine stattgefundene Massenveranstaltung, nämlich die Hamsterkäufe nach den Schulschließungen. Schauen Sie hier am besten ab Minute 5:30.

Dazu passt auch dieser aufschlussreiche Beitrag auf Telepolis,der sich auf Aussagen der WHO bezieht, die selbst zugibt, dass für die Lockdown-Strategie keinerlei wissenschaftliche Evidenz existiert. Die Autoren, drei Soziologieprofessoren, schließen mit diesem Satz:

Eine weniger naheliegende Lösung läge dahingegen in der Hoffnung auf die kombinierte Wirksamkeit einzeln wirkungsloser Maßnahmen und in dem Versuch, diese Hypothese im Rahmen eines Ereignisses zu überprüfen, das dann als das größte, teuerste und verheerendste Sozialexperiment in die Geschichte der Menschheit eingehen könnte.“

Versagen beim Schutz der Risikogruppen in den Pflegeheimen

Ich möchte noch einmal auf einen bisher zu wenig beachteten Abschnitt im erwähnten RKI-Artikelhinweisen. Die Bundeskanzlerin gab selbst stets das Ziel R 1 als angestrebten Zustand aus. Nun da R unter 1 liegt, heißt es plötzlich von ihr, dies reiche nicht, er müsste noch weiter sinken. Was schreibt das RKI selbst zur Ursache des nicht weiter sinkenden R-Wertes:

„Ein Grund dafür, dass der Rückgang der Neuerkrankungen trotz der gravierenden Maßnahmen nur relativ langsam passiert, ist, dass sich das Virus nach dem 18. März stärker auch unter älteren Menschen ausbreitet und wir zunehmend auch Ausbrüche in Pflegeheimen und Krankenhäusern beobachten. Ein weiterer Aspekt ist aber auch, dass in Deutschland die Testkapazitäten deutlich erhöht worden sind und durch stärkeres Testen ein insgesamt größerer Teil der Infektionen sichtbar wird. Dieser strukturelle Effekt und der dadurch bedingte Anstieg der Meldezahlen, kann dazu führen, dass der aktuelle R-Wert das reale Geschehen etwas überschätzt“

Noch einmal einfach gesagt: Mit dieser Aussage räumt das RKI ein Versagen beim Schutz der Risikogruppen in den Pflegeheimen ein. Wie dieser Schutz hätte aussehen müssen, habe ich in dieser Beitragsreihe seit Mitte März mehrfach thematisiert. Zusätzlich schreibt das RKI auch, dass ein Zusammenhang zwischen der Zahl der Testungen und der Reproduktionsrate besteht und deswegen R aktuell tiefer liege.

In diesem Zusammenhang wird auch eine neue Publikation von Professor Christof Kuhbandner vom Institut für Experimentelle Psychologie an der Universität Regensburg spannend. Sie ist anscheinend noch nicht offiziell zur Veröffentlichung freigegeben, aber dennoch verfügbar. Sie beantwortet plausibel die Frage, warum man nur sehr eingeschränkt von einer ersten „Welle“ sprechen kann.

Ein neues Licht auf die omnipräsenten Kurven der Neuinfizierten

Anhand eines anschaulichen Beispiels sei gezeigt, um was es geht. Nehmen wir an, wir haben einen großen Garten. Darin verstecken wir hundert Ostereier. Die Ostereier stehen für die gerade zu diesem Zeitpunkt Neuerkrankten. Nun schicken wir ein Kind in den Garten, welches genau eine Minute hat, um Eier zu finden. Es findet ein Ei. Die Minute steht für einen Corona-Test und das gefunden Ei für die in der Statistik angegebenen Neuerkrankungen.

Hätten wir dem Kind zwei Minuten Zeit gegeben, dann hätte es theoretisch zwei Eier gefunden. Bei vier Minuten vier Eier und bei acht Minuten acht Eier. Das ergibt ein scheinbar exponentielles Wachstum der Eierzahlen, aber nur, weil die Zahl der Minuten (also Coronatests) exponentiell wächst. In Wirklichkeit bleibt die Zahl der tatsächlich Neuerkrankten, nämlich die 100 versteckten Eier, konstant.

Wer nun die üblichen Kurven der Neuerkrankten (die mit positiven Testergebnis) betrachtet, muss deshalb dazu immer auch die Gesamtzahl aller Tests (auch der negativen) erfahren, sonst sagt diese Kurve nichts aus. Denn wenn bei einem exponentiellen Wachstum der Neuerkrankungen die Kurve der Testzahlen dazu parallel verläuft, besteht überhaupt kein exponentielles Wachstum, sondern R = 1.

Erst wenn die Kurve der Neuentdeckten steiler als die der Testzahlen ist, liegt ein exponentielles Wachstum vor. Ist die Kurve ansteigend, aber flacher als die der Testzahlen, sinkt in Wirklichkeit die Zahl der Neuinfizierten. Das wirft ein völlig neues Licht auf die omnipräsenten Kurven der Neuinfizierten, auf die sich alle Augen konzentrieren. Folgt man der Publikation von Christoph Kuhbandner, müssen sie alle modifiziert werden anhand der jeweils steigenden Testzahlen. Eigentlich verblüffend einfach und logisch, aber man muss anscheinend erst darauf kommen.

Der Regensburger Professor hat nun die bestehenden Kurven neu berechnet, in der Annahme, die Zahl der Tests wäre konstant geblieben. Was kam dabei heraus? Für Deutschland ein viel geringeres, nicht exponentielles Wachstum mit Sinken seit der 13. Kalenderwoche. So betrachtet, verliert bezüglich des Ausbreitungsrisikos Covid-19 seinen Schrecken. Dagegen spricht eben nicht, dass es schwere Fälle gegeben hat und in einzelnen Hotspots auch beachtliche Fallzahlen. Das gilt für andere Infektionen, die jedes Jahr ihr Unwesen treiben, allerdings genauso. Auch für Österreich, Belgien, Frankreich, Italien und die USA gelten die gleichen Beobachtungen.

Trugschlussanfälliges Horrorszenario

Nun eine weitere, sehr spannende Schlussfolgerung. Kuhbandner stellt fest, dass in allen Ländern, die Kurve der offiziellen Neuinfektionen (positiv Getesteten) ziemlich parallel verläuft mit der Zahl der Toten. Das verwundert, denn ab einem positiven Testergebnis aufgrund erster Symptome und einem Versterben an Covid sollte mindestens ein zeitlicher Abstand von 14 Tagen bestehen. Der Anstieg der Todesfälle müsste also zeitlich später verlaufen als der Anstieg der Neuerkrankten. Nämlich etwa 14 Tage.

Was bedeutet diese fehlende zeitliche Verzögerung der Kurven? Kuhbandner nennt zwei Schlussfolgerungen. Wären alle aufgeführten Todesfälle tatsächlich an Covid gestorben, dann hätte man 14 Tage vorher einen vergleichbaren Anstieg an Neuerkrankten sehen müssen. Da dies nicht der Fall ist, könnte es sein, dass viele als Covidtote Gemeldete erst kurz vor oder während des Sterbens positiv getestet wurden, weil sie sich erst kurz davor infiziert hatten. Dies wiederum erklärt die Obduktionsergebnisse des Hamburger Pathologen Professor Klaus Püschel, der feststellte, dass viele der Covidtoten eigentlich nicht wirklich an Covid gestorben sind, sondern mit oder als allerletztem Sterbeimpuls.

Eine weitere Überlegung von Christoph Kuhbandner ist ebenfalls erwägenswert. Er stellt fest, dass nur ein kleiner Teil der Getesteten positiv war. In Deutschland nur etwa sieben Prozent. In Italien wurden hauptsächlich Patienten mit ernsten Lungensymptomen getestet, aber auch hier waren nur 20 Prozent positiv. Könnte es sein, dass viele der in Bergamo Verstorbenen gar nicht an Corona, sondern an anderen Infektionen der Atemwege gestorben sind, wie zum Beispiel durch Influenza? Auch in den USA starben von den 6.427 Covidtoten zwischen 22.03. und 11.04. „nur“ 2.925 an einer Lungenerkrankung. Während in diesem Zeitraum insgesamt 10.006 Menschen an einer Lungenentzündung verstarben. Das bedeutet, nur ein geringerer Teil der an Atemwegserkrankung Verstorbenen in den USA verstarben tatsächlich an Covid. Übrigens, trotz der täglichen Schreckensmeldungen aus den USA herrscht dort im Vergleich zu 2019 eine Untersterblichkeit.

Wie immer man gerade die letzten Überlegungen einordnet, und auch wenn diese Publikation viel Kritik auf sich ziehen wird, die Grundthesen, die auf den offiziellen Zahlenangaben beruhen, erlauben auf jeden Fall die Aussage, dass aus epidemiologischer Sicht die Gefährlichkeit von Covid-19 nach heutigem Stand offenbar stark überschätzt wird. Der letzte Satz von Kuhbandners Publikation lautet:

„Es scheint äußerst wichtig zu sein, sich dieses statistischen Trugschlusses bewusst zu werden, um der extremen Furcht entgegenzuwirken, die durch das trugschlussanfällige Horrorszenario ausgelöst wird, dass es bald Millionen von Coronavirus-Infektionen und Todesfällen geben könnte“.

(“Becoming aware of this statistical fallacy seems to be extremely important in order to counteract the extreme fear that is induced by the fallacy-prone horror scenario that there may be soon millions of coronavirus infections and deaths.)”

Ein natürliches Ablaufdatum von Covid?

Nachdem auch mich die Bilder aus Italien schockierten und ich mir ausmalte, was diese Entwicklung zu bedeuten hat, wurde ich als Arzt intuitiv stutzig. Wenn Covid wirklich die angedrohte katastrophale Seuche wäre, dann hätte sich die Infektion schon weit vor der Abriegelung in anderen Städten ausbreiten und ähnliche Katastrophen wie in Bergamo anrichten müssen, was aber in diesem Maße nicht geschah (womit ich die Entwicklung mitnichten relativieren will). Diese schlichte Beobachtung spricht an sich schon für ein natürliches Ablaufdatum von Covid, so wie es eine Grippeepidemie auch hat.

Dazu passt die bereits im Bericht zur Coronalage vom 22.04.2020 vorgestellte Arbeit des israelischen Mathematikers und Analysten Ben-Israel, der in allen Ländern völlig unabhängig zu den Maßnahmen einen Epidemieverlauf mit Anstieg von sechs Wochen ermittelte, der danach zügig abfällt. Man kann nur spekulieren warum, ob schnelle Immunität, jahreszeitliches Klima, oder was es immer ist. Selbst wenn es punktuell zu Überbelastungen kam, sie verbreiteten sich eben nicht über das ganze Land. All dies geschah weit vor jedem Lockdown.

Allerdings spielte es eine Rolle, wie viele Menschen zum Zeitpunkt der hohen Virusinfektiösität infiziert wurden und auf welches Gesundheitssystem diese trafen. Und hier gibt es an den Hotspots starke Länderunterschiede. Dazu noch die vorher besprochenen Beobachtungen von Professor Kuhbandner und der inzwischen erhärtete Verdacht, dass viele Coronatote und auch die meisten Spätfolgen der Überlebenden auf eine falsche Beatmungstechnik zurückzuführen sind. So, wie sie wahrscheinlich in den schlimmsten betroffenen Ländern häufig angewandt wurde.

Es ist komplex, und es wird dazu in den nächsten Jahren sehr viele wissenschaftliche Publikationen geben, die immer präziser erklären können, was eigentlich passiert ist. Manches wird überraschend sein. Wir in Deutschland hatten ganz sicher das Glück, dass die Karnevalsfolgen – und auch die solcher Aktionen wie die der bayrischen Kommunalwahlen – unser im Vergleich gut aufgestelltes Gesundheitssystem bei weitem nicht überlasten konnten und dass die Lungenärzte des Verbandes pneumologischer Kliniken so vehement auf die Fehler bei der Beatmungstechnik hinwiesen.

Wieder wird mit apokalyptischen Zahlen gewarnt

Und dennoch wird jetzt vor der zweiten Welle gewarnt und wieder mit apokalyptischen Zahlen. Wie das ängstliche Kaninchen wird auf dem Lockdown beharrt, bis der rettende Impfstoff gefunden sei, um diesen dann im Hauruckvefahren ohne akzeptable Testung bei einer bereits abklingenden Infektion einzusetzen. Einen solch unnötigen wie gefährlichen Impfstoff hatten wir schon einmal, 2009 während der Schweinegrippe. Meine Patienten werde ich davor schützen.

Die Schweinegrippe-Panik diente auch als ein Impfstoff-PR-Theater, als die Harmlosigkeit im Vergleich mit normalen Influenza Epidemien schon längst klar war und die Regierung zu recht auf gekauften, gefährlichen Impfstoffen im Wert von 500 Millionen € sitzen blieb (die später zum großen Teil verbrannt wurden). Als dies alles schon klar war, legte übrigens ein Virologe namens Professor Christian Drosten im Mai 2010 den Panikgang ein und riet dringend zur Impfung. Hersteller des riskanten Impfstoffes war GlaxoSmithKline. Ein paar Jahre zuvor hatte Christian Drosten den GlaxoSmithKline-Förderpreis für Klinische Infektiologie erhalten.

Meine Risiko-Analyse der Zahlen möchte ich so zusammenfassen: Das vorhandene epidemiologische Wissen ist ausreichend, um die Ausbreitungsgefahr von Covid-19 als gut beherrschbar einzuschätzen. Auch die Sterblichkeit liegt wohl viel niedriger als angenommen. Die klassischen Schutzmaßnahmen reichen völlig aus: Händewaschen, Isolierung Erkrankter, eventuell auch ihres Umfeldes, und der Empfehlung an Risikogruppen, körperliche Nähe und größere Menschenansammlungen zu meiden.

Als Sicherheitsanker empfiehlt sich noch der hoffentlich bald professionellere Schutz von Pflegeheimen. Mit wachsendem Wissen über die Verbreitung und Wirkung des Virus, die selbstverständlich auch negative Überraschungen beinhalten können, wachsen die Chancen weiter, angemessen damit umzugehen. Völlig unangemessen dagegen ist die Einleitung eines Lockdown und vor allem das beratungsresistente Festhalten daran.

Hätten die vielen kompetenten und unabhängig agierenden Wissenschaftler eine größere Bühne in der Öffentlichkeit und müssten nicht um berufliche Konsequenzen fürchten, wenn sie ihre Meinung frei äußern, wäre eine solche Analyse der Lage längst Allgemeingut, und der immense Schaden des Lockdowns, der erst richtig auf uns zurollen wird, hätte zumindest teilweise vermieden werden können. Die öffentliche Dominanz regierungskonformer Wissenschaftsfunktionäre und Medien schwächt so die Widerstandsfähigkeit unserer Gesellschaft, in einer Krise um die besten Lösungen zu streiten.

Ein herzliches Danke

Bedanken möchte ich mich an dieser Stelle einmal für die vielen unterstützenden und kundigen Zuschriften, die mein eigenes Verstehen enorm bereicherten. Herzlichen Dank dafür. Beim letzten Beitrag habe ich vergessen zu erwähnen, dass er bei Gefallen bitte weiterverbreitet werden soll. Deshalb bekam ich Anfragen, ob man dies auch weiterhin dürfe. Selbstverständlich gerne. Auch wenn mir manchmal die Plattformen nicht gefallen, auf denen meine Beiträge dann auftauchen. Denn Richtiges bleibt richtig, auch wenn es von – je nach Gusto – den „Falschen“ verbreitet wird.

PS.

Ursprünglich wollte ich heute die Sicht der Praktiker, vor allem der Lungenärzte und Pathologen schildern – und wie sie die Gefährlichkeit der Krankheit namens Covid-19 am einzelnen Patienten erleben. Dies hole ich im nächsten Beitrag nach.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Die Verfassungswidrigkeit des am 23. März 2020 von Bund und Ländern beschlossenen und am 15. April im Kern verlängerten Shutdown und das Totalversagen der Politik

Auch die „Coronakrise“ ist, wie neue empirische Daten über die weitgehende Harmlosigkeit von COVID-19 zeigen, nicht wirklich existent, es handelt sich in epidemiologischer Hinsicht allenfalls um ein Coronaproblem. Eine Krise ist entstanden allein in sozialer und ökonomischer Hinsicht infolge fehlerhafter und panischer politischer Entscheidungen; zu erwarten ist eine Jahrhundertrezession mit einer Massenarbeitslosigkeit in ihrem Gefolge, die der verheerenden Arbeitslosigkeit während der Weltwirtschaftskrise der 1930er Jahre gleich kommen könnte.

Aufgrund der Modellrechnung von Virologen (auch hier spielen also Modelle eine  entscheidende Rolle) wurde von der Bundesregierung bei der Anordnung des Shutdown am 23. März 2020 unterstellt, dass 5 % der mit dem Virus Infizierten beatmungspflichtig und ein Intensivbett benötigen würden. Dazu ist festzustellen, dass Modelle prinzipiell methodisch ungeeignet sind, komplexe Probleme zu analysieren, denn ihre Analyseergebnisse hängen stark ab von der Willkürlichkeit der ins Modell eingegeben Ausgangsannahmen (Nahamowitz 2020, 14 ff). Bei 300.000 Infizierten wären es nach dieser Modellrechnung 15.000 zusätzlich benötigte Intensivbetten, was zweifellos das Krankenhaussystem an den Rand der Belastbarkeit gebracht hätte. Denn nach einer Schätzung der Deutschen Krankenhausgesellschaft (DKG) ist Anfang April die Zahl der Intensivbetten von 28.000 auf 40.000 also nur um 12.000 gesteigert worden (Handelsblatt vom 24./25./26. April 2020, S. 33).

Daher zielten die staatlichen Abwehrmaßnahmen mit dem Shutdown als Höhepunkt auf eine Verlangsamung des Infektionsgeschehens ab. Es sollte den Krankenhäusern die Zeit eingeräumt werden, ihre Intensivkapazitäten zu erhöhen, um damit, wie immer wieder von den Politikern betont wurde, „Leben zu retten“.

Bei dieser Strategie ist bereits der Ansatz falsch, weil nicht  zwischen Infizierten mit und ohne Symptome unterschieden wurde. Letztere, die ungefähr die Hälfte ausmachen könnten, bedürfen keines Intensivbettes in der Zukunft. Ihre Anzahl wurde und wird nicht erhoben – epidemiologisch ein schwerer Fehler, so der renommierte Infektionsepidemiologe Sucharit Bhakdi (Bhakdi, Video vom  29.3.2020 ). Hinzukommt, dass von Anfang an eine weitere wesentliche Unterscheidung, diesmal bei der Zählung der Toten, nicht vorgenommen wurde, nämlich die, ob der Exitus entscheidend durch das Coronavirus herbeigeführt wurde oder ob es eine andere wesentliche Ursache gab (z.B. Diabetes, Bluthochdruck oder Herzinfarkt). In der Statistik werden alle Toten als Corona-Tote aufgeführt, bei denen das Virus aufgefunden wurde, eine Obduktion findet nicht statt  – nach Bhakdi ein Verstoß gegen die deutschen ärztlichen Leitlinien. Diese Handhabung beruht auf einer Empfehlung des Robert Koch Instituts (RKI) mit der nicht überzeugenden Begründung, dass Obduktionen das Infektionsrisiko erhöhten. Die obduzierenden Ärzte sind aber in Wahrheit bei ihrer Tätigkeit gegen Infektionen ausreichend geschützt. Erst am 21.4.2020, also erst 4 Wochen nach dem Shutdownbeschluss hat das RKI, eine Bundesoberbehörde mit einem Tiermediziner (!) an der Spitze, seine verfehlte Empfehlung aufgegeben und empfiehlt nun ebenfalls Obduktionen zur Feststellung der wirklichen Todesursache. Man wird abwarten müssen, wie sich das neue Verfahren in der Praxis bewährt.

Beide Unterlassungen wurden und werden freilich weiterhin weltweit praktiziert, sie führen in der politischen Realität zu Angsterzeugung und einer überhöhten Alarmierung der Öffentlichkeit. Im ersten Fall erscheint die Zahl der kranken Infizierten zu hoch, im zweiten die Zahl der echten, tatsächlich „an“ (und nicht nur „mit“) Corona Gestorbenen. Die Ähnlichkeit des Coronaalarmismus zum vor allem in Europa staatlich geförderten Klimaalarmismus drängt sich auf.

Auf dieser inkorrekten Faktenlage beruhte der Shutdown- Beschluss vom 23. März, der weitreichende Eingriffe in die Grundrechte der deutschen Bürger und Unternehmen mit sich brachte, und zwar vor allem in die allgemeine Handlungsfreiheit (Art. 2 Abs. 1 GG), die Religionsfreiheit (Art. 4 Abs. 2 GG), die Versammlungsfreiheit (Art. 8 Abs. 1 GG), die Freizügigkeit (Art. 11), die Berufsfreiheit (Art. 12 Abs. 1 GG) sowie in die Eigentumsfreiheit (Art. 14 Abs. 1 GG).

Nach Art. 20 Abs. 3 GG ist die vollziehende Gewalt „an Gesetz und Recht gebunden“. Nach der ständigen Rechtsprechung des BVerfG beurteilt sich die Verfassungsmäßigkeit von Grundrechtseingriffen nach dem Verhältnismäßigkeitsgrundsatz mit seinen drei Elementen der Geeignetheit, der Erforderlichkeit und der Zweck/Mittel- Proportionalität des Eingriffs.

Die Verhältnismäßigkeitsprüfung würde anders ausfallen, wenn von den zuständigen Stellen die sachgerechten Parameter statistisch erhoben worden wären. Unterstellt, nur die Hälfte der Infizierten würde Symptome entwickeln, würden bei 300.000 Infizierten nicht 15.000, sondern nur 7.500 zusätzliche Intensivbetten benötigt, eine Aufgabe, welche die Krankenhäuser bereits Anfang April bewältigt hatten. Und dann wäre sehr genau zu prüfen, ob die Radikalmaßnahme einer Verlängerung des Shutdown am 15. April überhaupt erforderlich gewesen wäre. Würde sich weiterhin herausstellen, dass die sogenannten Corona -Toten nicht durch COVID-19 als wesentlicher Ursache, sondern wesentlich an ihren i. d. R. schweren Vorerkrankungen verstorben sind, wovon jedenfalls für Hamburg ausnahmslos auszugehen ist (so die bei Markus Lanz am 9. April 2020 getroffene Feststellung des Rechtsmediziners Klaus Püschel, der in Hamburg sämtliche „Corona-Tote“ obduziert hat), so würde sich die Prüfung der Proportionalität zwischen geretteten Leben (Zweck) einerseits und den gravierenden Beeinträchtigungen des öffentlichen und privaten Lebens einer ganzen Bevölkerung (Mittel) andererseits ebenfalls anders darstellen. Denn das Hamburger Obduktionsergebnis ist sicherlich zumindest in der Tendenz auf das ganze Bundesgebiet übertragbar. In diesem Fall würde der Zweck des Shutdown, Leben zu retten, sich nahezu vollständig verflüchtigen

Anzahl der gemeldeten Neu-Infektionen pro Tag. Berücksichtigt man den Zeitverzug von gut 10 Tagen zwischen Infektion und Meldung, dann lag der Scheitelpunkt der Epidemie etwa um den 20. März 2020. Daten Worldometer hier  Grafik mit Trendlinie Prof. Homburg im Video Punkt Preradovic vom 28.4.20 hier

Glücklicherweise brauchen wir diese mit notgedrungen hypothetischen Daten arbeitende Verhältnismäßigkeitsprüfung nicht durchzuführen. Denn knapp eine Woche vor dem Shutdown-Verlängerungsbeschluss vom 15. April ist ein Ereignis eingetreten, welches die verfassungsrechtliche Waagschale zuungunsten der staatlichen Radikalmaßnahmen gesenkt hat. Der Verlängerungsbeschluss vom 15. April brachte nur zögerliche Lockerungen. Vor allem kleinere Geschäfte, Autohäuser, Buchläden und Frisöre durften wieder öffnen, für die Schulen gab es partielle Lockerungen. Wie es sich für einen föderalen Staat gehört, wurden diese Erleichterungen in den Bundesländern durchaus unterschiedlich umgesetzt. Beibehalten am 15. April aber wurde das grundsätzliche Kontaktverbot. Geschlossen blieben Geschäfte ab einer Verkaufsfläche von 800 qm, alle Hotels und Restaurants sowie die Kitas, wobei es auch hier zu föderalen Abweichungen kam. Das angesprochene verfassungsrechtlich bedeutsame Ereignis bestand in dem Ergebnis einer engagierten Forschergruppe.

Eine Anfang April von einer Forschergruppe um den Bonner Virologen Hendrik Streeck erhobene repräsentative Stichprobe mit 1.000 Probanden in der nordrhein-westfälischen Gemeinde Gangelt im Kreis Heinsberg hat nämlich die äußerst geringe Letalitätsrate von 0,37 % der Infizierten erbracht, wie auf einer Pressekonferenz am 9. April in Anwesenheit von NRW-MP Armin Laschet von Streeck mitgeteilt wurde. Das wären 1.110 Tote auf 300.000 Infizierte und 370 Tote auf 100.000 Infizierte, was SARS-CoV-2 als ein weitgehendes harmloses Virus ausweist. Hinzu kommt, dass die weit überwiegende Zahl der Toten keine „an“ Corona gestorbene Toten wären. Bhakdi schätzt die Gefährlichkeit von SARS-CoV-2 als zwischen einem Fünfzigstel und einem Hundertstel schwächer als das Grippevirus, welches vor zwei Jahren in Deutschland 25.000 Tote forderte (Bhakdi ebd.). Diese Grippeepidemie wurde damals ohne jede Schwierigkeit und ohne jedes öffentliche Aufsehen vom Krankenhaussystem bewältigt; eine staatliche Abwehrreaktion war nicht nötig und erfolgte auch nicht (ebd.). Für das viel harmlosere SARS-CoV-2 hat das umso mehr zu gelten. Die weitgehende Harmlosigkeit von SARS-CoV-2 wird auch durch eine aktuelle französische Studie bestätigt, von der  Bhakdi ebenfalls berichtet. In ihr wird die Gefährlichkeit von SARS-CoV-2  etwa gleich hoch eingeschätzt wie die alltäglicher Coronaviren. Der Titel der Studie „SARS-CoV-2“: fear versus data“ zeigt schon an, worum es geht: Die allgemeine Coronafurcht ist durch die Datenlage nicht gerechfertigt (Roussel et al. 2020).

Wir beginnen nun mit der schulmäßigen verfassungsrechtlichen Prüfung nach Maßgabe des Verhältnismäßigkeitsgrundsatzes mit seinen drei Elementen der

 

  1. Geeignetheit,

 

  1. Erforderlichkeit und

 

  1. Zweck/Mittel- Proportionalität

 

des Grundrechtseingriffs.

Auf den ersten Blick scheint der Shutdown erfolgreich und damit geeignet zu sein, das Ziel der Verlangsamung des Infektionsgeschehens zu erreichen. Denn die sog. Reproduktionsrate (R), die angibt, wie viele weitere Personen ein Infizierter ansteckt, ist von ursprünglich über 3 auf knapp unter 1 gesunken. Im Zuge dieses Erfolgs haben die Krankenhäuser denn auch erhebliche Überkapazitäten im Intensivbereich aufgebaut, was den Anteil der freien Betten an der Gesamtzahl der Intensivbetten z.B. in Bayern auf 51 % (zweithöchster Wert) und in Berlin auf 31 % (niedrigster Wert) erhöht hat (Handelsblatt vom 24./25./26. April 2020, S. 33).  Der genauere Blick anhand einer Kurve, die vom Hannoveraner Ökonomen Stefan Homburg angefertigt und bei Markus Lanz am 21. April vorgeführt wurde, zeigt aber, dass R schon einige Tage vor dem Shutdownbeschluss vom 23. März auf unter 1 gesunken ist und seitdem leicht unterhalb dieser Marke pendelt, ohne weiter deutlich zu sinken. Damit wäre den beiden Shutdownbeschlüssen das Testat der Geeignetheit i. S. des Verhältnismäßigkeitsgrundsatzes zu versagen.

Das RKI wendet freilich ein, dass der R-Wert das reale Geschehen „etwas überschätzt“, vor allem weil die Testkapazitäten stark erhöht worden seien (17. Epidemiologisches Bulletin des RKI). Unterstellt, der R-Wert läge in Wahrheit 0,2 – 0,3 Punkte niedriger, also etwa bei 0,6, ändert das nichts an der Feststellung, dass der entscheidende Abstieg von dem hohen R-Sockel von über 3 auf unter 1 bereits vor dem Shutdown erfolgt ist. Und dass aus der geringen Verbesserung des R-Wertes danach die Eignung des Shutdown nicht hergeleitet werden kann.

Man kann diese Frage aber letztlich dahin gestellt sein lassen, denn es ergeben sich eindeutige Belege für die fehlende Erforderlichkeit des Shutdown. Diese sind im Vorstehenden bereits genannt worden, sie lassen sich in der Feststellung zusammenfassen, dass SARS-CoV-2 ein weitgehend harmloses Virus ist. Das legt die sehr geringe Letalitätsrate von 0,37 % zwingend nahe. Das Hamburger Obduktionsergebnis legt nahe, dass es nahezu keine ursächlich „an“ COVID-19 Gestorbenen gibt. Die französische Studie setzt die Gefährlichkeit von SARS-CoV-2 gleich mit derjenigen normaler Coronaviren. Schließlich zeigt der Vergleich mit dem 50- bis 100- fachen stärkeren Grippevirus von vor zwei Jahren, welches trotz 25.000 Toten keinerlei Abwehrmaßnahmen des Staates evoziert hat, dass die gegenwärtigen Maßnahmen des Shutdown weit überzogen sind. Die „milderen Mittel“ wie Hygieneregeln, Abstandsgebote und (die freilich medizinisch umstrittene) Maskenpflicht sind ausreichend zur Eindämmung des Virus, weitergehende Maßnahmen sind nicht erforderlich.

Schließlich ist auch die Zweck/Mittel- Proportionalität nicht gewahrt, die Shutdownbeschlüsse sind wie das Schießen mit Kanonen auf Spatzen: es werden wesentliche  Grundrechte einer ganzen Nation über Wochen in Quarantäne genommen, um ein weitgehend harmloses Virus zu besiegen.

Um der grundrechtsdogmatischen Vollständigkeit willen sei noch erwähnt, dass die Prüfung der Zweck/Mittel- Propotionalität des Eingriffs in die Berufsfreiheit (Art. 12 Abs. 1 GG) nach den Regeln der sog. Drei-Stufen-Lehre erfolgt. Für die Berufsausübung (1. Stufe) sind „vernünftige“ Gesichtspunkte des Gemeinwohls ausreichende Rechtfertigung, für die subjektiven Zulassungsbeschränkungen bei der Berufswahl (2. Stufe) werden „wichtige“ Gesichtspunkte des Gemeinwohls zur Rechtfertigung gefordert und bei den objektiven Zulassungsbeschränkungen bei der Berufswahl (3. Stufe) „überragend wichtige“ Interessen des Gemeinwohls. Die Regelungen des Shut­down wie Restaurantschließungen und Veranstaltungsverbote erfolgen auf der 1. Stufe (Berufsausübung ), auf der wichtige Allgemeininteressen zur Rechtfertigung ausreichend sind. Das wäre klar der Gesundheitsschutz der Bevölkerung. Aber auch bei der Berufsausübungsfreiheit muss der Eingriff geeignet und erforderlich sein, wobei letzteres oben schon verneint worden ist.

Aus den Wortmeldungen der Ministerpräsidenten im Vorfeld der Verlängerungsentscheidung ergibt sich, dass sie sich an „Gefühl und Wellenschlag“ ausrichteten, und das Ergebnis der lege artis nach den Regeln der WHO durchgeführten Feldstudie der Bonner Wissenschaftler ebenso in unglaublicher Ignoranz ignorierten wie das Ergebnis der schon vorher erschienenen französischen Studie. Eine Ausnahme in der Dilettantenrunde aus Ministerpräsidenten und Vertretern der Bundesregierung bildet wahrscheinlich auch der MP von NRW Armin Laschet nicht, obwohl er die Studie der Bonner Wissenschaftler bis zuletzt politisch begleitet hatte. Das schließe ich aus dem Umstand, dass Laschet in späteren Statements (zuletzt bei Anne Will am 26. April) sich niemals auf die geringe Letalitätsrate von 0,37 % zur Begründung seines Plädoyers für mehr Lockerung berufen hat.

Hier zeigte sich das Versagen der großen Politik ein weiteres Mal, nachdem sie schon am Anfang des Prozesses die Erhebung der sachgerechten Statistiken versäumt hatte. Genauso wie beim Klimathema zeigt sich, dass die große Politik in Deutschland mit Wissenschaft nicht adäquat umgehen kann. Lässt sie sich beim Klima einseitig von dem federführenden superalarmistischen Potsdam- Institut beraten unter vollständiger Nichtbeachtung der zahlreichen hervorragenden skeptischen Klimawissenschaftler, so sind ihre Ratgeber bei Corona offensichtlich allein Wissenschaftler vom Schlag des Virologen Christian Drosten von der Berliner Charité und des Robert Koch Instituts, welche es nicht einmal angedacht hatten, den methodisch einzig richtigen Weg einer repräsentativen Stichprobe zur Erhellung der Coronaproblematik einzuschlagen. Vollends dubios ist die Rolle von Armin Laschet, der direkten Kontakt zu dem abweichenden Virologen Streeck hatte und seine Ergebnisse kannte, diese im politischen Ringen aber niemals verwendete. Wollte er seine Chancen als Bewerber um den CDU- Vorsitz nicht schmälern? Denn die von Streeck und seinen Kollegen gefundene geringe Letalitätsrate des Coronavirus legt die Axt an die gesamte Shutdown-Politik der Bundesregierung.

Und aktuell zeitigt die Totalignoranz der Politik das fatale Resultat, dass sie trotz Rückgangs der Reproduktionszahl (R) auf unter 1 und mehr als ausreichender Intensivkapazitäten in den Krankenhäusern immer noch wie das Kaninchen auf die Schlange allein auf die Infektionszahlen schaut in der furchtsamen Erwartung einer zweiten Infektionswelle. Dass die Letalitätsrate mit 0,37 % minimal ist und damit auch einer eventuellen zweiten Infektionswelle den Schrecken nimmt, ist entweder weiter unbekannt oder wird verdrängt. Geräte dieser Umstand ins öffentliche Bewusstsein, würde die unverhältnismäßige Strategie des Shutdown wie ein Kartenhaus in sich zusammen fallen.

Aus dem zuvor im Rahmen der Prüfung der Verhähtnismäßigkeit Gesagten folgt die Verfassungswidrigkeit beider Shutdown-Beschlüsse. Dass zum Zeitpunkt des ersten Beschlusses das Bonner Forschungsergebnis noch nicht vorlag, spielt keine Rolle, da es zur Feststellung der Verfassungswidrigkeit einer Maßnahme auf die Kenntnis oder Unkenntnis entscheidungsrelevanter Fakten auf Seiten der handelnden staatlichen Stelle nicht ankommt. Die Verfassungswidrigkeit kann im Wege der Verfassungsbeschwerde von den Betroffenen (das sind alle Bürger) gem. Art. 93 Abs. 1 Nr. 4a vor dem BVerfG geltend gemacht werden. Nach § 32 BVerfGG ist auch ein Eilantrag zum BVerfG zulässig. Ist einem Bürger bzw. Unternehmen aufgrund des verfassungswidrigen Staatshandelns ein Vermögensschaden entstanden, der die staatlichen Kompensationszahlungen übersteigt, kann Schadensersatz nach den Grundsätzen des Staatshaftungsrechts geltend gemacht werden (vgl. näher Will, Quarck 2018 ). Tun das viele  Rechtssubjekte, könnte die  verfassungswidrige Coronapolitik den Staat noch sehr viel mehr kosten, als sich bisher abzeichnet. Das wird genau so sein bei dem großen Klimaprojekt der „Energiewende“, nur auf sehr viel höherem Niveau – eine  letzte Ähnlichkeit zwischen  Coronapolitik und Klimapolitik.

Meine Überlegungen münden in einen kurzen Abstecher in die politische (Tiefen-) Psychologie. Gegenstand ist das Totalversagen der Politik, welches in weiten Teilen die Unfähigkeit ist, mit Wissenschaft sachgerecht umzugehen. Zum einen hat diese Unfähigkeit wohl den Grund, dass Intelligenz keine Bedingung einer erfolgreichen politischen Karriere ist. Zum anderen ist auffällig, dass die Politik sich nicht pluralistisch beraten lässt, weder in der Coronapolitik noch in der Klimapolitik. Und noch mehr fällt auf, dass sie anscheinend ohne Zögern, wie bei den Themen Klima und Corona geschehen, die alarmistische Wissenschaftvariante wählt und an dieser Wahl unbeirrt festhält. Dahinter mag auch das halb bewusste, halb unbewusste Wissen stehen, dass der Notstand (die Krise) nach einer gängigen staatsrechtlichen Erkenntnis die Stunde der Exekutive ist. Und die damit zuwachsende Macht dürfte gerade für die überall anzutreffenden narzistischen Politiker, für deren Beruf Machtausübung in all ihren Schattierungen gleichsam konstitutiv ist, ein großes Faszinosum sein. Nach dem bekannten Tiefenpsychologen und Narzissmusforscher H.-J. Maaz gilt die Erkenntnis: „Politik ist narzissmuspflichtig“ (Maaz 2016, 189 ff). Die Geltung dieser Erkenntnis ist nicht auf Deutschland beschränkt, sondern ist ebenso global wie COVID-19 global wirkt.

 

Quellenverzeichnis

 

Bhakdi, Sucharit 2020: Offener Brief an die Bundeskanzlerin, Video vom 29.3.

Maaz, Hans-Joachim 2016: Die narzistische Gesellschaft.,

 

Nahamowitz, Peter 2020: Klimawandel und CO2: falsche Alarmzeichen für die Weltgesellschaft, in: ScienceFiles, Blaue Reihe. Band 8.

 

Roussel, Yanis et al. 2020: SARS-CoV-2: fear versus data, in: International Journal of Antimicrobial Agents, 19 March.

 

Will, Quarck 2018: Staatshaftungsrecht.

 

Der Autor ist Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Universität Hannover und ist seit 2007 im Ruhestand. Er lehrte seit Jahrzehnten Verfassungsrecht  an seinem Fachbereich in Hannover.




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 2)

…siehe hierhier und hier.“ (Pat Frank 9.12.2019[1])

Teil 1 hier und Teil 3 hier

Zu 3 Messregime

Da es praktisch undurchführbar war die gemessene Temperatur in kurzen Zeitabständen abzulesen, wünschenswert wären bspw. alle 5 Minuten gewesen, definierte man entweder wenige feste Tageszeiten, an denen abgelesen (und notiert) wurde, dies wurde insbesondere in Zentraleuropa – aber zu verschiedenen Zeiten und auch unterschiedlich oft- so gemacht, oder man las nur die Max. und die Min-Werte von speziellen Thermometern ab, und war dadurch zeitlich nicht so gebunden. Man handelte sich aber damit die Unkenntnis ein, nicht genau zu wissen, wann am Tag der Max. bzw. Min. Wert aufgetreten war. Das führte zu einem speziellen, aber kräftigen Fehler bei der Auswertung, der sogar einen eigenen Namen bekam, der Time of Observation Error (TOBs). Vor allem die praktischen Briten und mit ihnen dann alle ihre Kolonien und Einflussgebiete benutzten bis zum Ende des vergangenen Jahrhunderts diese Methode.

Abbildung 5 Kleine Auswahl aus historisch vielfach verwendeten Mittelwertbildungsalgorithmen

Aus diesen punktuellen Messwerten wurden dann arithmetische Mittelwerte gebildet, das sog. Tagesmittel. Diese (verschiedenen) Tagesmittel erlaubten nun Monatsgänge der Tagestemperaturen zu bilden. Sie wurden und werden dann weiter zu arithmetischen Monatsmitteln zusammengefasst, die es wiederum erlaubten Jahresgänge zu bilden, welche den Verlauf der Jahreszeiten anhand der Mittel-Temperatur zeigten.  Diese können dann zu Zeitreihen für langjährige klimatologisch interessante Zeiten zusammengefasst werden, was auch geschieht.

Es geschieht aber noch etwas anderes mit diesen Daten, sie werden in „Anomalien“ umgerechnet, d.h. es werden Differenzen aus dem aktuellen Wert abzüglich eines Referenzwertes gebildet. Dies geschieht wegen der berechtigten Annahme, dass Anomalien die eigentlich gesuchten Veränderungen präziser und weiträumig vergleichbarer abbilden, als die der absoluten Temperaturen, die zusätzlich noch weiteren Einflüssen wie Höhenlagen, windhöffiger oder stiller Messort etc. ausgesetzt sind. Doch damit handelt man sich neue Fehlerquellen ein, von denen die wenigsten Klimaforscher etwas wissen, ja schlimmer noch, die wegen falscher, wenn auch plausibler Analogien, zu völlig falschen Ergebnissen führen müssen. Welche das im Einzelnen sind und was das bedeutet wird im Teil „Weiterverarbeitung“ ausführlich beleuchtet.

Zu 4. Die geografische und zeitliche Abdeckung

Sobald die so gewonnenen Daten etwas mehr zur Beobachtung und Deutung von großräumigem Wettergeschehen herangezogen werden sollen, was in der Natur der Sache liegt, denn Wettergeschehen ist großräumig, kommt es unmittelbar auf eine genügende räumliche wie zeitliche Abdeckung der in Frage kommende Gebiete an. Doch da setzen ebenso technische wie finanzielle Machbarkeit enge Grenzen. Errichtung und Betrieb von Wetterstationen ist nicht nur teuer, sondern verlangt neben der genügenden Verfügbarkeit der richtigen Messmittel, auch genügend personelle Kapazität, großes Know How  und Disziplin für ihren Betrieb. Und das permanent über lange, im politischen Maßstab sehr lange Zeiträume. All das war von Anfang an nicht selbstverständlich und musste erst langsam nach dem Entstehen reifen. So wundert es nicht, dass die Stationsdichte sich ausnahmslos in früh entwickelten Ländern konzentriert, während weite Teile der Welt bis Anfang der 50er Jahre praktisch ohne Messstationen blieben. Das gilt für Südamerika, Afrika und weite Teile Asiens, ebenso wie die mehr als doppelt so große Ozeanfläche dieser Welt.

Abbildung 6 Entwicklung der Zahl und Position der historischen Messstationen

darunter Aktueller Stand der im Global Historical Climate Networks GHCN der NOAA mit Monatsmittelwerten der  Temperatur  insgesamt zuliefernden 7.280 Stationen mit mindesten 10 Jahren  kontinuierlicher Datenreihen. Für Stationen mit Max/Min Erfassung gibt es ähnliche Grafiken. Quelle (http://www.ncdc.noaa.gov/oa/climate/ghcn-monthly/index.php fig. 1). Man beachte jedoch, dass von GISS und CRU davon nur ungefähr 1/7 ausgewertet werden.

Quelle https://climateaudit.org/2008/02/10/historical-station-distribution/

Abbildung 7 Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611

 

Zu 5. Die Weiterverarbeitung! Was geschieht mit den meteorologischen Messdaten?

Wie zuvor schon kurz angesprochen werden die Einzeldatensätze erst einer umfassenden Prüfung auf Konsistenz, Dauer, und Plausibilität, mit anschließender Weiterverarbeitung unterzogen. Zunächst bleibt es bei den einzelnen Stationen und ihren Daten. Je nach Verwendungszweck wird aus diesen erst Tagesmittel und daraus das Monatsmittel gebildet und von diesem eines als „Station Normal“ bezeichneten langjährigem (bspw. über 360 Monate also 30 Jahre) Mittel abgezogen. Die so entstehende Differenz wird als so gut wie fehlerfrei betrachtet, weil – so die Annahme – die lokalen systematischen Fehler ja auch im „Station Normal“ vorhanden seien, und, wenn man beide Werte voneinander abzöge, sich der Fehler kompensierte (stellvertretend dafür [Brohan et al. 2006])[2],[3]. Manchmal werden aber auch zunächst die Jahresmittel gebildet und diese vom „Station Normal“ abgezogen. Die Grundannahme aber, von der Fehlerselbstkorrektur bei Bildung von Anomalien, bleibt aber dieselbe.

Und daher behaupten so gut wie alle Klimaforscher, auch Stefan Rahmstorf vom PIK unwidersprochen[4], dass Anomalien viel genauer seien als die ihnen zugrunde liegenden Absolutwerte. Liest man seinen Text genauer, dann muss man feststellen, dass er sich mit der Materie nicht beschäftigt hat, sondern nur auf die Korrelation zwischen den Trends von absoluten Temperaturdaten verweist, wie sie schon von James Hansen für seine Schwarze Kunst verweist. Es bleibt ein bitterer Treppenwitz der Wissenschaftsgeschichte, dass Annahmen über Korrelationskoeffezienten herunter bis 0,33 (Hansens Grenzwerte) die Politik in ein nie dagewesenes Desaster treiben konnte.  Wer Näheres dazu wissen möchte sei auf diesen Beitrag verwiesen: Von Korrelationen, Trends bei Anomalien![5]

Doch diese Annahme ist – bei Zeitreihen von Anomalien – und das werde ich im Folgenden belegen, bis auf eine Ausnahme, immer falsch!

Anmerkung:

Der folgende Text ist einem Artikel entnommen, den ich am 7. Februar 2011 bei EIKE einstellte, und der am 23.11.2018 aktualisiert wurde.

In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahresmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.

Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[6] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:

„..There will be a difference between the true mean monthly temperature (i.e. from 1 minuteaverages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.

Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?

Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.

Ende Teil 2

[1] Zitate in deutscher Übersetzung von Pat Frank Quelle: https://www.eike-klima-energie.eu/2019/09/09/fehler-fortpflanzung-und-die-zuverlaessigkeit-von-projektionen-der-globalen-lufttemperatur/

[2] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

[3] Brohan et. al geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a dierence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this dierence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“ Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzewerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter.

[4] Verwirrspiel um die absolute globale Mitteltemperatur Verwirrspiel um die absolute globale Mitteltemperatur

[5] https://eike.institute/2018/01/09/von-korrelationen-trends-bei-anomalien/

[6] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion