1

Horst-Joachim Lüdecke: Energie und Klima – Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung.

Autor

Horst-Joachim Lüdecke ist pensionierter Professor für Physik, als Klimaforscher (Mit-)Autor zahlreicher internationaler Publikationen in begutachteten Fachjournalen und Autor einiger populärwissenschaftlicher Bücher. Auch durch Vorträge und Anhörungen in Parlamenten ist er bekannt geworden. Wer ihn noch nicht kennt (was hier selten sein dürfte), findet Einzelheiten hier.

Charakteristik und Stil

Im vorliegenden Buch hinterfragt der Autor das gängige mediale Narrativ zum anthropogenen CO2 als Hauptursache des aktuellen Klimawandels und damit verbunden die deutsche Energiepolitik. Auf nur 221 Seiten mit 33 Abbildungen bringt er dabei nahezu Unglaubliches fertig: Der Text ist so komprimiert geschrieben und gespickt mit Fakten, dass man als Leser mit fortschreitendem Kenntnisstand bei wiederholtem Lesen immer wieder Neues entdeckt. Gleichzeitig liest er sich, auch für thematische Neulinge, flüssig und (scheinbar) leicht. Obwohl als populärwissenschaftliches Buch konzipiert, weicht der Autor der Komplexität des Gegenstandes nicht aus und erliegt nie der Gefahr, unzulässig zu vereinfachen.

Lesebeispiel: Kapitel 1.1., Ausganglage, S. 11f.

„Bereits leicht zugängliche Fakten zeigten somit an, dass die Grundlagen der Klimafurcht fragwürdig sind. Über problemlos Nachprüfbares, wie Überschwemmungshöhen von Flüssen und Extremwetter-Statistiken, besteht weitgehende Unkenntnis in der Öffentlichkeit und den Redaktionsstuben der Medien. Wie sieht es aber dann erst bei komplexeren Sachverhalten aus? Ist menschgemachtes CO2wirklich klimaschädlich? Beantworten wir diese Frage einmal hilfsweise mit „Ja“. Dann schließt sich die Folgefrage an, ob Deutschlands kostspielige CO2-Vermeidungsmaßnahmen überhaupt global spürbar sein können. Unser Weltanteil von etwa 2% aller menschgemachten CO2-Emissionen ist  vernachlässigbar, und von den maßgebenden Verursachern, wie beispielsweise China hört man außer wohlfeilen politischen Beteuerungen nichts Substantielles über CO2-Vermeidungsmaßnahmen. Und weiter: Kann man das sich naturgesetzlich stets wandelnde Klima überhaupt schützen? Welche Klimazone von polar bis tropisch bedarf des stärksten Schutzes? Was sagen unabhängige Klimafachleute dazu? Gibt es hier einen ähnlichen Konsens über die Klimaschädlichkeit des menschgemachten CO2wie in Politik und Öffentlichkeit?“

Dem wissenschaftlichen Anspruch wird er nicht nur durch differenzierte, relativierende Formulierungen, sondern vor allem durch 320 Quellen und ein sorgfältig aufbereitetes Literaturverzeichnis gerecht. Theoretische und praxisnahe Abschnitte wechseln einander ab.

Daneben handelt es sich um einen der ganz seltenen naturwissenschaftlichen Texte, die schon rein sprachlich ein Genuss sind. Grammatisch und etymologisch anspruchsvolle Passagen werden gewürzt mit Humor, Sarkasmus und manchmal auch etwas Polemik. Einmal begonnen, kann man das Buch kaum noch aus der Hand legen.

Inhalt und Aufbau

Anstelle einer Zusammenfassung, die wegen der schon erwähnten Inhaltsdichte kaum mehr möglich ist, hier das Inhaltsverzeichnis Inhalt.

Entgegen der Behauptung auf Wikipedia – die man insofern als üble Nachrede bezeichnen muss – ist der Autor ist kein „Klima(wandel)leugner“. Weder streitet er ab, dass Klima sich wandelt, noch dass der Mensch einen Anteil daran haben kann, noch dass CO2 ein Treibhausgas ist. Allerdings widerlegt er mit klaren Argumenten, durch zahlreiche nachprüfbare Quellen belegt, die derzeit in den Medien immer wiederkehrenden „Mythen“ zum Klimawandel, z.B.:

  • Noch nie war es so warm wie heute.
  • Noch nie hat sich die Erde so schnell erwärmt wie heute.
  • Extremwetter (z.B. Dürren, Hurrikanes) nehmen im Zuge des Klimawandels zu.
  • Durch den Klimawandel sterben Korallen, die Natur gerät aus dem Gleichgewicht.

u.a.

Der erste Teil des Buches beschäftigt sich neben diesen Themen mit der Klimageschichte der Erde und mit theoretischen und empirischen Zusammenhäng von CO2 und postulierten Klimafolgen (Temperaturanstieg, Meeresversauerung u.a.). Besonders unter die Lupe genommen wird die vielzitierte Korrelation zwischen anthropogenem CO2 und dem globalen Temperaturanstieg seit ca. 1850. Fazit: So einfach und monokausal, wie es uns in den täglichen Medien nahegebracht wird, liegen die Dinge nicht. Über die komplexen atmosphärischen Zusammenhänge weiß die Wissenschaft noch sehr wenig, aber Vieles, was wir täglich zu lesen oder hören bekommen, ist nachweislich falsch.

Im zweiten Teil geht es um Energie. Anliegen des Autors ist es aufzuzeigen, dass die in Deutschland eingeleitete „Energiewende“maßnahmen weder geeignet noch verhältnismäßig sind, um Klimawandel und seine postulierten Begleiterscheinungen aufzuhalten. Dass Strom nur einen kleiner Teil unserer Energie darstellt, und dass selbst dieser Teil niemals durch Wind- und Solarkraft bereitgestellt werden kann, wissen selbst viele Akademiker in Deutschland heutzutage nicht. Die Zahlen und Fakten im Buch sind geeignet, ihnen schnell und nachhaltig die Augen zu öffnen. Zahlreiche praktische Rechenbeispiele erlauben dem interessierten Leser, sich aktiv zu beteiligen.

Ein abschließendes Kapitel bewertet nicht nur die aktuelle Klimapolitik, sondern deckt auch unlautere Aktivitäten von Wissenschaft und Medien auf. Die angeführten Belege beweisen, dass es sich dabei keineswegs um verschwörungstheoretische Behauptungen handelt.

Der Aufbau des Buches ist besonders lebendig gestaltet durch einführende Überblicke zu Beginn der Kapitel, in denen der Leser schon neugierig gemacht wird auf die spätere systematische Darstellung, die Auflockerung der detailreichen Theoriekapitel durch Bilder und Rechenbeispiele, und abschließende Zusammenfassungen und Rückverweise.

Lesebeispiel, einführender Überblick: Kapitel 2, Klima, S. 21.

„Der verheerende Hurrikan Katrina hatte Ende August 2005 die Stadt New Orleans im Süden der USA schwer geschädigt, wobei die nächsten Jahre keine schweren Stürme in New Orleans mehr vorkamen. War Katrina ein Klimaereignis? Die Antwort lautet „Nein“. Es wäre ein Klimaereignis gewesen, wenn in den gesamten 30 Jahren vor Katrina die Hurrikan-Häufigkeit oder -Stärke zugenommen hätten. Dies war aber nicht der Fall (s. unter 2.3.1).“

Lesebeispiel, praktische Rechnung: Kapitel 3, Energie, S. 149:

„Unter 3.3 haben wir die Leistung beim Betanken eines einzigen Benzinautos berechnet, es waren 6,1 MW! Dies entspricht der realen mittleren Jahresleistung von vier200 m hohen E126 [Windkraftanlagen]! Welcher Kunde an einer Tankstelle mag sich dies beim Tanken wohl vorstellen?“

Lesebeispiel, abschließende Zusammenfassung: Kapitel 2, Klima, S. 111ff.

„2.8   Diskussionen von Klimarealisten mit Klimawarnern?

[…] Diskutiert man dagegen mit Leuten, die es mit Informationsgewinn ernst meinen und sich einer vernünftigen Diskussion nicht verschließen, erscheinen nur die einfachsten und möglichst faktennahen Argumente hilfreich. […] Hier daher die nach Auffassung des Buchautors zehn wichtigsten und einfachsten Kernargumente, die den Behauptungen der Klimawarner entgegengesetzt werden könnten:

  1. Klimawarner: „Klimaschutz“ ist die größte aktuelle Herausforderungder Menschheit.

    Klimarealist: „Klima ist […]“

Und was fehlt in dem Buch? Bei allem Enthusiasmus geht eine Besprechung nicht ohne Kritik ab. Im vorletzten Kapitel „Hintergründe des Klima-Aktivismus“ diskutiert der Autor als politische Motivation die so genannte große Transformation. Hier hätten aber auch wirtschaftliche Motive all jener Kapitalgeber und Industrien genannt werden können, die seit Beginn der Klimadiskussion in den 1980er Jahren zunehmend in propagierte Technologien investiert haben. Außerdem würde man sich zum schnellen Nachschlagen, z.B. in Diskussionen, einen Index wünschen.

Was ist neu?

Gegenüber den vorherigen Auflagen hat der Autor den Aufbau des Buches grundlegend verändert. Obwohl sich schon die vorigen Auflagen gut lasen, fällt hier die deutlich systematischere inhaltliche Gliederung der Abschnitte auf. Außerdem wurden inhaltliche Schwerpunkte verschoben. Während zum Thema Energie die Kernkraft inzwischen in einem eigenen Buchbehandelt wird und somit hier kaum noch zu finden ist, sind zum Thema Klima weitere interessante Details hinzugekommen, z.B. zur Klimasensitiviät von CO2 (Bild 18) oder zu den Klimamodellen des IPCC (Bild 19). Zudem sind alle Daten aktualisiert und zahlreiche aktuelle Literatur, insbesondere kritisierte Mediendarstellungen, neu eingefügt worden.

Für wen lohnt sich der Kauf?

Klare Antwort: Für alle. Jedenfalls für alle, die …

… eine der früheren Auflagen bereits gelesen haben und ihre Kenntnisse auffrischen und ergänzen wollen,

… die bisher ahnungslos dem gängigen Medien-Narrativ geglaubt haben,

… die der Politik vertrauen und misstrauisch sind gegenüber den „Verschwörungstheorien der Klimaleugner“ – jedenfalls wenn sie sich einen Rest gesunder Neugier und Misstrauen gegen sich selbst bewahrt haben.

Nur blinde Ideologen können sich den Geld- und Zeitaufwand wohl sparen.

Nach meiner eigenen Erfahrung im (akademisch gebildeten) Bekanntenkreis war das Buch von Professor Lüdecke bisher das am besten geeignete, um Menschen aus dem „Tal der Ahnungslosigkeit“ herauszuhelfen.

Diepositive Besprechung, die Konrad Kleinknecht, ehemaliges Vorstandsmitglied der Deutschen Physikalischen Gesellschaft, zur ersten Auflage im Physik Journal verfasst hatte, kann auch für die Neuauflage als Nachweis der wissenschaftlichen Seriosität und Werbung gelten. Das ist umso wichtiger, als – wie viele Leser wissen, und wie es auch im Buch thematisiert wird – der Autor und zahlreiche Buchinhalte, z.B. zum angeblichen wissenschaftlichen Konsens im Kapitel 3.5.3, Opfer medialer Zensur und unsachlicher Verunglimpfung geworden sind, z.B. auf Wikipedia (s.o.). Aus diesem Grund lege ich, wenn ich das Buch an „Neulinge“ verschenke, immer eine Kopie der Kleinknecht-Besprechung bei. (Gleichermaßen kann das dem Buch vorangestellte Geleitwort des Mathematikers und CDU-Bundestagsabgeordneten Arnold Vaatz dazu dienen, misstrauische Zeitgenossen, die sich kein eigenes Urteil zutrauen, von der Seriosität zu überzeugen.)

Buch:

Lüdecke, Horst-Joachim (4. überarbeitete Auflage 2020). Energie und Klima. Chancen, Risiken und Mythen. Tübingen: expert Verlag. 221 Seiten, 320 Quellen, 33 Abbildungen.

Zu bestellen hier oder hier.

 

Weitere Quellen:

Kleinknecht, K. (2013). Kampf um Strom + Energie und Klima. Physik Journal 12 (2013) Nr. 8/9, S. 86-87. https://www.pro-physik.de/restricted-files/91316




Gefangen im Tunnel – Der Teufelskreis der Corona-Politik

Carl Heneghan hat einen Artikel im britischen Politik- und Kulturmagazin Spectator verfasst, dem ältesten noch existierenden Magazin englischer Sprache. Darin zeigt er, dass derzeit in Großbritannien eine leichte Untersterblichkeit herrscht, also weniger Menschen sterben als im Schnitt der fünf vorherigen Jahre.

Die eigentliche Erkenntnis liegt aber darin, dass die Sterblichkeit in den britischen Pflegeheimen und Krankenhäusern aktuell sogar deutlich niedriger ist, aber die Sterblichkeit in den Privathaushalten viel höher als normal – und dies liegt mit Sicherheit nicht an Covid-19. Der naheliegende Grund ist: Dort wird aktuell gestorben, weil die Menschen vorher nicht zum Arzt gegangen sind, um das Gesundheitssystem in Coronazeiten zu schonen.

So wurden ihre Krankheiten zu spät oder gar nicht behandelt. Heneghan nennt Schätzungen von 200.000 Todesfällen, mit denen Großbritannien aus diesem Grund zu rechnen hat. Und, wie gesagt, wenn Fachleute wie er von Zahlen reden, sollte man das ernstnehmen, im Gegensatz zu den Einlassungen der Drostens und Lauterbachs dieser Welt, die da keinerlei Kompetenz erkennen lassen.

Epidemiologen, die etwas von Evidence Based Medicine verstehen, also von der korrekten Deutung von Studienzahlen, gibt es auf der ganzen Welt. In den USA etwa den herausragenden John Ioannidis von der Standford University, der von Anfang an vor dem Fiasko durch massive Schutzmaßnahmen auf ungenügender Datengrundlage warnte. Es gibt sie auch in Deutschland und Österreich, wie beispielsweise Andreas Sönnichsen (siehe auch hier).

Das ganze Elend der Politik

Doch speziell in Deutschland kommen diese Experten nicht zu Wort, dabei sind sie die Spezialisten genau des Fachgebietes, welches uns am besten sagen kann, welche Belege es für die Gefährlichkeit von Covid-19 gibt. Also wie wir die Lage einschätzen sollten und was die Konsequenzen der Schutzmaßnahmen, positiv wie negativ, sind. Andreas Sönnichsen wurde in die österreichische Talkshow Talk im Hangar (22.07.2020) zusammen mit einem Kollegen und einer Kollegin, einer Richterin und einem Regierungspolitiker eingeladen.

Dort zeigte sich das ganze Elend der Politik. Andreas Sönnichsen argumentierte auf der Basis von soliden Belegen, während die zwei anderen Mediziner vor allem rein aus ihrer mehr emotional begründeten Sichtweise heraus argumentierten, sowohl pro und contra. Zusammengefasst lautet die Schlussfolgerung des Politikers aber in etwa so: Es zeigt sich gerade, dass drei Ärzte drei verschiedene Meinungen haben, und da sollen wir Politiker uns entscheiden. So treffen wir dann halt eine Entscheidung und halten daran dann auch fest.

Er behandelte die drei Meinungen also gewissermaßen gleichwertig. Das ist nichts anderes als die Kapitulation des Willens, sich um die fachlich beste Meinung zu bemühen und zwar jeden Tag neu (und auf dem Boden eventuell neuer Erkenntnisse). Um die am besten begründete Meinung herauszufinden, gibt es klare Regeln, wie zum Beispiel die der Evidenzbasierten Medizin. Und diese bestbegründete Meinung vertrat eindeutig und nachweisbar Andreas Sönnichsen. Wozu gibt es eigentlich solide Wissenschaft, wenn es die Entscheider in der Politik nicht interessiert oder sie zu träge sind, sich darum zu bemühen? Sehen Sie dazu Andreas Sönnichsen ab Min. 7:04 und darauf den grünen Bürgermeister von Innsbruck Georg Willi ab Min. 11:20 und später im Verlauf des Talks.

Teufelskreislauf der Panik

Zurück zum Spectator-Aufsatz des Epidemiologen Carl Heneghan. Das zugrundeliegende Problem dieser offensichtlichen Verneinung der Wirklichkeit sieht Heneghan darin, dass Menschen dazu neigen, sich am Anfang auf eine Bezugsgröße zu einigen, man könnte auch Anker oder Tunnel dazu sagen, und dann, obwohl sie sich als falsch erweist, eisern daran festhalten.

Im Falle von Corona war es ganz sicher die viel zu hohe Sterblichkeitsannahme, die zu den Horrorzahlen allein in Deutschland von hunderttausenden Toten motivierte, obwohl sie schon zum Zeitpunkt ihrer Propagierung nachweislich falsch war. Aber sie löste die Panik der Entscheider aus, die bis heute deren Handlungen bestimmt, obwohl wir ganz sicher wissen, dass die Sterblichkeit einer Infektion mit dem SARS-Cov-2 die einer normalen saisonalen Grippeinfektion nicht übersteigt. Aber die Politik wie die Öffentlichkeit schaffen es einfach nicht, aus diesem Teufelskreislauf der Panik auszusteigen.

Hier ihm Wortlaut frei übersetzt Carl Heneghans Schlussfolgerung:

Der Coronavirus Ausbruch hat große Emotionen, verbunden mit dem starken Wunsch nach Handlung, ausgelöst. Obwohl die Daten auf das Gegenteil hinweisen, wollen heute noch viele im Lockdown verharren. Im zu starken Vertrauen auf die ersten Informationsbruchstücke finden wir, dass dies keine gute Idee ist. Wir sollten uns die Tatsache klarmachen, dass wir diese Tendenz am starren Festhalten haben. Die Lösung besteht in einer Verlangsamung der Entscheidungsprozesse, suchen nach zusätzlichen Gesichtspunkten und Informationen. Reaktion in Eile führt zum starren Festhalten an falschen Maßnahmen und der damit verbunden Probleme. Wenn wir auf Covid-19 blicken, dann ist die wirkliche Bedrohung nicht die Krankheit; es ist, wie wir auf aufkommende Informationen reagieren.

Im englischen Originmaltext:

„The coronavirus outbreak has involved powerful emotions and strong impulses for taking action. Despite evidence pointing to the contrary, many want to stay in lockdown. Relying too heavily on the first piece of information we come across is a bad idea. We all need to be aware of the fact that we have this anchoring tendency. The solution involves slowing your decision-making processes, seeking additional viewpoints and information. Reacting in haste acts to underpin anchoring and its associated problems. When it comes to Covid-19, the real threat is not the disease; it’s how we react to the emerging information.“

Wer Englisch versteht, sollte seinen Spectator-Beitrag unbedingt in Gänze lesen. Kluge Stimmen in dieser Zeit des Irrsinns zu vernehmen, tut einfach gut.

Aktueller Nachtrag 10.08.2020/9Uhr

Folgender Brief erreichte mich aktuell als E-Mail über den Verteiler der Ärzte für eine individuelle Impfentscheidung. Der Brief wurde verfasst von Prof. Christof Kuhbandner, Inhaber des Lehrstuhls für Pädagogische Psychologie VI. der Uni Regensburg

Liebe Alle,

Sie haben es sicher mitbekommen: Das RKI ist aktuell mit der Message in den Medien unterwegs, dass aktuell die Reproduktionszahl R wieder steigen würde, was laut RKI an den bundesweiten Lockerungsmaßnahmen liegen würde (z.B.hier).

Das ist – man muss es in meinen Augen so sagen – eine unfassbare Irreführung des Bürgers.

Am 6. Mai wurden vom RKI ja die Richtlinien geändert, wer getestet werden soll. Von da an werden alle Personen mit respiratorischen Symptomen jeder Schwere getestet (Siehe hier), unabhängig davon, ob es irgendwelche zusätzlichen Risikofaktoren gibt (letzteres ist die Änderung, vorher musste eine Person zusätzlich zu Symptomen Risikofaktoren aufweisen).

Zudem wird inzwischen zunehmend in der Breite völlig unabhängig von Symptomen getestet, wie die Medienberichte zu Testungen im Bereich des Fußballs  und im Bereich der Schlachthöfe zeigen – hier lässt beispielsweise Schleswig-Holstein die Belegschaften aller großen Betriebe im Land testen.

Durch die damit verbundene deutliche Ausweitung der Tests – in den Wochen davor wurden ja bis zu 60% der vorhandenen Testkapazitäten nicht genutzt  – werden natürlich deutlich mehr Infektionen entdeckt. Deswegen haben sich aber nicht mehr Personen als vorher angesteckt, sondern die erhöhte absolute Anzahl an gefundenen Infektionen spiegelt nur die Ausweitung der Tests wider.

Deswegen ist es absolut irreführend, wenn das RKI hier von einem „gestiegenen R“ spricht. In Wirklichkeit spiegelt das gestiegene R nur die Ausweitung der Tests wieder.

Frappierender Weise ist das dem RKI durchaus bewusst. So schreiben die Autoren des Fachartikels zum Nowcasting-Modell vom RKI, auf dem die Schätzung des R beruht, in ihrem Fachartikel im Epidemiologischen Bulletin:

„Ein weiterer Aspekt ist aber auch, dass in Deutschland die Testkapazitäten deutlich er­höht worden sind und durch stärkeres Testen ein insgesamt größerer Teil der Infektionen sichtbar wird. Dieser strukturelle Effekt und der dadurch be­dingte Anstieg der Meldezahlen, kann dazu führen, dass der aktuelle R-Wert das reale Geschehen etwas überschätzt.“ (Das Wort „etwas“ ist hier allerdings etwas untertrieben!).

Es ist ein echter Skandal, dass das RKI nach wie vor bei der Schätzung der Reproduktionszahl R den Faktor der Testanzahl nicht berücksichtigt. Denn dann würde man nicht nur sehen, dass das R in Wirklichkeit im März kaum gestiegen ist, sondern auch, dass das R aktuell in Wirklichkeit weiter sinkt.

Meiner Meinung nach müsste man diese Punkte so breit wie möglich und sobald wie möglich in die Öffentlichkeit tragen. Deswegen wäre meine Bitte an Sie, dass Sie all Ihre Kontakte nutzen, um das in den Medien richtigzustellen. Ich habe bereits all meinen Medienkontakten entsprechend geschrieben.

Herzliche Grüße

Christof Kuhbandner

Prof. Christof Kuhbandner,  Inhaber des Lehrstuhls für Pädagogische Psychologie VI. der Uni Regensburg

Zuerst erschienen bei ACHGUT hier




Die „Zweite Welle“: Kompetenzfrei und rein alarmistisch

Bei inzwischen fast 600.000 Test wöchentlich stieg der prozentuale Anteil der positiv Getesteten von 0,6 auf 1 Prozent an (Epidemiologisches Bulletin Seite 31). Daraus wird die „zweite Welle“ konstruiert, während es gute Argumente dafür gibt, dies als normale Schwankungsbreite vor allem falsch positiver Ergebnisse eines immer noch nicht ordnungsgemäß überprüften Tests anzusehen (Stichwort niedrige Prävalenz). Nach wie vor wird irreführend dabei von Infizierten gesprochen.

Alle Voraussagen zu einer echten Welle aufgrund der Massendemonstrationen sind nicht eingetroffen. Wäre das Virus tatsächlich so infektiös und die Bevölkerung ohne Immunschutz, müssten ganz andere Zahlen auffallen. Die wirklich relevante Information ist jedoch, wer krank wird. Zumindest gibt es die Zahl der intensivmedizinisch behandelten Covid-Patienten.

Eine fachkundiger Leser gab mir den Hinweis, dass diese deutschlandweit kontinuierlich von 3.000 im April auf derzeit 229 abgesunkenist (Stand 07.08.2020). Leider werden das Durchschnittsalter und die Grunderkrankungen nicht mittgeteilt. Wer hier von gesellschaftlicher Bedrohung spricht, tut dies kompetenzfrei und rein alarmistisch.

Der Beitrag erschien zuerst bei ACHGUT hier

Mehr Informationen zum Thema hier

daraus:

Prof. Dr. Ulrike Kämmerer, Virologin und Immunologin:

PCR-Test ist wie»Kaffeesatzlesen«




Letalitätsrate und Mortalität in Deutschland und ausgewählten europäischen Ländern  

Es gab zwar die üblichen Verdächtigen wie etwa den SPD-Gesundheitsexperten Karl Lauterbach oder den Berliner Virologen Christian Drosten oder auch das Robert KochInstitut ( RKI ), die mit ihren Warnungen  die Angst in der Bevölkerung am Köcheln zu halten versuchten– was möglicherweise auch der Gesichtswahrung  der die Coronanotstandsmaßnahmen zu verantwortenden exekutiven Staatsspitze zu dienen bestimmt war.

Dies konnte aber zwanglos als alarmistisches „busines as usual“ verstanden werden, bis am 25 Juli über die Medien prominent verbreitet wurde, dass Sachsens MP Michael Kretschmer der Meinung sei, dass die „zweite Welle“ nicht etwa erst drohe, sondern in Deutschland schon da sei. Der MP berief sich auf  zwei Tage hintereinander von 500 auf etwa 800 gestiegene Fallzahlen. Der Vorfall zeigt exemplarisch die falsche Fokussierung der Politik auf  die Fallzahlen des Virus statt auf seine Letalität.

Für die Einschätzung der Gefährlichkeit eines Virus ist in erster Linie seine Letalität entscheidend, nicht seine Infektiösität. Das Coronavirus hat eine relativ hohe Infektiösität, aber, wie noch zu zeigen sein wird, eine eher geringe Letalität. Zum anderen zeigt der Vorfall die Unkenntnis verantwortlicher Politiker  über die  epidemiologischen „basics“. Eine „zweite“ Welle sollte ja zumindest annähernd die Durchschlagskraft der ersten Welle haben. Die hatte in ihrer Spitze im März 2020 7000 neue Positivtestungen  täglich. Zur Zeit von Kretschmers  Äußerung waren die Fallzahlen gerade einmal um 300  ( von 500 auf 800 ) gestiegen, und nur an zwei Tagen hintereinander .Man kann den Eindruck gewinnen, dass ein politisch eher blasser MP auch einmal die Schlagzeilen bestimmen wollte. Und das funktioniert gegenwärtig am besten auf der Schiene des Coronaalarmismus.  Dann wird sich Kretschmer  kaum über den  einen Tag später gemeldeten Rückgang der Neudiagnosen auf 305 gefreut haben, Ende Juli / Anfang August betrug die 7-Tage-Durchschnittszahl 680 Neudiagnosen. Eine „zweite Welle“ sieht anders aus, da müssten die täglichen Positivtestungen  in die Tausende gehen.

Dies hielt das  RKI nicht davon ab, drei Tage nach der Alarmmeldung Kretschmers eine Pressekonferenz  zu geben und das zu tun, was es am Besten kann: zu warnen. Die Gefahr einer zweiten schweren Welle bestehe weiterhin. Das Infektionsgeschehen habe sich landesweit ausgeweitet, noch handele es sich zwar um „kleinere Ausbrüche“. Aber: „Die Pandemie ist nicht vorbei“ hieß es drohend.. Das RKI sollte aufpassen, dass es seine Glaubwürdigkeit nicht verliert. Nicht alle Fernsehschauer haben vergessen, dass die Fallzahlen zur Hochzeit der Epidemie in Deutschland im März grosso modo zehnmal höher als gegenwärtig waren.

Wo das RKI  warnt, darf der bayrische MP Söder nicht fehlen. Am 2. August warnte er vor einer zweiten „schweren“ Welle, ausgelöst durch die zurückkehrenden Urlauber. Söder ist ein weiteres Beispiel für die sachwidrige  Fixierung der Politik auf die Infektionszahlen unter systematischer Ignorierung der Letalitätsrate desVirus. Nur letztere drückt die Gefährlichkeit des Virus aus, und sie ist relativ niedrig ( s. unten unter 2.).

Bei den übertriebenen Warnungen von Seiten der Politik und RKI  kann man den Eindruck gewinnen, dass dahinter die geheime Hoffnung steht, das  Virus durch geeignete Maßnahmen zum Verschwinden zu bringen. Dies ist eine vergebliche Hoffnung. SARS-CoV-2 wird sich den bereits vorhandenen vier Typen von Coronaviren hinzu gesellen, die zum Teil seit Jahrhunderten hierzulande aktiv sind. Wir müssen daher lernen, mit SARS-CoV-2 zu leben, was angesichts seiner begrenzten Gefährlichkeit auch ohne weiteres möglich sein sollte.

  1. Auch die als große politische Show inszenierte Vorstellung der neuen Corona-Warn-App hat als Hauptfunktion die Aufrechterhaltung der Corona-Alarmstimmung in der Bevölkerung. Die verbliebenen erheblichen Einschränkungen des öffentlichen Lebens wie die Maskenpflicht beim Einkaufen und in den öffentlichen Verkehrsmitteln, das 2-m-Abstandsgebot zwischen den Restauranttischen sowie das Verbot von Großveranstaltungen u.a. verlangen die Aufrechterhaltung der Massenloyalität der Bevölkerung. Dass diese Strategie freilich an Grenzen stößt, zeigt die Zurückhaltung, mit der die Bevölkerung die Warn-App aufgenommen hat: Nur 16 Mio. Menschen hatten sie bis Ende Juli heruntergeladen, weit hinter dem angestrebten Zielwert. Die zwischenzeitlich aufgetretenen technischen Störungen waren und sind sicherlich nicht dazu angetan, die Attraktivität der App zu steigern.
  2. Die 7-Tage-Durchschnittszahl der positiv Getesteten lagim Juli um die 600.  Gegenwärtig werden etwa 500 000 Tests pro Woche vorgenommen, wobei das Testverfahren nicht validiert ist. Bei einem Testfehler von nur 1 %  bei „falsch positiv“ wären das 5000 Fehler pro Woche oder etwa 700 pro Tag –  deutlich mehr als die Zahl der  durchschnittlich 600 täglich neu positiv Getesteten im Juli. Es könnte also sein, dass es  im Juli überhaupt keine  tatsächlich neu Infizierten mehr gab.
  3. Im Juni war es zu einigen „super spreading events“ indeutschen Schlachthöfen gekommen,  die von den Medien dann auch geradezu mit Dankbarkeit aufgenommen wurden, die aber lokale Ereignisse blieben. Von den ca` 1500 positiv auf Corona Getesteten des Schlachtbetriebs Tönnies in NRW mussten 9 auf die Intensivstation, 2 wurden beatmet, ein Todesfall ist nicht eingetreten. Die 9 Intensivkranken stellen eine sehr niedrige Rate von weit unter 1 % dar, die in Verbindung mit der Letalitätsrate von 0 % ebenfalls bestätigt, dass SARS-CoV-2 ein zwar ernst zu nehmendes, aber insgesamt doch eher harmloses Virus ist. Derartige auf der Hand liegende, der Corona-Entwarnung dienende Schlussfolgerungen interessieren freilich die deutschen Medien nicht ( und anscheinend auch das RKI nicht ), ihr alarmistischer Blick wendet sich dann lieber den USA, Brasilien oder Indien mit ihren steigenden Infektionszahlen zu. Die deutschen Medien scheinen nicht zu merken, dass ihr beibehaltener Panikmodus dem ersehnten Anspringen der Konjunktur hierzulande abträglich sein könnte. Da wäre vielleicht einmal ein sanfter Hinweis vom Bundeskanzleramt an die beflissenen Medien sinnvoll.

Die  Tönnies-Zahlen sind dazu angetan, einer „zweiten“ Infektionswelle den Schrecken zu nehmen. Auf 1500 Infizierte kamen 9 Intensivkranke, zwei Beatmungsfälle und 0 Tote. Übertragen auf eine neue Welle mit beispielsweise 90 000 neu Infizierten bedeutet das eine Versechsigfachung der Zahlen, also 540 Intensivfälle, 120  Beatmungsfälle und weiterhin 0 Tote. Dieses durchaus realistische Rechenexempel nimmt einer imaginierten neuen Infektionswelle in der Tat den Schrecken. Dies ist auch der Grund dafür, dass ein solches nie in den deutschen Medien angestellt wurde.

  1. Mitte Juli machte im Internet die Nachricht die Runde, dass die FAZ den Abdruck einerCorona-Anzeige der Professoren Bhakdi, Homburg u.a. verweigert hat, in der die Shutdown-Politik der Bundesregierung und der MP der Länder mit wissenschaftlichen Argumenten scharf zurückgewiesen wurde. Das in Art. 5 Abs. 1 GG garantierte Recht, „seine Meinung … frei zu äußern und zu verbreiten“, gehört laut BVerfG zu den „vornehmsten Menschenrechten überhaupt“ und ist für ein freiheitliches, demokratisches Gemeinwesen konstituierend. In Art. 5 Abs. 1 GG heißt es dann noch kurz und bündig: „Eine Zensur findet nicht statt“. Die von der FAZ ausgeübte Zensur widerspricht darüber hinaus  der in Richtlinie 1 des deutschen Pressekodex statuierten Verpflichtung zu „wahrhaftiger Unterrichtung der Öffentlichkeit“, und stellt auch die historische Ausgangslage auf den Kopf, in der im 19. Jahrhundert das liberale Bürgertum Meinungs- und Pressefreiheit gegen den Obrigkeitsstaat durchgesetzt hat. In der BRD hat der „Strukturwandel der Öffentlichkeit“ ( Jürgen Habermas ) nun eine neue Form angenommen, in der die Presse und die öffentlich-rechtlichen Rundfunk-und Fernsehanstalten zumindest auf  zwei zentralen Politikfeldern, nämlich bei der Corona-Politik und bei der Klimapolitik, in einer unheiligen Allianz mit der staatlichen Politik die Kritik von Seiten nonkonformistischer  gesellschaftlicher Akteure abzuwehren versuchen. Es hat sich ein politisch-medialer Komplex herausgebildet, der sich hermetisch gegen oppositionelle Einflüsse von außen abschließt. Mit dem Internet ist glücklicherweise weltweit ein neues Medium entstanden, welches den eingetretenen Demokratieverlust zu einem Teil kompensieren kann – zumindest bislang.

Um noch einmal auf die FAZ zurückzukommen. Gemäß der in Richtlinie 1 des deutschen Pressekodex niedergelegten Verpflichtung zu einer „wahrhaftigen Unterrichtung der Öffentlichkeit“ hätte die FAZ nicht nur die privat bezahlte Anzeige bringen, sondern sogar über deren wesentlichen Inhalt im redaktionellen Teil kostenlos berichten müssen.

  1. Während der großen Verhandlungen zwischen den 27 Regierungschefs der EU vom 18. bis 21. Juli 2020 über den künftigen Haushalt der EU und den Corona-Hilfsfonds wurden Polen und Ungarn unter dem Aspekt der Rechtsstaatlichkeit von Politik und Öffentlichkeit in Deutschland zum Teil heftig kritisiert. Diese Kritik ist überaus scheinheilig, wenn man bedenkt, mit welcher Bedenkenlosigkeit gerade auch die deutsche Politik vor kurzem ohne ausreichende Faktenevidenz die Grundrechte einer ganzen Nation außer Kraft gesetzt hat (vgl. näher Nahamowitz 2020). Die Grundrechte sind unbestritten die Basis der Rechtsstaatlichkeit. eines jeden Landes. Nimmt man die offenkundigenDemokratiedefizite hinzu, welche ich unter Punkt 5. angesprochen habe, kann einem um Demokratie und Rechtsstaat in Deutschland (und der EU) Angst und Bange werden.
  2. Am 1. August fand eine große Demonstration von Coronakritikern mit 20 000 Teilnehmern in Berlin statt, meistenteils ohne Masken und Abstandswahrung. Dahinter steht eine hervorragende Organisationsleistung, die freilich die Frage beantworten muss, wie zukünftig verhindert werden kann, dass die Polizei die Demonstration wegen Verletzung der Corona-Regeln auflöst. Wie zu erwarten, stieß die Demonstration auf „Unverständnis“, jedenfalls bei den Vertretern der vier Corona-Parteien. Der Berliner OB Müller warf den Demonstranten im Nachgang vor, sie würden die Fakten der möglichen Gesundheitsgefährdung der Mitbürger ignorieren. Dieses Statement zeigt wieder einmal die Ahnungslosigkeit und zugleich .einseitige Orientierung der deutschen MP..

Die Maskenpflicht ist sinnlos, weil die Poren der normalen Stoffmasken doppelt so groß sind wie das Virus selbst. Es kann daher ungehindert die Maske durchdringen ( Reiss, Bhakdi 2020. 70 ). Diese Einsicht war übrigens zu Beginn des Auftretens von Corona bei Wissenschaft und Politik allgemein verbreitet. Der Berliner Virologe Christian Drosten, regelmäßiger Wortführer der Corona-Alarmisten, äußerte sich im Februar dahingehend, dass die „technischen Daten nicht günstig für die Masken“ seien. Ähnlich äußerte sich das RKI. Und der bayrische MP Söder stellte sehr entschieden mit all seiner schlitzohrigen Unbedarftheit die vollkommene Ungeeignetheit der Masken fest. Es lässt sich nur spekulieren, was den Gesinnungswandel bei der Politik ausgelöst hat. Ich bevorzuge die These, dass die Beibehaltung der Maskenpflicht der Aufrechterhaltung der Alarmstimmung in der Bevölkerung dient. Sehr viel bösartiger ist die alternative These, dass die Politik einmal ausprobieren möchte, wie weit sie mit Gehirnwäsche  bei der Bevölkerung kommen kann.

Und was die Faktenkenntnis weiter angeht, zeigt Müllers Bemerkung, dass ihm jedes Wissen darüber fehlt, dass die sog. Corona-Krise bisher keinerlei Auswirkungen auf die Sterblichkeit in Deutschland gezeigt hat. Darauf wird zurückzukommen sein ( vgl unten unter 3.).

Einseitig ist die Kritik des Berliner OB an den Demonstranten, weil seine Polizei ansonsten sich sehr großzügig bei den Freizeitaktivitäten der Berliner Bevölkerung gezeigt hat, was die Befolgung der Corona-Regeln angeht. Hier scheint mir ein klarer Verstoß gegen den Gleichheitssatz vorzuliegen.

Ich möchte im folgenden zwei Problemkreise vertieft erörtern: Wie hoch ist die Letalitätsrate des SARS-CoV-2-Virus in Deutschland ? Und wie hoch ist die Mortalität in Deutschland und ausgewählten europäischen Ländern ?

  1. Wie hoch ist die Letalitätsrate des SARS-CoV-2Virus in Deutschland:0,37 % oder 4,7 %?

Ich hatte in meinem Artikel „Sechs kurze Begründungen für die Verfassungswidrigkeit des Shutdown In Deutschland“ eine Rechnung aufgemacht, nach der Mitte Mai 2020 bei den damals 170 000 positiv Getesteten die Zahl der „echten“ Coronatoten unter 100 lag ( Nahamowitz 2020 ). Dieses sensationell niedrige Ergebnis beruhte zum einen auf einem Forschungsergebnis des Bonner Virologen Prof . Hendrik Streeck, zum anderen auf Angaben von Prof. Sucharit Bhakdi, der sich auf eine amtliche Zählung des italienischen Gesundheitsinstituts berief.

Eine in der nordrhein-westfälischen Gemeinde Gangelt im Kreis Heinsberg vom Bonner Virologen Prof. Streeck Anfang April 2020 erhobene repräsentative Stichprobe mit 1000 Probanden hatte als ein wichtiges Ergebnis eine Letalitätsrate von 0, 37 %  erbracht ( mit einer Fehlermarge  von 0,19 % – 0,45 % ). Das würde 370 Tote auf 100 000 positiv Getestete und 740 Tote auf 200 000 positiv Getestete bedeuten, was ausgesprochen wenig ist.  Diese Zahlen konfligieren freilich massiv mit der vom RKI vorgenommenen Zählweise, nach der im Mai  2020 durchschnittlich  auf insgesamt 170 000 „Infizierte“ rund 8000 Tote kamen, was einer Letalitätsrate von  grob 4,7 % entspricht  – ungefähr das Zwölffache der Heinsbergrate.

In den zahlreichen Interviews, die Streeck in den letzten Monaten gegeben hat, wurde diese Differenz von den Moderatoren mit der Ausnahme  von Markus Lanz seltsamerweise nie thematisiert. Ich vermute bei den öffentlich-rechtlichen TV-Anstalten, dass dies mit Bedacht erfolgte, birgt diese Differenz doch gewaltigen Sprengstoff für die offizielle Corona-Politik. Denn die Heinsbergstudie war methodisch schulmäßig als repräsentative Zufallsstichprobe durchgeführt worden, woraus grundsätzlich die Übertragbarkeit ihrer Ergebnisse auf ganz Deutschland folgt. Wie aber sollte die Politik die Fortführung der Coronarestriktionen durch den formellen Beschluss der Bundesregierung  und der MP der Länder am 15. April angesichts einer derart niedrigen Letalitätsrate rechtfertigen? Offenbar entschloss man sich, das Heinsbergergebnis komplett zu ignorieren, das gilt besonders für den MP von NRW Armin Laschet, der bei der Vorstellung der Heinsbergergebnisse auf der Pressekonferenz Anfang April sogar persönlich anwesend gewesen war.

Das Totschweigen der Differenz zwischen der Letalitätsrate der Heinsbergstudie und der des RKI wurde meines Wissens erst Ende Mai beendet, und zwar bezeichnenderweise wieder bei Markus Lanz. Auffällig war das letztlich defensive  Verhalten von Streeck. Er insistierte zwar auf der Letalitätsrate von 0, 37 %, äußerte sich aber auf die  Frage der Vorsitzenden der Europäischen Ethikkommission Prof. Christiane Woopen, die explizit auf die Differenz zur Letalitätsrate des RKI von 4, 7% verwies, dahin gehend, dass man nicht wisse, ob und wie die 0, 37 %  für ganz Deutschland gelten. Zu keinem Moment berief er sich offensiv auf die Repräsentativität seiner Studie oder stellte Erwägungen über die Sinnhaftigkeit des Shutdown an. Immerhin ließ er sich zu der Bemerkung hinreißen, dass in China zu Beginn der Pandemie die Krankheitsverläufe zu 91 % mild bis moderat gewesen seien, woraus schon damals gefolgt sei, dass das Corona-Virus zwar „ernstzunehmen“, aber nicht zu „überdramatisieren“ sei. Die Frage, unter welche Alternative der von der Politik verordnete Shutdown zu subsumieren sei, wurde weder von ihm noch von der Talkrunde gestellt. Gleichwohl kann die Bemerkung als versteckte Kritik an einer überdramatisiernden Shutdown-Politik verstanden werden, welche die elementaren verfassungsrechtlichen Gebote der Verhältnismäßigkeit eklatant verletzte ( Nahamowitz 2020 ). In einer nachfolgenden Sitzung bei Markus Lanz am 1. Juli 2020 nahm Streeck seiner Position dann jeden Stachel, indem er die Politik des Shutdown ausdrücklich gut hieß.

Ich habe die Vorfälle um den Virologen Streeck aus zwei Gründen so ausführlich dargestellt. Einmal zeigen sie den Druck, der auf einem  etablierten und zugleich innovativen Wissenschaftler in Deutschland lastet, der zu einem nicht politikkonformen  Forschungsergebnis  gekommen war. Zur Gewährleistung seines künftigen seelischen Wohlbefindens ( es gab gegen ihn Strafanzeigen und Morddrohungen ) und sicher auch um seine berufliche Position als Direktor derVirologie der Bonner Universitätsklinik nicht zu gefährden, wurden seine öffentlichen Äußerungen immer defensiver, um schließlich in der Apologie der Shutdown-Politik zu enden.

Dieses alles in allem defensive bis apologetische Verhalten macht den Unterschied zu prominenten kritischen Wissenschaftlern wie Prof. Sucharit Bhakdi und Prof. Stefan Homburg aus, die ihre Ablehnung der Coronapolitik präzise begründen und  unverhohlen äußern ( vgl. näher Nahamowitz, ebd. ). Als Reaktion werden sie von den öffentlich-rechtlichen Sendern geschnitten – ein implizites, aber weit hallendes Eingeständnis der eigenen argumentativen Schwäche. Aufgrund derartiger Parteilichkeiten nennt der alternative Arzt Rüdiger Dahlke  die öffentlich-rechtlichen Sender die öffentlich-unrechtlichen.Den beiden Wissenschaftlern bleibt nur, aber immerhin, das Internet, wo sie äußerst erfolgreich agieren. Bhakdis „Offener Brief an die Bundeskanzlerin“ von Ende März z.B. hat über zwei Mio. Aufrufe ausgelöst.

Unter demokratietheoretischem, aber auch unter verfassungsrechtlichem Aspekt ( vgl. die Verfassungsdirektive des „demokratischen“ Bundesstaats in Art. 20 Abs. 1 GG ) ist es nicht akzeptabel, dass die aus Gebühren finanzierten Sender ARD und ZDF unter Missachtung ihres öffentlich-rechtlichen  Auftrags in bestimmten Pölitikbereichen zu Regierungssendern verkommen, die  systematisch verhindern, dass oppositionelle Stimmen aus der Gesellschaft zu Wort kommen. Dass dahinter System und wahrscheinlich eine lenkende Hand stecken, erkennt man daran, mit welcher Konsequenz die Strategie der Diskussionsverweigerung von allen Moderatoren durchgehalten wird. Betroffen ist neben der Corona-Politik. wie schon gesagt, vor allem die Klimapolitik. Der öffentlich-unrechtliche Gleichklang geht bis zur einheitlichen Sprachregelung in den Sendungen, vor kurzem z. B. die durchgängige Behauptung, die Anticoronademonstranten der vergangenen Monate  würden von  „Verschwörungstheoretikern“ und „Rechtsextremen“ instrumentalisiert.

Ich komme zurück zu meiner Berechnung der Coronasterblichkeit und und unterstreiche, dass ich an der Heinsberger Letalitätsrate von 0, 37 %  festhalte. Damit befinde ich mich in Übereinstimmung mit der internationalen Studienlage, welche die Letalität von SARS-CoV-2 im Ergebnis mit der einer mittelschweren Grippe vergleicht ( vgl. unten ). Streeck selbst hatte in einem Interview angegeben, dass er zur Sicherung der Repräsentativität der Studie sich eines professionellen Meinungsforschungsinstituts bedient hatte.

Da aber offensichtlich gegenwärtig der Graben zu der 4, 7 % – Letalitätsrate des RKI nicht überzeugend überbrückt werden kann, möchte ich in einer Alternativrechnung die Zahlen des RKI zugrunde legen. Ich gehe dann für Mitte Mai von 8000 „Coronatoten“ in Deutschland aus. Aber auch diese Zahl muss sich, wobei ich  Angaben  Sucharit Bhakdis folge, gemäß einer amtlichen italienischen Rechnung reduzieren lassen auf nur noch 12 %, d.h. 960 echte, wirklich „an“ Covit-19 Verstorbene ( vgl. Nahamowitz 2020 ).. Ich habe keinen Grund, an der Seriosität der italienischen Rechnung zu zweifeln, nach der 88 % der „Coronatoten“, nicht „an“, sondern nur „mit“ Corona  verstorben sind . Diese Zahlen hat Bhakdi nun in seinem, mit seiner Frau verfassten Bestseller  bestätigt ( Reiss, Bhakdi 2020,27 f ).

960 „echte“ Coronatote bis Mitte Mai in Deutschland sind grob das Zehnfache meiner ursprünglichen Zahl von „unter 100“. Die Schlussfolgerung aber bleibt dieselbe: Angesichts der immer noch äußerst niedrigen, die Aufnahmekapazität des deutschen Krankenhaussystems weit unterschreitenden Opferzahl ist evident, dass die deutsche Coronapolitik – auch in Anbetracht ihrer immensen sozialen, psychischen und finanziellen Kosten auf allen Ebenen der  Gesellschaft – „außerhalb jeder Erforderlichkeit liegt und auch jede Form von Zweck/Mittelproportionalität sprengt und damit verfassungswidrig ist“ ( Nahamowitz ebd. ). Oder anders ausgedrückt: SARS-CoV-2 ist ein zwar relativ infektiöses, aber eher harmloses Virus, vergleichbar in seiner Gefährlichkeit mit einem leicht bis mittel gefährlichen Grippevirus.

Die Heinsberger Letalitätsrate von 0,37 % ( einschließlich der Fehlermarge von 0,19 % – 0,45 % ) bewegt sich  in etwa  auf dem Niveau der Letalitätsraten zwischen 0, 02 %  und 0 4 %, welches Prof. Joannidis nach einer Auswertung von 12 Studien gefunden hat. Die Unterschiede beruhen auf lokalen, regionalen und auch nationalen Besonderheiten wie Altersstruktur, Zählweise, allgemeiner Gesundheitszustand, Qualität der Krankenhäuser u.a.  Zahlreiche andere Studien kommen zu ähnlichen Ergebnissen ( vgl. den Überblick bei Reiss, Bhakdi 2020, 33 f ). Einen gewissen, aber nicht signifikanten Ausreißer nach oben stellt die  französische Corona-Studie mit einer Letalitätsrate von 1,3 % dar ( Roussel et al. 2020 ).

Der Grund für die relative Einheitlichkeit der Ergebnisse liegt in dem elementaren Umstand begründet, dass SARSE-CoV-2 ein auf der ganzen Welt identisches Virus ist. Deswegen ist die Letalität des Virus „als solche“ ( d.h. unabhängig von seiner physischen und sozialen Umgebung ) auf der ganzen Welt, solange es nicht  mutiert ist, gleich.

Zum Abschluss der Thematik sei tentativ eine Vermutung geäußert, wie der Widerspruch zwischen der Heinsberger Letalitätsrate  und der des RKI epidemiologisch überbrückt werden kann. Dabei gehe ich von einer hohen Dunkelziffer in Deutschland bei den Infektionen im Verhältnis von 1 zu 10 aus ( Reiss, Bhakdi 2020, 33 ). Das bedeutet, dass wir im Mai 2020 nicht 170 000, sondern 1700 000 Infizierte in Deutschland hatten. Die Dunkelziffer umfasste dann entweder asymptomatische oder so mild infizierte Menschen, dass sie sich nicht haben testen lassen In diesem Fall würde sich die Letalitätsrate von 4, 7 % in 0, 47 % umwandeln, eine Rate, die nahe  bei der Heinsberger Rate von 0, 37 % liegt.

  1. Wie hoch ist die Mortalität in Deutschland und ausgewählten europäischen Ländern?

Ich möchte im folgenden anhand der vom European Mortality Monitoring Project ( Euromomo ) gelieferten Statistiken, welche die Sterbedaten von 24 europäischen Ländern von 2015 bis zum aktuellen Rand erfassen, die Mortalität in Deutschland und einigen europäischen Ländern darstellen.

Wir beginnen als gesamteuropäischer Überblick mit den Sterbefällen aller 24 an Euromomo  beteiligten Länder und zwar für alle Altersklassen. Die  blaue Kurve zeigt für das Jahr 2020 den steilen, in der KW 8 ( 17. 2. bis 23. 2 2020 ) beginnenden Anstieg, der in den Peak der KW 14 ( 30. 3. bis 5. 4. 2020 ) mündet. Dieser überragt die vorhergehenden Grippepeaks der Winter 2017, 2018 und 2019 deutlich und löst die kurze vorhergehende Kurve der Grippemortalität ab. Am aktuellen Rand zeigt die Kurve, dass auf gesamteuropäischer Ebene die Epidemie überwunden ist : Die Zahl der Todesfälle ist nach einem steilen Abstieg auf die dunkle Basislinie.zurückgefallen.

Die deutsche Mortalitätskurve des Jahres 2020 ist im Gegensatz zur gesamteuropäischen Kurve flach mit  nur kleinen Erhebungen. Würde man einen Besucher vom Mars fragen, in welchem Jahr die große Corona-Epidemie in Deutschland stattgefunden hat, würde er wahrscheinlich auf die Kurve des Jahres 2018 zeigen, als des Jahres mit zwei größeren Erhebungen im Winter und Sommer, welche recht deutlich über die rote Linie ( substantial increase ) hinausgehen. In Wahrheit sind damit aber die winterliche Grippetoten einerseits und  die sommerlichen Hitzetoten des Jahres 2018 andererseits bezeichnet. Sodann würde der Blick des Marsbewohners wahrscheinlich auf das Jahr 2017 fallen, aber auch diesmal würde er enttäuscht werden, denn die Erhebung zeigt wieder nur eine Grippewelle.

Die Corona-Krise zeigt sich nicht in der deutschen Sterbestatistik, sie erscheint als  rein fiktives Phänomen, welches erst durch eine panische Politik zu einer gesamtgesellschaftlichen Krise mit all ihren negativen ökonomischen, sozialen und rechtlichen  Begleiterscheinungen geworden ist.. Die Kurve zeigt weder vor noch in einem relevanten Zeitraum nach den Shutdownbeschlüssen vom 23. März und 15. April eine deutliche Zunahme der Sterblichkeit. Am aktuellen Rand ist sie sogar unter die Basislinie und damit in den Minusbereich gefallen. Meinen „Sechs kurzen Begründungen für die Verfassungswidrigkeit des Shutdown in Deutschland“ (Nahamowitz 2020) gesellt sich das Mortalitätsargument als siebte Begründung hinzu.

An die Bundesregierung wäre in einem Verfahren gerichtlicher oder politischer Überprüfung, zu dem es hoffentlich kommen wird, die Frage zu stellen, aufgrund welcher Erwägungen die Shutdown- Beschlüsse eigentlich getroffen worden sind. Ein sachlicher Grund für die  politischen Notstandsmaßnahmen lässt sich der Sterbestatistik des Jahres 2020 jedenfalls nicht entnehmen.

Der Euromomo-Befund der quantitativen Bedeutungslosigkeit der Coronasterbefälle deckt sich mit den Ergebnissen des weltweit anerkannten Statistikers John Joannidis, der für Deutschland für Anfang April innerhalb der Hochrisikogruppe der Jahrgänge achtzig und älter unter 10 000 Personen auf die minimale Zahl von zwei Corona-Toten gekommen war. Auch wenn Bhakdi diese Zahl für Ende April auf acht ( unter 10 000 ! ) erhöhte, ändert dies nichts an der marginalen Bedeutung der Corona-Todesfälle in Deutschland ( vgl.Nahamowitz 2020 ). Diese Zahlen hat Bhakdi in seinem aktuellen Buch auch für Mitte Mai bestätigt ( Reiss, Bhakdi 2020, 29 ). Die geringfügige Corona-Mortalität passt gut zu der von Prof. Streeck festgestellten geringen Letalitätsrate des SARS-CoV-2-Virus.

In wie weit die politische Diskussion in Deutschland gerade auch durch die öffentlich-unrechtlichen TV-Sender manipuliert wird, lässt sich beispielhaft am Umgang der Satiresendung „Die Anstalt“ mit den beiden eben gezeigten Kurven demonstrieren. Die im Juni 2020 ausgestrahlte Sendung hatte Corona zum Thema und zeigte unter  Bezugnahme auf „Euromomo“ die gesamteuropäische Kurve mit ihrem steilen Anstieg, wobei der unkundige Zuschauer freilich zu dem Eindruck gelangen konnte bzw. sogar musste, dass dies die deutsche Kurve sei. Die wirkliche flache deutsche Kurve wurde verborgen gehalten. Schließlich ließ man es sich nicht nehmen, John Joannidis mithilfe einer unsäglichen Story um 1000 Dollar zu  diskreditieren.

Früher hatten die Hofnarren das Privileg, dem Herrscher gegenüber unangenehme Wahrheiten zu artikulieren, ohne ihren Kopf zu riskieren. Die modernen Satiriker als Nachfolger der Hofnarren dienen sich den Herrschenden mit Verve und Einfallsreichtum ganz von selbst an.

Wir werfen nun einen Blick auf die spanische und französische Kurve.

Die spanische und die französische Kurve unterscheiden sich von der deutschen durch den deutlichen Peak in der 14. KW ( Ende März / Anfang April ), wobei der spanische Gipfelpunkt sehr viel stärker ausgeprägt ist als der französische. In beiden Ländern setzt dann aber ein rascher Abstieg ein, der fast so dynamisch ist wie der Anstieg. In Frankreich ist der Abstieg deutlich unter die gestrichelte  Basislinie gegangen, in Spanien gibt es ganz aktuell wieder eine moderate Aufwärtsbewegung. M.E. Ist sie eine Reaktion auf die zuvor exekutierte scharfe und langandauernde Repressionspolitik nach ihrer Lockerung: Die aufgestaute Virenlast bricht sich ihre Bahn. Darin liegt das generelle Dilemma einer  scharfen Lockdown-Strategie begründet.

Die Mortalitätszahl ist in Frankreich deswegen so deutlich  in den Bereich der Untersterblichkeit abgesunken, weil der vorgehende starke Anstieg nahezu vollständig durch sterbenskranke Menschen verursacht worden war, für welche die Coronainfektion nur der  todbringende „letzte Tropfen“, der in ein  „randvolles Glas“ fällt ( Reiss, Bhakdi 2020, 36 ) gewesen war. Sie standen für die spätere Sterbestatistik dann nicht mehr zur Verfügung. Die Mortalitätsentwicklung bestätigt auch noch einmal die Plausibilität der italienischen offiziellen Statistik, wonach die überwältigende Mehrheit von 88 % der Corona-Toten nicht „an“, sondern nur „mit“ Corona verstorben ist. Dieses Ergebnis entspricht auch dem Befund, den der Hamburger Rechtsmediziner Prof. Püschel an über 200 obduzierten Toten erhoben hat ( vgl. Püschel 2020 ).

Die große Frage ist, warum die Sterblichkeit in beiden Ländern so viel höher war als in Deutschland? Der Unterschied zwischen Frankreich und Deutschland spiegelt sich übrigens auch in den unterschiedlich hohen Letalitätsraten beider Länder wider. Während gemäß der französischen Corona-Studie die französische Rate bei 1,3 % liegt ( Roussel et al. 2020 ), liegt sie gemäß der Heinsbergstudie bei 0, 37 %, das ist weniger als ein Drittel.

Entgegen allen falschen deutschen Erwartungen ist festzustellen, dass die Härte der Abwehrmaßnahmen in beiden Ländern deutlich größer war als hierzulande und diese auch eher eingesetzt hatten. Hier könnte aber ein Grund liegen für die deutsche, epidemiologisch nicht gebotene Panikreaktion am 23. März, dem Tag des shutdown. Im Gegensatz zu Schweden hat es Deutschland nicht vermocht, kühlen Kopf zu behalten und dem Nachahmungsdruck standzuhalten.

Als Grund für die höhere Sterblichkeit des hier nicht in den Graphiken dargestellten Italien im Vergleich zu Deutschland ( wobei die italienische Sterblichkeit übrigens niedriger war als die französische und spanische ) wurde mitunter auf die Luftverschmutzung im hoch industrialisierten Norditalien sowie auf das marode Krankenhaussystem verwiesen. Ersterer Grund trifft nicht für Frankreich und Spanien zu, wohl aber letzterer. Alle drei Südländer mussten sich in der Vergangenheit auf Druck der EU-Kommission harten Maßnahmen der Haushaltskonsolidierung mit den bekannten Folgen für die Sozialsysteme und auch das Gesundheitssystem unterziehen.

Eine derartige Rosskur ist Deutschland aufgrund seiner günstigeren wirtschaftlichen Entwicklung erspart geblieben, was dem Gesundheitssystem insgesamt und auch den Krankenhäusern hierzulande zu gute gekommen ist. Ich möchte aber neben dem funktionstüchtigeren Krankenhaussystem als weiteres Differenzierungsmerkmal zwischen Deutschland und den drei Südländern dieErnährung  anführen. Die von Politik, Schulmedizin und auch der öffentlichen Meinung systematisch unterschätzte Ernährung ist der Schlüssel für die Gesundheit  bis ins hohe Alter bzw. umgekehrt für vorzeitige Krankheit und Tod. Schädlich sind vor allem Zucker und Kohlenhydrate ( vgl.ausführlich  Perlmutter 2014 ). Beide Nahrungsmittel erzeugen u.a. Diabetes und seine Vorform Prädiabetes. Laut RKI  gehören Diabetiker ganz wesentlich zur Risikogruppe für schwere Verläufe bei Coronaerkrankungen. Kohlenhydrate konsumieren die Südländer – vor allem wegen ihrer extremen Vorliebe für Weißmehl – viel häufiger als die Deutschen. Das Baguette darf bei keinem französischen Gericht fehlen. In Spanien wird Weißbrot zu jeder Mahlzeit serviert. In Italien herrschen die drei P ( Pane, Pasta, Pizza ) über die Esstische. In den deutschen Privathaushalten hingegen wird üblicherweise kein Brot zum Essen gereicht. Die bei uns beliebten Kartoffeln sind zwar auch Kohlenhydrate, sie sind aber langkettig und daher nicht so gesundheitsschädlich.

Im Kontext Ernährung sei ein Hinweis auf die Fernsehsendung „Die Ernährungsdocs“ im 3. Programm des NDR gestattet, die auch bei schweren Erkrankungen erstaunliche Heilerfolge allein durch die Umstellung der Ernährung erzielen. Ein weiterer Hinweis bezieht sich auf Vitamin Din  hoher Konzentration ( mindestens 5000 I. E.) , welches neben seiner antidepressiven Wirkung eine starke, die Immunabwehr stimulierende Wirkung hat. Es ist sehr bezeichnend, dass die Corona abwehrenden Virologen und staatlichen Instanzen dieses preiswerte und wirksame Mittel der Naturheilkunde nicht publik machen.

Wir werfen abschließend noch einen Blick auf Schweden, das einzige europäische Land, welches bewusst auf die Notstandsmaßnahme des Shutdown verzichtet hatte.

Der Peak der Mortalität liegt in Schweden in KW 15 / 16  2020 und damit knapp zwei Wochen später als in Frankreich und Spanien. Der Abstieg vom Gipfel erfolgte relativ rasch, innerhalb von 6  Wochen wurde die rote Linie „substantial increase“ unterschritten. Der Vorgang ist Ausdruck der inhärenten zyklischen Dynamik einer Epidemie, welche immer ein zeitlich befristetes Ereignis darstellt ( Sucharit Bhakdi ). Der leichte Anstieg in KW 24 stellte deswegen auch nicht den Beginn einer „zweiten Welle“ dar, vielmehr  handelt es sich um einen „Ausrutscher“,  der immer mal passiert  und sogar im durchregulierten Spanien vorgekommen ist ( s. o. ). Die Dynamik des Ausrutschers in Schweden ist in KW 25/ 26 zum Erliegen gekommen.  In KW 27 ( 29. 6. bis 5. 7. ) hat es Schweden dann geschafft, in der Statistik „Map of z-scores by country“ in die unterste Stufe ( „no excess ) zu gelangen, nachdem es zuvor wochenlang in der Stufe darüber ( „low excess“ ) festgehalten worden war. Die Aufhebung der Reisewarnung für Schweden Mitte Juli durch die deutsche Regierung kann dann als Bestätigung dieser Einstufung gelten.

Entgegen vielen Unterstellungen, vor allem von deutscher Seite, ist die Sterberate in Schweden nicht außergewöhnlich hoch. Sie liegt deutlich niedriger als in Italien, Großbritannien, Polen, Spanien, Frankreich und Belgien, die alle einen Lockdown hatten. Im Vergleich  mit 13 europäischen Ländern mit Lockdown liegt Schweden nur ganz knapp  über dem Mittelwert der Sterberaten ( Reiss, Bhakdi 2020, 110 ).

Gegenwärtig  spricht viel dafür, dass die liberale, die Grundfreiheiten der Bürger schützende schwedische Corona-Strategie am Ende erfolgreich sein wird und ein tragfähiges Gegenmodell zum autoritären Notstandsmodell der Coronaabwehr verkörpern kann, wie es leider in Deutschland empiriefrei und mit verantwortungslosem Dezisionismus verfolgt worden ist. Allem Anschein nach war China mit seinen rigorosen Absperrmaßnahmen das Vorbild, ein Land, welches unter dem Aspekt der Menschenrechte ansonsten gerne von Deutschland kritisiert wird

Quellen:

Nahamowitz, Peter 2020: Sechs kurze Begründungen für die Verfassungswidrigkeit des Shutdown in Deutschland, Eike Publikation vom 17. 5.

Perlmutter, David  2014 : Dumm wie Brot, München ( 6. Auflage ).

Püschel, Klaus 2020: Youtube-Video, Interview vom 2. 4. 20.

Reiss, Karina, Bhakdi, Sucharit2020 : Corona Fehlalarm ?,  Berlin.

Roussel, Yanis et al. 2020 : SARS-CoV-2 : fear versus data, in :International Journal of Antimicrobial Agents, 19 March.

 

Der Autor war Prof. für öffentliches Wirtschafts- und Finanzrechr sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Universität Hannover und ist seit 2007 im Ruhestand.

 




Der VAE-Reaktor – ein Schlüsselprojekt

Die VAE haben sich bewusst zur ausschließlichen friedlichen Nutzung bekannt. Sie haben deshalb bewusst auf einen eigenen Brennstoffkreislauf vertraglich verzichtet: Keine Anreicherung von Uran und keinerlei Gewinnung von Plutonium, um „Verdachtsmomente“ einer militärischen Nutzung vollständig auszuschließen. Bezug von Brennstoff nur in der Form einsatzbereiter Brennelemente. So radikal hat sich bisher keine Nation positioniert. Extremes Gegenbeispiel ist der Nachbar auf der anderen Seite des Golfs. Im Mullah-Iran wird die Anreicherung von Uran und die Gewinnung von (waffengrädigem) Plutonium leichtgläubigen Europäern als notwendig für den Betrieb des Kernkraftwerks Busher verkauft.

Der Verzicht auf einen eigenen Brennstoffkreislauf hat einerseits enorme diplomatische Verwerfungen ausgelöst und andererseits interessante neuartige Ansätze erschaffen. So haben die USA größte Bauchschmerzen bei der Lieferung von Kernkraftwerken an Saudi-Arabien oder Indien. Indien ist bereits faktisch „Atommacht“. Saudi-Arabien ist nicht grundsätzlich bereit, einen faktischen Verzicht auf Kernwaffen auszusprechen, solange der „Erzfeind Iran“ weiter offen an der „Atombombe“ bastelt. Schon aus diesem Grund ist das – insbesondere von Deutschland – immer noch verzweifelt hoch gelobte „Iranabkommen“ äußerst kontraproduktiv gewesen. Andererseits ist durch die inzwischen verwirklichte Brennstoffbank mehr als ein Ansatz für die Nichtverbreitung von Kernwaffen geschaffen worden.

Um die Brennstoffversorgung zu sichern, wurde die Versorgung durch die VAE in fünf Bereiche vom Uranbergbau bis zum Brennelement gegliedert. Für jede Stufe werden mit mehreren Lieferanten aus unterschiedlichen Ländern Lieferverträge abgeschlossen. Für die Erstbeladung allein mit sechs Unternehmen. Für abgebrannte Brennelemente werden drei Perioden (bis 20 Jahre, bis 200 Jahre und darüber hinaus) definiert. Für die Lagerung bis zu 20 Jahren sind Abklingbecken vorgesehen. Alle sechs Jahre sollen die Elemente in oberirdische Betontresore für mindestens (mögliche) 200 Jahre umgelagert werden. Für den Zeitraum danach kann eine Wiederaufbereitung im Ausland durchgeführt oder eine direkte Endlagerung vorgenommen werden. Eine endgültige Entscheidung wird dann wahrscheinlich nach Kosten gefällt werden.

Die Energiesituation in den VAE

Im Jahr 2007 wurde eine umfangreiche Energiestudie durchgeführt. Man kam zu der Erkenntnis, dass der Verbrauch an elektrischer Energie mit einer Rate von 9 Prozent jährlich wachsen würde. Es blieb daher nur der Weg über den Neubau von Kernkraftwerken oder Kohlekraftwerken. Ab dem Jahr 2007 wurden die VAE bereits zum Netto-Gasimporteur mit stetig steigender Tendenz. Noch heute wird fast 98 Prozent der elektrischen Energie aus Erdgas gewonnen. Der Primärenergieverbrauch wurde 2018 aus etwa 40 Prozent Öl und 59 Prozent Erdgas gedeckt. Im Jahr 2017 wurden 127 TWh elektrische Energie verbraucht. Das Kernkraftwerk Barakah mit 4 Blöcken vom Typ APR1400 kann rund 44 TWh jährlich produzieren. Damit können erhebliche Mengen Erdgas in den nächsten Jahren für die Industrie oder den Export freigesetzt werden.

Ein mutiger Schritt auf beiden Seiten

Nach internationaler Ausschreibung und mehr als einjähriger Prüfung ging der Auftrag 2009 an die Korea Electric Power Company über die schlüsselfertige Lieferung zum Festpreis von 20 Milliarden USD für das Kernkraftwerk Barakah (3600 USD/kW). Es war der erste Exporterfolg Koreas für Reaktoren der sogenannten III. Generation. Insofern ein mutiger Schritt auf beiden Seiten. Vor der Entscheidung wurden zahlreiche internationale Fachleute mit Erfahrungen im Bau von Kernkraftwerken im Auftrag der VAE nach Korea entsandt. Ihr Auftrag war die Beurteilung der Zulieferer und der Baustellen des gleichen Typs. Die VAE selbst verfügen über zahlreiche Erfahrungen in der Abwicklung von Großprojekten ihrer Öl- und Gasindustrie und den Bau und Betrieb zahlreicher Gas-Kombi-Kraftwerke.

Im Jahr 2016 gingen die VAE und Korea eine gegenseitige Beteiligung ein. Man gründete „Barakah One (BO)“ als Finanzierungs- und „Nawah“ als gemeinsame Betriebsgesellschaft. An diesen beiden Gesellschaften hat jeweils die „Emirates Nuclear Energy Corporation (ENEC)“ einen Anteil von 82 Prozent und die „Korea Electric Power Corporation (KEPCO)“ einen Anteil von 18 Prozent. BO verfügt über ein Kapital von 24,4 Milliarden USD. Davon sind 4,7 Milliarden Eigenkapital und rund 19,6 Milliarden Fremdfinanzierung. Das Department of Finance of Abu Dhabi hat 16,2 Milliarden beigesteuert und die Export-Importbank von Korea (KEXIM) 2,5 Milliarden. Weitere Mittel kommen von einem Bankenkonsortium (National Bank of Abu Dhabi, First Gulf Bank, HSBC, Standard Chartered Bank). Das Volumen beinhaltet den Auftragswert (overnight cost), die Zinsen und etwaige Kostensteigerung durch Inflation während der Bauzeit, sowie die erste Brennstoffladung.

Die Baustelle als ein Konjunkturprogramm

Im Juli 2012 begann der Bau mit dem Betonieren der Grundplatte des Reaktors 1. Diese Arbeiten gelten international als der Baubeginn eines Kernkraftwerks. Im Mai 2013 folgte die Grundplatte des Reaktors 2 und im September 2014 Grundplatte 3 beziehungsweise im September 2015 Grundplatte 4. Hier wird schon das Prinzip eines kostengünstigen Bauens erkennbar: Man baut viermal die gleiche Anlage, aber geringfügig zeitversetzt. So hat man jeweils nach dem Bau der Anlage 1 ein bereits geübtes Team für die Anlagen 2 bis 4 vor Ort. Dies bietet die größte Rationalisierung und Sicherheit vor Fehlern, die zu Bauverzögerungen führen. Eine stets wiederkehrende Erfahrung auf allen Baustellen der Welt. Dieser Takt wurde auch bei den Komponenten gehalten:

Zum Beispiel beim Einbau des ersten Reaktordruckgefäßes im Mai 2014, im Reaktor 2 im Juni 2015, im Reaktor 3, Juli 2016, und 2017 im Reaktor 4. Eine solche Auftragsvergabe wirkt sich natürlich auch kostensenkend bei den Zulieferern aus. Eine Kleinserie ist immer günstiger als eine spezielle Einzelanfertigung. Jedes „erste Mal“ birgt immer das Risiko nicht vorhergesehener Probleme, die automatisch zu Verzögerungen führen.

Auf der Baustelle arbeiteten mehr als 18.000 Menschen. So viele Menschen über so lange Zeit mit Unterkunft, Essen, sauberer Arbeitsbekleidung etc. zu versorgen, ist ein enormer Input für die lokale Wirtschaft. Hinzu kommen die Aufträge im Inland. Rund 1.400 Unternehmen aus den VAE erhielten vom Generalunternehmer Aufträge über mehr als 3 Milliarden USD. Viel bedeutender als der Geldwert ist jedoch der Wissenstransfer: Alle Produkte und Dienstleistungen müssen den strengen Qualitätsanforderungen der Kerntechnik genügen. So haben die koreanischen Zulieferer durch tatkräftige Hilfe dazu beigetragen, dass zahlreiche Unternehmen sich erstmalig für eine Zulassung bei der American Society of Mechanical Engineers (ASME) zertifizieren konnten.

So besitzen zum Beispiel Emirates Steel durch ihre Lieferung für Betonstahl nun eine ASME-Zulassung für Kernkraftwerke. Solche Zertifikate müssen beileibe keine Eintagsfliegen sein. So konnte der Kabellieferant Ducab inzwischen sogar Kabel für das Kernkraftwerk Shin Hanul in Korea liefern. Es ist kein Zufall, dass hier keine Rede mehr von DIN und sonstigen deutschen Regelwerken ist. Keine Exporte von Kernkraftwerken, keine Verbreitung von deutscher Spitzentechnik. Wer seinen Betrieb einmal aufwendig auf die US-Maßsysteme und ihre Technik-Philosophie eingestellt hat, wird nur sehr unwillig alles ändern. Dies gilt auch für andere Produkte.

Die Folgeaufträge

Ein solches Projekt ergibt eine gegenseitige Verknüpfung der Wirtschaftsbeziehungen für Jahrzehnte. Für den Lieferanten ergeben sich unzählige lukrative Folgeaufträge. So hat die Korea Hydro und Nuclear Power (KHNP) mit der Betriebsgesellschaft Nawah ein „Operating Support Service Agreement (QSSA)“ abgeschlossen. Für 10 Jahre nach Fertigstellung sollen 400 Fachkräfte von KHNP den Betrieb vor Ort unterstützen. Der Auftragswert: 880 Millionen USD. Hinzu kam 2017 ein weiteres Abkommen zwischen KHNP und Nawah über den gemeinsamen Einkauf von Ersatzteilen für die koreanischen und VAE Kraftwerke vom Typ APR1400. Im März 2019 hat Nawah einen fünfjährigen Wartungsvertrag mit Kepco und Doosan Heavy Industries abgeschlossen.

Man muss nicht nur unzählige „Elektro-Golfs“ verkaufen, bis man einen Umsatz von 20 Milliarden erzielt hat, sondern bei einem Kernkraftwerk fallen einem auch noch weitere Milliardenaufträge quasi ins Haus. Nicht zu unterschätzen, welche ganz anderen Aufträge man durch solch enge Kontakte einwerben kann. So haben sich die Koreaner schon vorher durch den Bau von Gaskraftwerken und Meerwasserentsalzungsanlagen einen Namen in den VAE gemacht. So wie einst Siemens – jedenfalls sind nicht immer höhere Lohnkosten in Deutschland eine Ausrede für alles. Politischer Wille spielt auch eine nicht ganz unwichtige Rolle. Wenn man jedenfalls sein Heil in der Neuerfindung mittelalterlicher Techniken sucht, sollte man sich über keinen Stellenabbau wundern.

Der steinige Weg

Es ist eine nicht zu unterschätzende Leistung, ein bitterarmes Volk aus einer nahezu unbewohnbaren Salzwüste in das 21. Jahrhundert zu katapultieren. Inzwischen setzt sich in allen Ölförderländern die Erkenntnis durch, dass nur durch eine konsequente Industrialisierung dauerhaft gut bezahlte und anspruchsvolle Arbeitsplätze geschaffen werden können. Davor steht wiederum Bildung und Ausbildung. So ist die Emirates Nuclear Energy Corporation (ENEC) buchstäblich aus dem Nichts 2008 entstanden. Heute hat die ENEC über 2.900 Mitarbeiter. Der Anteil der Emiratis ist inzwischen auf 60 Prozent angestiegen und der Anteil der Frauen beträgt 20 Prozent, was vielleicht viele „Gender-Gaga-Anhänger“ erstaunen mag. Hier wächst eine Generation hoch qualifizierter Frauen heran, von denen bereits einige Führungspositionen – nicht durch Quote, sondern durch Fleiß (Kerntechnik-Studium) und Befähigung – erklommen haben.

Der Weg ist durchaus eine Orientierung für andere Schwellen- oder gar Entwicklungsländer, die Kernenergie nutzen wollen. Auch Wissen kann importiert werden. Man hat Fachleute aus aller Welt mit mindestens 25-jähriger einschlägiger Berufserfahrung angeworben. Der eigene Nachwuchs lernt durch die unmittelbare Zusammenarbeit an dem konkreten Projekt. Für die Grundausbildung sind vier Züge vorgesehen:

  1. Weiterbildung von erfahrenem Personal aus anderen Industriezweigen des Landes.
  2. Studium von besonders qualifizierten Studenten der eigenen Hochschulen zur Erlangung eines „Nuclear Masters“ an renommierten Universitäten im Ausland.
  3. Aufbau eines „Bachelors der Kerntechnik“ an den Hochschulen des Landes.
  4. Techniker für Wartung und Betrieb im eigenen Kraftwerk.

KHNP und ENEC haben 2016 einen Vertrag über die Entsendung von 50 Fachkräften für die Ausbildung in Korea abgeschlossen. Daraus sind unter anderem 10 voll ausgebildete und zertifizierte Reaktorfahrer hervorgegangen. Seit 2010 läuft das „Energy Pioneers Program“ mit den USA. Bisher wurden 500 Emiratis ausgebildet. Weiter werden 200 Emiratis durch die USA zu Reaktorfahrern ausgebildet. Im Juli 2019 wurden die ersten 15 Reaktorfahrer nach dreijähriger praktischer Ausbildung in Korea, Südafrika und den USA von der ENEC zugelassen. Für den Betrieb des Kraftwerks geht ENEC von etwa 2.000 Dauerarbeitsplätzen aus.

Zwangsläufige Verzögerungen

Die Kernenergie in den VAE wurde praktisch auf einem weißen Blatt begonnen. Von Anfang an hat man die Kooperation mit dem Ausland angestrebt, um aus Erfahrungen und Fehlern zu lernen. Auf Transparenz gegenüber allen internationalen Institutionen wurde stets großer Wert gelegt. Die Federal Authority for Nuclear Regulation (FANR) der VAE ging nie allein vor.

Bereits im Mai 2017 wurden vertragsgemäß die Brennelemente für den ersten Reaktor geliefert und im Kraftwerk bis zur Erlangung einer Betriebsgenehmigung eingelagert. Im Oktober 2017 hat ein „Pre-Operational Safety Review Team (Pre-OSART)“ der „World Association of Nuclear Operators (WANO)“ die Anlage auf ihre Betriebssicherheit überprüft. 15 internationale Fachleute aus sieben Ländern haben 18 Tage vor Ort das Kraftwerk begutachtet. Hierbei geht es vor allen Dingen um die Einhaltung der Sicherheitsstandards der „International Atomic Energy Agency (IAEA)“. Der Bericht schloss mit einem Lob für die Bildung der „Multi-Kulti“-Betriebsmannschaft, aber auch mit einiger Kritik ab. Es wurde für die Behebung der Mängel ein Zeitraum von 18 Monaten vorgegeben.

Im März 2018 wurde der erste Reaktor offiziell fertiggestellt und dem Kunden übergeben. Damit sind alle Tests und Prüfungen unter Fremdenergie abgeschlossen und die Betriebsfähigkeit nachgewiesen. Der Reaktor durfte aber erst mit Kernbrennstoff beladen werden, nachdem die Betriebsgesellschaft Nawah eine Betriebserlaubnis erhalten hatte.

Im November 2019 führte die WANO eine „Pre-Start Up Review“ durch und erklärte den Reaktor 1 für betriebsbereit. Am 17.2.2020 erteilte die FANR als zuständige Institution der Nawah eine Betriebsgenehmigung für 60 Jahre. Dies geschah, nachdem über 14.000 eingereichte Seiten technische Dokumentation geprüft, 255 Inspektionen durchgeführt, 2.000 ergänzende Anfragen bearbeitet und 40 internationale Inspektionen durch WANO und IAEA durchgeführt worden waren. Damit konnte Reaktor 1 mit Kernbrennstoff beladen werden. Die Erstbeladung konnte bereits durch ein Team aus 90 Prozent Emitatis eigenverantwortlich durchgeführt werden. Trotz Corona konnte nun endlich zum 1. August der erste Block seine Kettenreaktion einleiten. Es beginnen jetzt die üblichen Garantietests in verschiedenen Leistungsstufen. Man strebt eine vollständige Übergabe bis Ende des Jahres an. Gleichwohl wird schon in dieser Inbetriebnahmephase elektrische Energie in das Verteilnetz der VAE eingespeist.

Dieser Beitrag erschien zuerst bei Nuke-Klaus.




Die planwirtschaftliche Versuchung Auf dem Weg zum französischen Europa des „Green Deal“

Statt der ursprünglich von der deutschen Ratspräsidentschaft versprochenen 500 Milliarden Euro sollen die von der politisch inszenierten Coronakrise am stärksten betroffenen EU-Mitgliedsstaaten im Rahmen eines europäischen Wiederaufbaufonds (Corona Recovery Fund) von ungefähr 750 Milliarden Euro nur 390 Milliarden Euro in Form verlorener Zuschüsse ausbezahlt bekommen. Wobei die Gesamtsumme von der EU als Kredit aufgenommen werden soll. Im Unterschied zu bisherigen „Rettungspaketen“ handelt es sich bei diesem Kompromiss also um den nach dem Maastricht-Abkommen eigentlich verbotenen Einstieg in die Vergemeinschaftung von Staatsschulden. Darüber kann die als Verhandlungserfolg der „sparsamen Vier“ (die Niederlande, Österreich, Schweden und Dänemark, denen sich später noch Finnland hinzugesellte) verkaufte Reduktion der verlorenen Zuschüsse um über 100 Milliarden Euro nicht hinwegtäuschen. Die völlig abwegigen Erfolgsmeldungen der Merkel-Anhänger in den zwangsfinanzierten oder staatlich subventionierten deutschen Massenmedien möchte ich hier anstandshalber gar nicht kommentieren. Es genügt der Hinweis, dass Deutschland nun mehr als ein Drittel seines Staatshaushaltes (133 Milliarden Euro) an Länder überweisen muss, deren Einwohner im Schnitt wohlhabender sind als die Deutschen.

Es war der Chefredakteur eines liberalen französischen Magazins, der die Wahrheit aussprach: Der „historische Kompromiss“ von Brüssel ist der Etappensieg eines Europa aus dem merkantilistischen  Geist Jean-Baptiste Colberts über ein von Adam Smith inspiriertes Europa der freien Marktwirtschaft. Dazu passt, dass der neue französische Premierminister Jean Castex schon einige Tage vor dem Brüsseler Gipfel angeregt hat, das im Jahre 2005 aufgelöste französische hohe Plankommissariat (Haut Commissariat au Plan) wieder neu einzurichten. Das Plankommissariat war 1946 von Jean Monnet geschaffen worden. Es fußte auf der nach dem Zweiten Weltkrieg im Westen weit verbreiteten Überzeugung, es müsse ein dritter Weg zwischen Kapitalismus und Kommunismus gefunden werden, um den Schrecken eines neuen Weltkrieges abzuwenden. Bei den alliierten Mächten bestanden aus der Kriegswirtschaft hervorgegangene Formen planwirtschaftlicher Rationierung von Lebensmitteln und Rohstoffen zum Teil bis zum Ende der 1950er Jahre fort. Nur das militärisch geschlagene und zum großen Teil von Bomben zerstörte Deutschland machte da eine Ausnahme. Hier wagte Ludwig Ehrhard unter der (skeptischen) Aufsicht der US-amerikanischen Besatzer das Experiment „soziale Marktwirtschaft“. Dieses ist aber inzwischen leider Vergangenheit.

 

„Errungenschaften“ der Résistance oder des Vichy-Regimes

Historisch geht die Idee, das sozialer Fortschritt mit physischer Gewalt und Erpressung durchgesetzt werden kann und dass die „Progressiven“ nicht irren können, auf die „Große“ französische Revolution von 1789 zurück. Es gibt aber noch weitere Quellen für den französischen Faible für bürokratische Planung. So geht die Attraktivität der Planwirtschaft für die heutige etablierte politische Klasse außer auf den bereits genannten Colbert und seine nur vorübergehend erfolgreiche protektionistische Politik der Ressourcensicherung für die üppige Hofhaltung des Sonnenkönigs Ludwigs XIV. auf Kosten der Nachbarländer auch auf das Kollaborations-Regime Maréchal Philippe Pétains im zentralfranzösischen Vichy während der deutschen Besatzung zurück. Während Colbert selbst von den französischen Linken noch heute verehrt wird, wagt es selbstverständlich kaum noch jemand, sich auf das Vichy-Regime zu berufen. Vielmehr interpretiert man die wichtigsten unter ihm eingeführten Neuerungen in „Errungenschaften“ der Résistance gegen den Nazismus um. So vor allem die 1941 eingeführte Umlagen finanzierte Rentenversicherung und die noch heute existierende flächendeckende Sozialversicherungsnummer. (Deren geniales System, das es erlaubt, jedes Individuum eindeutig zu identifizieren und sogar nach seinem Tod weiter zu verfolgen, war von einem Militär mit der Absicht einer heimlichen Remobilisierung entwickelt worden.) Auch die unmittelbar nach dem Krieg von General de Gaulle eingeführte allgemeine Krankenversicherung, die zweite Säule der verpflichtenden Bürgerversicherung (Sécurité Sociale) ist letztlich ein Produkt der Vichy-Bürokratie. Deren politische Grundlage war der Korporatismus, das heißt die Zusammenarbeit aller für relevant erklärten gesellschaftlichen Organisationen (einschließlich der kommunistischen Gewerkschaft CGT) bei der Ausarbeitung sozialpolitischer Pläne. Diese gingen ursprünglich davon aus, dass den verschiedenen Gruppen der französischen Gesellschaft klare Interessen zugeschrieben werden konnten.

Bis zum heutigen Tage bleibt die ausufernde französische Sozial- und Gesundheitsbürokratie und die verbreitete Vorliebe französischer Politiker für bürokratische Problemlösungen stark von „Errungenschaften“ des Vichy-Regime geprägt. Die zentralistische, auf große Krankenhäuser mit einem besonders hohen Anteil von Personal ohne Patientenkontakt konzentrierte Struktur des französischen Gesundheitssystems erlebte in der „Coronakrise“ ihr Waterloo, was die meisten Franzosen aber kaum zugeben werden. Sichtbarer Ausdruck des Versagens der zentralen staatlichen Planung war der eklatante Mangel an Intensivbetten und Atemschutz-Masken für die Ärzte und das Pflegepersonal. Der französische Zentralstaat konfiszierte schon im März 2020 alle in Apotheken eventuell noch vorrätigen Masken und verbot sogar zeitweise deren Import. Ein Großteil des medizinischen Personals musste ohne Schutzkleidung und ohne Masken arbeiten, weil wegen Sparmaßnahmen im chronisch defizitären Gesundheitssystem nicht genügend angeschafft worden waren. Zu rollenden Lazaretten umgebaute Hochgeschwindkeitsszüge (TGV) und Flugzeuge der Armee karrten intubierte Covid-19-Patienten durch die ganze Republik und zum Teil auch nach Deutschland, wo die Intensivstationen der Krankenhäuser bei weitem nicht ausgelastet waren.

Die für die französische politische Klasse nahe liegende Lösung: Noch mehr Zentralismus, und zwar möglichst auf europäischem Niveau. So machte sich Staatspräsident Emmanuel Macron für die Ausgabe von „Corona-Bonds“ als Einstieg in die Vergemeinschaftung der Staatsschulden und der Haftung. Die deutsche Bundeskanzlerin Angela Merkel kam ihm da weitgehend entgegen. Ergebnis war der eingangs zitierte „historische Kompromiss“ Allerdings ist darin nicht mehr von Corona-Bonds, sondern von einem Wiederaufbauplan. Doch um den Wiederaufbau der durch den ungerechtfertigten Lockdown eingebrochenen und zum Teil längerfristig geschädigten Volkswirtschaften geht es dabei gar nicht, sondern um die planmäßige Konstruktion einer Wunsch-Welt entsprechend dem Monate zuvor von der EU-Kommission beschlossenen „Green Deal“. Dessen planwirtschaftlicher Ansatz widerspricht sowohl dem deutschen Grundgesetz als auch dem EU-Vertrag von Lissabon.

 

Planen ist menschlich, Irren auch

Im Unterschied zu den von angeborenen Instinkten geleiteten Tieren können Menschen zumindest ein Stück weit in die Zukunft schauen und versuchen, ihr weiteres Leben dem entsprechend zu planen, um damit zu Ergebnissen zu gelangen, die sich beim naturwüchsigen Lauf der Dinge wahrscheinlich nicht eingestellt hätten. Mehrjährige Pläne sind ein sinnvoller, wenn nicht notwendiger Bestandteil der individuellen und familiären Lebensgestaltung, wobei der gesunde Menschenverstand im Idealfall quasi automatisch einen Kosten/Nutzen-Vergleich vornimmt. Auf Kollektive wie Vereine, Firmen, Kommunen oder gar ganze Staaten und überstaatliche Gebilde lässt sich diese Aussage allerdings nur mit großen Einschränkungen übertragen. Zumal die zentrale Planung grundsätzlich der individuellen Lebensgestaltung durch freie Konsumwahl widerspricht.

Das schließt allerdings nicht aus, dass längerfristige Planung auf der Ebene einzelner Firmen durchaus sinnvoll sein kann. Vermutlich ist eine Firmengründung mit Business-Plan besser als ohne. Und auch etablierte Firmen tun wohl gut daran, mögliche Zukünfte zu antizipieren und entsprechend zu planen. Doch das unternehmerische Risiko lässt sich dadurch nur etwas eingrenzen, nicht aus der Welt schaffen. Das macht wahrscheinlich sogar den Reiz unternehmerischer Initiative aus. Etwas ganz anderes ist Planung im Rahmen überbetrieblicher bürokratischer Strukturen und/oder diktatorischer Regierungssysteme. Hier ist Planung Ausdruck der Entmündigung, wenn nicht Versklavung der Kunden und Staatsbürger. Programme, Pläne und Verträge, deren Laufzeit die Dauer einer Legislaturperiode überschreitet, sollten in einem demokratisch regierten Gemeinwesen nur ausnahmsweise gestattet sein. Denn die Möglichkeit der Infragestellung und des Widerrufs einmal getroffener Entscheidungen gehört zum Wesen der Demokratie. Das hat demokratisch an die politische Macht Gelangte freilich noch selten davon abgehalten, die Zukunft längerfristig festlegen zu wollen, um sich durch vermeintlich gute Taten unsterblich zu machen.

„Erstens kommt es anders, zweitens als man denkt.“ Dieses witzige Sprichwort bringt die Erfahrungen mit jeglicher Form von Planwirtschaft auf den Punkt. Lassen sich Fehlplanungen im übersichtlichen familiären Rahmen oft noch zu tragbaren Kosten korrigieren, können längerfristige Festlegungen im nationalen und internationalen Maßstab leicht in wirtschaftliche Katastrophen führen und unzählige Menschenleben fordern oder zumindest dauerhafte Einbußen an Wohlstand und Lebensqualität nach sich ziehen. Erinnert sei hier nur an die verheerenden Folgen von Fehlplanungen in der Sowjetunion und in der sozialistischen Volksrepublik China in Form von Millionen von Hungertoten. Ausschlaggebend waren dabei nicht nur falsche Gewichtungen und Fehlleitungen von Ressourcen infolge der Ausschaltung der Lenkungswirkung  von Marktpreisen, sondern auch die Unterwerfung von Investitionsentscheidungen unter pseudowissenschaftliche Lehren beziehungsweise natur- und vernunftwidrige Ideologien wie den Lyssenkoismus in der UdSSR oder die versuchte Ausrottung der zu Schädlingen erklärten Singvögel in China.

Anführen müsste man aber auch Entscheidungen im ach so aufgeklärten Westen wie das 1972 zunächst von der US-Regierung ausgesprochene und danach von allen Mitgliedsländern der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) übernommene Verbot der Herstellung und Anwendung des Insektizids DDT. Dieses wegen der durch DDT angeblich drohenden Krebsgefahr ausgesprochene Verbot Hat in Afrika und Südasien zum Tod von Millionen von Menschen geführt, da es bis zum heutigen Tag keine vollwertige Alternative zum Einsatz von DDT gegen Malaria übertragende Stechmücken gibt.

 

Grüne Unlogik als Planungsgrundlage

In die Kategorie Pseudowissenschaft gehört sicher auch der Narrativ von der menschengemachten globalen Erwärmung. Er ist nur vergleichbar mit der Rassenideologie des Nationalsozialismus. Es gibt nicht den geringsten Beleg für die These, der Ausstoß des relativ inerten Verbrennungs-Abgases Kohlenstoffdioxid (CO2) sei der Schlüsselfaktor für die Entwicklung von Wetter und Klima. Der Reduktion des CO2-Ausstoßes tendenziell bis auf Null wird im „Green Deal“ alles untergeordnet. Schon bis zum Jahr 2050 soll die EU „kohlenstoff-neutral“ werden, obwohl die so genannten erneuerbaren Energien zurzeit nur etwa 2,5 Prozent des Gesamt-Energiebedarfs der EU decken. Eigenartigerweise wird aber die CO2-arme Kernenergie in der am 16. Juni 2020 verabschiedeten Energie-„Taxonomie“ der EU-Kommission nicht als „grün“ anerkannt. Dabei hat die EU in der von ihr im Jahr 1994 unterzeichneten internationalen Energie-Charta ausdrücklich den längerfristigen Investitionsschutz für Nuklear-Anlagen anerkannt. Überdies belässt der EU-Verfassungsvertrag von Lissabon die Wahl der Energiequellen ausdrücklich in der Zuständigkeit der EU-Mitgliedsstaaten.

Der französische Staatspräsident Emmanuel Macron tut so, als fielen die 40 Milliarden Euro, die Frankreich nach dem Brüsseler Kompromiss überwiesen bekommt, vom Himmel. Die französischen Steuerzahler würden nicht zur Kasse gebeten, versicherte Macron gegen Ende Juli 2020. Vielmehr werde die EU neue Steuern auf kohlenstoff-intensive Produkte allgemein sowie auf Kunststoffe aus Erdöl und auf die Umsätze amerikanischer Internet-Konzerne einführen. Sein Premierminister Jean Castex kündigte an, die französische Wirtschaft werde mithilfe eines Investitionsprogramms von 20 Milliarden Euro (von insgesamt 100 Milliarden Euro staatlicher Wiederaufbau-Hilfen) zu der am stärksten dekarbonisierten Europas gemacht. Insbesondere sollen Gelder für die bessere thermische Isolierung von Gebäuden, die Verminderung der Verkehrsemissionen und die Unterstützung einer lokalen nachhaltigen Agrarproduktion bereitgestellt werden. Auch der Relokalisierung ausgewanderter Unternehmen soll das auf zwei Jahre angelegte Investitionsprogramm dienen. Es dürfte klar sein, dass 20 Milliarden für die Umsetzung dieses Wunschkatalogs bei weitem nicht ausreichen werden.

Macron und Castex berufen sich dabei auf den von einer Bürgerversammlung für das Klima („Convention citoyenne pour le climat“) aufgestellten Forderungskatalog. Es handelt sich dabei um eine grünstichige Liste romantischer Wünsche ohne erkennbare Hierarchie. Die Einführung der 28-Stuinden-Woche steht dabei unverbunden neben der Besteuerung der Dividenden, der Herabsetzung zugelassener Höchstgeschwindigkeiten und dem Verbot beheizter Bistro-Terrassen. Präsident Macron hat die Versammlung von angeblich zufällig ausgewählten 150 Personen im Jahre 2019 als Antwort auf die heftigen Massenproteste der „Gelbwesten“ einberufen. Diese Proteste hatten sich an der Kfz-Kraftstoffverteuerung durch eine Ökosteuer entzündet. Denn 70 Prozent der Franzosen brauchen das Auto,um an ihren Arbeitsplatz zu gelangen. Es war wohl eine propagandistische Meisterleistung der Berater Macrons, diese Proteste in Richtung „Klimaschutz“ umgebogen zu haben.

Während Macron und seine Berater die Forderungen nach einer 28-Stunden-Woche, nach einer Dividenden-Besteuerung und die Begrenzung der Höchstgeschwindigkeit auf Autobahnen auf 110 km/h sofort ad acta legten, werden die Verbote von Heiz-Pilzen, Kurzstreckenflügen und großer SUVs  wahrscheinlich kommen. Auch die von Umweltschützern lange Zeit geforderte Bahnverbindung zwischen Lyon und Turin durch einen Alpentunnel wird wahrscheinlich dem in Frankreich neu erwachten Ökologismus zum Opfer fallen. Die Stilllegung des Kernkraftwerkes Fessenheim im Elsass war schon 2015 im Rahmen des auf Druck der Grünen verabschiedeten Gesetzes über die Energiewende und das grüne Wachstum („Loi de transition énergétique pour la croissance verte“) beschlossen worden. Auch in Frankreich wird also in den nächsten Jahren, begründet durch die Farce einer Volksbefragung, wahrscheinlich eine „Planwirtschaft ohne Plan“ nach deutschem Vorbild entstehen. Dabei wird die französische politische Klasse, anders als die deutsche, aber peinlich darauf achten, sich auf Kosten der Nachbarn und Wettbewerber (vor allem Deutschland) Vorteile zu verschaffen.

 

 

 

 




Die „Nationale Wasserstoffstrategie“ soll u.a. die Energiewende retten, die Mobilität über Wasserstoff betreiben: eine quantitative Energiebetrachtung zu einer Wasserstoff- Illusion

Die Energiewende kann ohne Stromspeicher nicht funktionieren.
Nun scheitert mit der ausgerufenen H2-Technologie auch die letzte Hoffnung auf eine Lösung der Stromspeicherproblematik.
Das bedeutet nicht nur das Ende der Energiewende, es steht für die E-Mobilität auch kein CO2-freier Strom zur Verfügung, von der Rohstoffversorgung (Lithium, Cobalt) und dem Recycling abgesehen.
Aber auch die Umstellung der Verbrenner auf H2-Technologie führt zu einem unerträglichen Energieverbrauch.
Dennoch werden die Ökoideologen gegen alle Realitäten ihre seit Jahrzehnten propagierten Weltuntergangsszenarien weiter predigen, obwohl der Einfluss von CO2 auf das Klima marginal ist (die 2% Deutschlands am weltweiten CO2-Ausstoss ohnehin).
Ein Umlenken wird es erst nach den ohne Stromspeicher zwangsläufig auftretenden Stromstillständen mit Toten geben (siehe Australien).

 

Fazit

a)Leistungsaufwand Strom zur Lösung des Stromspeicherproblems über Wasserstoff

Um die Stromspeicherproblematik bei der Stromerzeugung mit Wasserstoff zu lösen, muss in 4 Stufen (Stromerzeugung über Wind+Sonne (Überschussstrom) – H2O-Elektrolyse – H2-Speicherung – H2-Verbrennung mit Rückverstromung) mit einem Gesamtwirkungsgrad von 40% (bewusst optimistisch angesetzt) spätestens in 2038 neben der normalen Stromleistung von etwa 69 Gigawatt (GW) die Leistung um 59 GW auf 128 GW angehoben werden mit einer erforderlichen täglichen Stromerzeugung von im Mittel 1660+1416 = 3078 GWh/Tag,  in 2050 auf insgesamt 69+75 = 144 GW bei einer Stromerzeugung von insgesamt 3460 GWh/Tag.

b) Leistungsaufwand Strom für die Umstellung der Verbrennungsmotoren auf Wasserstoff einschließlich des dabei anfallenden Stromspeicherproblems

Für die Umstellung der Verbrennungsmotoren auf H2-Technologie in 2050 – wenn man sich nach a) dieser Mühe noch unterzieht – muss im ersten Schritt Wasserstoff in 3 Stufen (Stromherstellung aus Wind+Sonne – H2O-Elektrolyse – H2-Speicherung) mit einem Gesamtwirkungsgrad von 63% hergestellt werden.
Ausgehend von einer täglichen Leistung von 38 GW und einer äquivalenten Stromerzeugung von 913 GWh/Tag für das Betreiben der Verbrennungsmotoren in Deutschland errechnet sich dann unter Berücksichtigung des genannten Wirkungsgrades eine erforderliche Stromleistung von 60 GW bei einer Stromerzeugung von 1440 GWh/Tag.
Aber bei der Stromerzeugung über Wind+Sonne ist auch hier durch ihre Fluktuation eine Stromspeicherung erforderlich, d.h. es muss abermals das bereits zitierte 4-Stufen-Verfahren bis zur H2-Verbrennung mit Rückverstromung mit einem Wirkungsgrad von 40% angewandt werden.
Das erforderliche Speichervolumen errechnet sich zu 30 GW, multipliziert mit dem bekannten Wirkungsgrad von 40% ergibt eine Leistungsanforderung  von 75 GW mit einer Stromerzeugung in 2050 von 1800 GWh/Tag für die Lösung des Speicherproblems bei der Umstellung von Verbrennern auf H2-Technologie.
Alleine für die Umstellung von Verbrennungsmotoren auf H2-Technologie ist dann eine Stromleistung von insgesamt
60+75 = 135 GW bei einer Stromerzeugung von 1440+1800=3240 GWh/Tag erforderlich.

c)    Summe a)+b)

Insgesamt wäre dann für die Lösung der Speicherproblematik bei der Stromerzeugung sowie für die Umstellung der Verbrenner auf H2-Technologie in 2050
– eine Stromleistung von 144+135 = 279 GW sowie
– eine Stromerzeugung von 3460+ 3240 = 6700 GWh/Tag erforderlich

Fazit:  Ein Energie-Irrsinn ungeahnten Ausmaßes, obwohl die Wirkungsgrade optimistisch angesetzt wurden.
Wie schrieb das BMWi im Juni 2020: „Der Stoff hat das Zeug zu einem Hollywoodstreifen“.

  1. Einleitung und Aufgabenstellung

„In der Klimadebatte haben wir den Wandel von prominenten Wissenschaftlern zu Hohepriestern erlebt“ (Thea Dorn (1)) mit dem Ergebnis einer nicht funktionierenden Energiewende in Deutschland, da Wind und Sonne nicht gewillt sind, den erforderlichen Strom zu liefern.
Diese nicht funktionierende Energiewende sollte zunächst für eine Kugel Eis zu haben sein (Trittin), am Ende wiesen die letzten Kostenbetrachtungen Beträge von bis 6-7 Billionen € für die Sektorkopplung aus. (2-5)
Nun soll eine Wasserstoffstrategie her, u.a. um das ungelöste Problem der Energiewende – die Stromspeicherproblematik – zu lösen.
Insgesamt fördert der Bund die Wasserstofftechnologie über das neue Konjunkturprogramm mit 9 Milliarden €.
Ziele der neuen Wasserstofftechnologie sind u.a.:
1. Das Problem der Stromspeicherung zu lösen
2. Als Ersatz für fossile Gase
3. Wasserstoff soll in der Industrie, im Verkehr, in Gebäuden und in der Stromerzeugung genutzt werden mit dem Ziel der Klimaneutralität in 2050
4. Anstreben der Weltmarktführerschaft in der H2-Technologie

Bis 2030 sollen 5 GW als „grüne“ Strommenge (durch H2O-Elektrolyse mit Hilfe von Wind und Sonne – Überschussstrom) erzeugt werden. Insgesamt erwartet die Regierung bis 2030 einen Wasserstoffbedarf von bis zu 110 TWh. Eine fehlende Differenz soll entweder importiert oder aus „nicht grünem“ Quellen gewonnen werden wie „blauem“ Wasserstoff aus Erdgas und „türkisem“ Wasserstoff aus Methan.
Nun wird auch die EU aktiv. Bis 2030 sollen in ganz Europa 13-15 Milliarden € in die Herstellung von H2 investiert werden, außerdem 50-100 Milliarden in die entsprechenden Wind- und Solarkapazitäten. Ziel ist der flächendeckende Einsatz von Wasserstoff mit der Klimaneutralität in 2050.

Viele Studien des BDI, der Deutschen Akademie der Technikwissenschaften (Acatech) oder der Deutschen Energieagentur (Dena) kommen zu dem Ergebnis, dass Klimaneutralität in 2050 nur mit Wasserstoff erreicht werden kann.

In einer früheren Arbeit war herausgestellt worden, dass bis zum Kohleausstieg in 2038 bzw. der Klimaneutralität in 2050 weder die erforderliche Stromspeicherkapazität beigestellt noch die hohen stündlichen Stromschwankungen über Gaskraftwerke ausgeglichen werden können. (6)

Im Folgenden sollen daher quantitative Energiebetrachtungen durchgeführt werden
a) für die Lösung der Stromspeicherproblematik durch den Einsatz von Wasserstoff bis zur ausschließlichen Stromerzeugung über die alternativen Energien in 2050
b) für die Umstellung aller Verbrennungsmotoren auf die Wasserstofftechnologie bis zur ausschließlichen Stromerzeugung über die alternativen Energien in 2050.

Sicherheitsfragen zur Handhabung des Wasserstoffes durch den hohen Zündbereich, die hohe Flammgeschwindigkeit und die hohe Detonationskraft werden nicht behandelt.
Neben dem CO2-Ausstoß über Industrie, Gebäude, etc. sind die hier behandelten Sektoren Energiewirtschaft (Stromerzeugung) und Verkehr mit über 50% die höchsten CO2-Emittenten (Bild 1). (6)

Bild 1: Entwicklung der CO2-Emissionen nach Kategorien

Das nationale Treibhausminderungsziel von mindestens 65% bis 2030 (Beschluss am 03.07.2020) und das Bekenntnis der Bundesregierung auf dem UN-Klimagipfel vom Herbst 2019, Treibhausneutralität bis 2050 zu verfolgen, ist Ziel der begonnenen H2-Technologie.

  1. Berechnung des Energie- und Wasserstoffverbrauches für die Lösung des Stromspeicherproblems bis zur ausschließlichen Stromerzeugung über alternative Energien in 2050

Um den Wasserstoffverbrauch bis 2050 für die zwingend erforderliche Stromspeicherung berechnen zu können, wurde von den vorläufigen Verbrauchskennzahlen in 2019 nach AGEB ausgegangen und die mit fallender Stromerzeugung über Kohle und der erforderlichen zunehmenden Stromerzeugung über die alternativen Energien bis 2038 die Zunahme der notwendigen Stromspeicherkapazität errechnet – das gleiche gilt im zeitlichen Anschluss für die Herausnahme der fossilen Gase von 2038 bis 2050: Tafel 1; Bild 2. (vgl. auch (7))

Tafel 1

Dabei wird von einer gleichbleibenden Stromerzeugung von 606 TWh entsprechend 69,1 GW bis 2050 ausgegangen – einschließlich Exportüberschuss -, auch wenn weltweit bis 2040 von einer Steigerung des Energiebedarfes von 25% ausgegangen wird. Der Stromimportsaldo wurde nicht berücksichtigt.

Bild 2:  Stromerzeugungskapazitäten der verschiedenen Stromerzeuger 2019 bis 2050 (7)

In Bild 2 wird über den nicht fluktuierenden erneuerbaren Energien einschließlich der „Sonstigen“ zunächst die Stromerzeugungskapazität über Erdgas und Öl zuerst bis 2038 als konstant, um von 2038 bis 2050 im Sinne der ausgeglichenen CO2-Bilanz gegen Null angesetzt.

Darüber zeigt Bild 2 die Stromerzeugung über Kernkraft und Kohle, bis schließlich Wind und Sonne die in 2038 erforderliche Leistung (einschließlich der erforderlichen Stromspeicher) bis 69,1 GW abdecken, wobei gleichzeitig das Ausmaß der Fluktuation von Wind und Sonne sichtbar wird.
Für die Berechnung der zu installierenden Wind- und Solaranlagen wird von einem Nutzungsgrad von Wind+Sonne von 2019 ausgegangen: 17,6%.
Der Anteil der erneuerbaren Energien liegt in 2019 bei 38,8%.

Aus den Angaben zum Kohleausstieg ergibt sich ein Kapazitätsabbau der sicheren Stromerzeuger einschließlich der Herausnahme der Kernkraft  in 2022 wie folgt: KKW -8,1 GW, BKK -2,8 GW, SKK -1,3 GW (Linearität unterstellt), zusammen rd. 12 GW (Bild 2).
Für die Berechnung der Stromspeicherkapazität muss immer wieder herausgestellt werden, dass die mittlere Stromleistung von 69,1 GW nur aufrecht erhalten werden kann, wenn der oberhalb dieses Mittelwertes anfallende Strom aus Wind+Sonne gespeichert und bei Stromleistungen über Wind+Sonne unterhalb dieses Mittelwertes wieder eingespeist werden kann. (Bild 2)
So müssen z.B. in 2038 durch die fluktuierende Stromerzeugung über Wind+Sonne der zwischen 291 GW und 69,1 GW anfallende Strom in Stromspeichern gesammelt werden, um ihn bei nicht ausreichender Stromleistung zwischen 22 GW und 69,1 GW wieder einzuspeisen.
Die dann erforderliche Speicherleistung liegt dann nach Bild 2
– in 2038 bei    (69,1-22)/2 = 23,6 GW entsprechend 567 GWh/Tag bei einer täglichen Erzeugung von 1660 GWh
– in 2050 bei    (69.1-10)/2 =  30 GW entsprechend 720 GWh/Tag
– bei möglichen täglichen Spitzenleistungen von 80 GW sogar bei 35 GW (vgl. auch (7)).

Ein Ziel der H2-Technologie ist es, die ausgewiesene erforderliche Stromspeicherleistung über Wasserstoff dergestalt zu decken, dass der über der mittleren Stromleistung von 69,1 GW anfallende Strom aus Wind+Sonne (Überschussstrom) in Wasserstoff umgewandelt wird, um ihn dann wieder zur Deckung der noch ungelössten Speicherproblematik in Strom umzusetzen.

Nun sollen nach dem Konzept der „Nationalen Wasserstoffstrategie“ über die Herstellung von „grünem“ Strom aus Wind+Sonne die zitierten mittleren
–  23,6 GW  bzw. 567 GWh/Tag   in 2038  und
– 30 GW  bzw. 720 GWh/Tag    in 2050
über „grünen“ Wasserstoff nach der H2O-Elektrolyse abgedeckt werden.

Der Energieaufwand für die Wasserelektrolyse ist gewaltig.
Geht man von den thermodynamischen Daten der Wasserspaltung aus nach
H2O = H2+ 1/2 O2       -57810 kcal/kmol
errechnet sich für die Herstellung von einem Nm3 H2 ein Energieverbrauch von 3 KWh bzw. ein Energieverbrauch für
1 kg H2  von 33 KWh.
Da der energetische Wirkungsgrad der Wasserelektrolyse bei etwa 70% und niedriger liegt, kann bei positiver Betrachtung von einem Energieverbrauch für die Herstellung von
1 kg H2 von etwa 47 KWh
ausgegangen werden.

4-Stufen-Plan zur Erzeugung von H2 mit anschließender Verstromung für die Lösung des Speicherproblems

Der notwendige Verfahrensweg der Stromherstellung über Wind und Sonne (Überschussstrom) über die H2O-Elektrolyse, die H2-Speicherung  bis zur H2-Verbrennung mit Rückverstromung sieht wie folgt aus:

–  Stufe 1: Stromerzeugung über Wind und Sonne (aus Überschussstrom)
– Stufe 2: H2O-Elektrolyse mit Wirkungsgrad 70%
– Stufe 3: H2-Speicherung in einem Netz mit Verlusten von 10%. Im
Erdgasnetz sind nur etwa 10% H2 zulässig.
– Stufe 4: H2-Verbrennung mit Rückverstromung, Wirkungsgrad 60%

Damit sind die aus dem Schrifttum bekannten Wirkungsgrade bewusst günstig angesetzt.
Bei den angesetzten Wirkungsgraden ergeben sich folgende Verluste:

– Stufe 2:   33/0,7 = 47 KWh/kg H2
– Stufe 3:   1×0,9 = 0,9 kg H2. Bedeutung für Stufe 2: 47/0,9 = 52 KWh/kg H2
– Stufe 4:   52 KWh/kg H2/0,6 = 87 KWh/kg H2

Wirkungsgrad der Stufen 1-4 damit:   33/87 bzw. 40 %
Laut einer Studie der Ludwig- Bölkow-Systemtechnik liegt der Wirkungsgrad dieses Verfahrensweges  bei 30-40%.
Bei dieser Betrachtung wurde nicht berücksichtigt, dass bei den ständigen Schwankungen der Stromerzeugung über Wind+Sonne zwischen praktisch null GWh (nachts bei Windstille) und der Stromerzeugung nahe der installierten Leistung immer wieder Leistungen abgeregelt werden müssen.
Diese Aussage hat umso mehr Gewicht, weil bereits bei den Wind- und Solarerzeugungsverhältnissen in 2019 die stündlichen Stromschwankungen bereits Werte  bis +/- 8 GW annehmen, in 2038 sogar bis +/- 22 GW je Stunde, die zwangsläufig abgeregelt werden müssen. (vgl. (7))

Diese Verlustbetrachtungen für dieses 4-Stufen-Verfahren von 40% bedeuten für die Berechnung der Energieaufwendungen für die Lösung des Stromspeicherproblems (immer auf Mittelwerte bezogen):

  • in 2038: Zunahme von 567 GWh/Tag bzw. 23,6 GW auf 1418 GWh/Tag mit 59 GW
  • in 2050: Zunahme von 720 GWh/Tag bzw. 30 GW auf 1800 GWh/Tag mit 75 GW

Das bedeutet für die zu erbringende Leistung der Wind- und Solaranlagen (gleiches Verhältnis wie 2019 unterstellt):

– in 2038: Zunahme von 47,3 GW (Tafel 1) + 59 GW  = 109 GW
– in 2050: Zunahme von 58,3 GW (Tafel 1)  + 75 GW  = 133 GW       (Bild 3)

Damit steigt die zu erzeugende tägliche Strommenge in 2050 auf
1660 GWh/Tag  +  1800 GWh/ Tag   auf 3460 GWh/Tag  –
ein nicht zu überbietender Wasserstoff-Albtraum, ohne auf all die damit verknüpften Probleme (z.B. Stromnetz) eingehen zu wollen.

Der Plan der „H2-Strategie“ sieht vor, in 2030  5 GW „grünen“ Strom anzubieten. Aus Bild 2 wird deutlich, dass bereits in 2030 alleine eine Stromspeicherung über „grünen“ Wasserstoff von über 20 GW von Nöten wären zur Lösung des Speicherproblems.


Bild 3:
Aufzubringende Stromleistung über Wasserstoff zur Lösung des Speicherproblems bei der Stromerzeugung sowie der Umstellung der Verbrenner auf H2-Technologie.

 

  1. Berechnung des Energieverbrauches für die Umstellung von Verbrennungsmotoren auf Wasserstofftechnologie

Unterzieht man sich nach diesen Ausführungen dennoch der Mühe, eine quantitative Energiebetrachtung der Umstellung von Verbrennungsmotoren auf H2-Technologie anzustellen, so wird das Unternehmen H2-Technologie noch abenteuerlicher:
In einer früheren Arbeit (8) war die zu erbringende Stromerzeugung bei einer Umstellung von 45 Mio. Verbrennungsmotoren für PKW sowie diversen Nutzfahrzeugen und Bussen errechnet worden: 337 000 GWh/a bei einer gleichmäßigen Aufladung über 24 Stunden entsprechend 38 GW im Jahre 2050.
Der Hype der Umstellung von Verbrennungsmotoren auf E-Mobilität fußte auf der Vorstellung, dass
a) die Energiewende funktioniert und der Strom ausschließlich über regenerative Energien CO2-frei bei einem gelösten Speicherproblem hergestellt werden kann
b) die Anforderungen an den überhöhten Abbau des CO2-Ausstoßes über Verbrennungsmotoren je Flotte nur mit einem hohen Anteil an E-Autos erfüllt werden können.
Aber der Hype um die E-Mobilität lässt nach, da
a) CO2-freier Strom über die Energiewende ohne die genannten Stromspeicher nicht erzeugt werden kann
b) nach den zuletzt veröffentlichen Studien der „CO2-Rucksack“, der bei der Batterieherstellung anfällt, erst nach einer Fahrleistung von 219 000 km ein elektrisches Auto der Golfklasse ein entsprechendes Auto mit Dieselmotor im Hinblick auf seinen CO2-Ausstoß schlägt. Die durchschnittliche Lebenserwartung eines PKW liegt in Deutschland bei 180 000 km. (vgl. auch FAZ, 10.01.2020)
c) die Versorgung der Batterien mit Lithium, Cobalt, etc. einschließlich der Entsorgung der Batterien mit unübersehbaren Problemen behaftet ist.

Nun soll nach dem Konzept der „Nationalen Wasserstoffstrategie“ u.a. auch der Verkehr in die H2-Technologie einbezogen werden. Es gilt dann in 2050:

337 000 GWh/a    entsprechen 913 GWh/Tag (38 GW)

3-Stufen-Erzeugung von Wasserstoff für die Umstellung der Verbrenner auf Wasserstoff

Wie bereits in Kapitel 2 ausgeführt, müssen in den ersten 3 Stufen 52 KWh je kg H2 aufgebracht werden, was einem Wirkungsgrad von 33/52 bzw. 63% entspricht.
Das bedeutet, dass täglich anstelle von 913 GWh/Tag (38 GW)      1440 GWh/ Tag (60 GW) aufgebracht werden müssen. (Bild 3)

4-Stufen- Erzeugung von Wasserstoff für die Lösung des Speicherproblems bei der Umstellung von Verbrennern auf Wasserstoff

Bei der Stromerzeugung ausschließlich über Wind+Sonne  wird naturgemäß erneut durch die Fluktuation von Wind+Sonne eine Stromspeicherung erforderlich.
Da dieser Verfahrensschritt bis zur Rückverstromung des Wasserstoffes zum Ausgleich der Stromspeicher erfolgen muss, gilt auch hier die 4-Stufen- Erzeugung:
–  in 2050 müssen dann 60/2 = 30 GW gespeichert werden, für die
– 75 GW bereitgestellt werden müssen entsprechend einer Stromerzeugung von 1800 GWh/Tag  (Bild 3).

Damit ist in 2050 für die Umstellung der Verbrenner auf H2-Technologie ausschließlich über Wind+Sonne insgesamt folgende Leistung erforderlich:

  • H2-Technologie                                                            60 GW
  • Abdeckung Leistung für Stromspeicher               75 GW
                                                Summe                              135 GW

–    mit einer erforderlichen Stromerzeugung von 3240 GWh/Tag (Bild 3).

Insgesamt in 2050 erforderliche Installation an Wind -und Solaranlagen zur Lösung des Speicherproblems bei der Stromerzeugung und bei Umstellung der Verbrenner auf H2-Technologie

GW                 GW inst.                GWh/Tag

– Stromerzeugung
aus Wind+Sonne                  58,3(Tafel1)   331 (Tafel 1)           1400
– Stromspeicherung H2      75                    426                          1800
– Umstellung Verbrenner    60                    340                          1440
– Ausgleich Stromspeicher
bei Umstellung
auf Verbrenner                       75                    426                           1800

– Summe                                 268                1523                          6440

 

Aus 58,3 GW Stromleistung über Wind+Sonne in 2019 werden 268 GW in 2050 (Nutzungsgrad 17,6% – Kapitel 2), aus 331 GW zu installierende Wind-+Solaranlagen in 2019 werden 1523 GW, aus 1400 GWh/Tag werden 6440 GWh/Tag – ein Energie-Irrsinn.

Flächenbedarf

Die Installation von 1523 GW über Wind- und Solaranlagen erfordert die Belegung einer nicht unerheblichen Fläche.
Setzt man den Flächenbedarf einer 3 MW- Windanlage mit nur 0,1 km2 an und das Verhältnis von Wind- und Solarleistung mit 73:27 an (Tafel 1), so ergibt sich ein Flächenbedarf von
1523 x 0,73 x 0,1/3  = 37 000 km2,
ohne die Fläche der Solaranlagen, die mit 10 km2/ GW angegeben werden.
Die Fläche Deutschlands beträgt 357 000 km2, davon 182 000 km2 Landwirtschaft, 111 000 km2 Wald, 50 000 km2 Siedlung und Verkehrsfläche, etc.  – wo auch immer die Windräder stehen sollen.

 

  1. Schlussbetrachtung

Nicht unerwähnt soll die mögliche Weiterverarbeitung des Wasserstoffes zu Methan nach dem Power-to-Gas-Verfahren bleiben, den sog. E-Fuels. Schließlich läge der Vorteil in der Nutzung der bestehenden Infrastruktur (Fahrzeuge, Tankstellen, Erdgasnetz, etc.).
Der unüberbrückbare Nachteil dieses Verfahrens liegt jedoch bei einem hoffnungslosen Wirkungsgrad in der Größenordnung von deutlich unter 30%.
Hinzu kommt, dass bei der bisherigen Betrachtung von durchschnittlichen täglichen Kennzahlen in 2019 bzw. in 2050 ausgegangen wird. Es können jedoch im Winter sog. Windflauten von z.B. 14 Tagen auftreten, in denen praktisch weder Wind noch Sonne Strom erzeugen können.
Um derartige Zeiträume zu überbrücken, müssten gigantische Kapazitäten an H2-Speichern geschaffen werden mit gigantischen Verlusten und Kosten.
Im Übrigen gelten die hier durchgeführten Betrachtungen nur für die Sektoren Stromerzeugung und Verkehr, die nur für etwas mehr als 50% des CO2-Ausstosses verantwortlich zeichnen. (vgl. Bild 1)
Nun hat das Kabinett zusammen mit der Industrie am 15.07.2020 das „Handlungskonzept Stahl“ beschlossen, die Herstellung von „grünem“ Stahl.
Die Stahlkocher stehen für ein Drittel aller Treibhausgasemissionen der deutschen Industrie.
Nun sollen die Anlagen für die Stahlerzeugung von Kokskohle auf CO2-frei produzierten Wasserstoff umgerüstet werden, also auf „grünen“ Wasserstoff.
Industrievertreter veranschlagen Investitionen von 30 Milliarden €, davon 10 Milliarden € bis 2020.
Für die Umstellung auf „grünen“ Stahl ebenso wie die Umstellung der Chemieindustrie , etc. auf eine „grüne“ Produktion sind große Bedenken für die aufzubringende Energie angebracht. Der hier optimistisch angesetzte Wirkungsgrad von 63% für die Herstellung des Wasserstoffes bzw. der Energieverlust von mindestens 37% stellt gemessen am Einsatz des Kohlenstoffes vor allem im Stahlbereich eine hoffnungslose Belastung dar, von den verfahrenstechnischen Schwierigkeiten abgesehen.
Im Übrigen schätzt der Branchenverband VCI, dass sich der Strombedarf der chemischen Industrie von Mitte der 2030er Jahre an auf 628 Terawattstunden mehr als verzehnfachen würde, das wäre mehr als die gesamte Stromproduktion in Deutschland im Jahre 2018 (9), ein weiteres hoffnungsloses Unterfangen für den Ausbau der alternativen Energien oder gar die Wasserstofftechnologie.

Nun scheitert der letzte Anker zur Rettung der Energiewende durch die ausgerufene H2-Strategie hoffnungslos.
Summiert man all die deutschen ideologischen Vorstellungen der letzten Jahrjahrzehnte wie die Vorstellung vom Weltuntergang durch höhere CO2-Gehalte in der Atmosphäre, die daraus resultierende, auf der Welt einzigartige Energiewende bis hin zur Rettung der Energiewende durch die nun ausgerufene H2-Strategie, so scheint der letzte Schritt für das Ende der Erfolgsgeschichte der deutschen Industrie nun eingeläutet zu sein.
Schließlich werden Realitäten in Deutschland durch eine weitgehende grün-rote Ideologie in fast allen Parteien verdrängt, unterstützt von den Nutznießern dieser ideologischen Vorstellungen bis hin zu den Klimawissenschaftlern, die zu diesem geistigen Fundament massiv beigetragen haben.
Die deutsche Intelligenz schaut ohne Gegenwehr zu, wie Ökoideologen mit jahrelanger Propaganda den Weltuntergang durch CO2 zur Meinungshoheit hochstilisiert haben, was letztlich in dem hier beschriebenen Energie- Irrsinn mündete.
Wie schrieb kürzlich Frau Thea Dorn (1) über diese Klimawissenschaftler: „ Nicht predigen sollt ihr, sondern forschen“.

  1. Quellen
    „Zeit“, 24/2020
    2. Düsseldorfer Institut für Wettbewerbsökonomik: vgl. M. Limburg: EIKE, 10.10.2016
    3. Wissenschaftsakademien Leopoldina, Acatech und Union. FAZ 15.11.2017
    4. Wissenschaftsakademien Leopoldina, Acatech und Union: Rechnungen zur Sektorkopplung
    5. Beppler, E.: „Bevor der Planet kollabiert, versinkt Deutschland in Stromausfällen“, EIKE,23.08.2019
    6. Umweltbundesamt
    7. Beppler, E.: „Der industrielle Niedergang Deutschlands wird nun durch den Beschluss des Bundestages zum Kohleausstieg besiegelt, obwohl die Wirkung von CO2 auf den sog. Treibhauseffekt marginal ist“; EIKE,26.03.2020
    8. Beppler, E.: „Der Kohleausstieg ist im Sinne einer Absenkung des CO2-Ausstosses ein Flop – und nun wird auch noch der Hype um die E-Mobilität zum Flop – quo vadis Industrieland Deutschland“; EIKE, 06.05.2019
    9. FAZ, 21.07.2020



„Fiese Fasern“: Carbonfasern in Windkraftanlagen

Carbonfasern gelten als Werkstoff der Zukunft. Die Fasern werden mit speziellen Kunststoffen in eine Form eingebettet und dann durch Erwärmen ausgehärtet. Es entsteht ein „Supermaterial“: strapazierfähig, hochfest und dabei leichter als Stahl.

Es handelt sich bei Carbonfasern um Kohlenstofffasern, auch kurz Kohlefasern oder CFK genannt. Es handelt sich dabei um industriell gefertigte, hochfeste, (quasi endlos) lange Fasern aus kohlenstoffhaltigen Ausgangsmaterialien, die durch an den Rohstoff angepasste chemische Reaktionen in graphitartigangeordneten Kohlenstoff umgewandelt werden. Eine zweite Form von eingesetztem Kohlenstoff sind mikroskopisch dünne Röhrchen, sogenannte Nanotubes, die wegen ihrer besonders hohen Festigkeit ebenfalls zur Verstärkung in Kunststoffen verwendet werden.

Bei Bränden, mit Erreichen von Temperaturen über 650° C, verbrennen die Carbonfasern nicht vollständig, sondern sie zerlegen sich und erreichen dabei u. a. auch eine kritisch gefährliche Größe, die beim Einatmen in die Lungengefäße eindringen kann. Da auch eine Aufnahme über die Haut nicht ausgeschlossen werden kann, wird auf eine besondere Gefahrenlage und auf besonderen Vorsichtsmaßnahmen hingewiesen. In Verbindung mit der Freisetzung von diesen Carbonfasern, incl. Nanotubes wird als Schutzmaßnahme für die Feuerwehr- und Rettungseinsatzkräfte die gleiche Schutzausrüstung wie bei Unfällen mit radioaktiven Stoffen angeordnet. Somit müssen spezielle ABC-Züge der Feuerwehr und gegen chemische, biologische, radiologische, nukleare und explosive Gefahren geschützte CBRN(E)-Trupps, zum Einsatz kommen [1]. Es ist also kein Wunder, dass Carbonfasern umgangssprachlich auch „Fiese Fasern“ genannt werden.

Die Weltgesundheitsorganisation stuft die Fasern als krebsverdächtig ein. Im Gefahrstoffrecht sind sie der Kategorie 3, krebserregend zugeordnet [2]. Bereits 2012 warnte der BUND in einer Veröffentlichung vor den Gefahren, die im Brandfall von Nanotubes ausgehen [3]. 2014 griff das Bundesamt für Infrastruktur, Umweltschutz und Dienstleistung der Bundeswehr das Thema auf und warnte vor lungengängigen Carbonfaser-Bruchstücken nach Bränden [4]. Ebenfalls im Jahr 2014 griff die Deutsche Feuerwehrzeitung dieses Thema auf. Nach einem Brandversuch mit Carbonfasern konnten 90.000 Fasern je Kubikmeter Luft ermittelt werden. Jede dieser Fasern birgt das Risiko, eine erste Krebszelle zu verursachen [5].

Große Teile von Flugzeugen werden aus dem neuen Material gebaut. Auch Automobile sind mit Karosserien oder Bauteilen aus Carbonfasern (CFK) auf dem Markt. Wenn es hier zu einem Brand kommt, lässt sich die Gefahr der Faserfreisetzung örtlich lokalisiert relativ einfach mit Schaum oder anderen Bindemitteln bekämpfen. Die CFK-Fasern stecken aber auch in immer mehr Windrädern.

Genau hier schlummert eine verkannte Gefahr, da Windkraftanlagen im Brandfall wegen ihrer großen Höhe nicht löschbar sind und es so zu einer nicht beherrschbaren Emission an „Fiesen Fasern“ aus großer Höhe über einen längeren Zeitraum kommen kann. Dabei ist es nicht möglich, die Emission örtlich zu begrenzen, vielmehr bestimmt die Wetterlage die Art und Weite der Ausbreitung. Diese Tatsache bleibt bei allen bisherigen Abstandsdiskussionen hinsichtlich angrenzender Wohnbebauung oder Sperrradius der Feuerwehr unberücksichtigt! Unstrittig dürfte sein, dass der im Normalfall angelegte Sperrradius der Feuerwehr von 500 Metern um die brennende Windkraftanlage nicht ausreichend ist. Unstrittig dürfte auch sein, dass die bisherigen Mindestabstände von Wohnanlagen zu Windkraftanlagen diese Gefahr in keiner Bauvorschrift berücksichtigen.

Hierzu sagt Prof. Dr. Sebastian Eibl vom Bundesamt für Infrastruktur, Umweltschutz und Dienstleistung der Bundeswehr: „Wenn die Fasern Dimensionen dünner als drei Mikrometer erreichen und gleichzeitig eine Mindestlänge von fünf Mikrometern aufweisen, dann sind sie nach der Definition der Weltgesundheitsorganisation als krebsverdächtig eingestuft.“ Nach einem Brand verändert sich die Struktur, die Fasern werden winzig. Atmet man sie ein, können sie in die Lungengefäße eindringen und dort verbleiben. Als Reaktion können dort spezielle Tumore, ähnlich wie bei einer Asbestvergiftung, entstehen. Auch eine Aufnahme über die Haut ist möglich. Wichtig ist, dass der Körper keine Möglichkeit hat, diese Fasern auszuscheiden. Das ist der eigentliche Grund für die Gefährlichkeit der „Fiesen Fasern“[6].

Nach Auskunft des Bundeswehr-Luftwaffenkommandos wurden in Mecklenburg-Vorpommern nach dem Absturz eines Eurofighters 1.295 Tonnen ‚organoleptisch‘ belasteter, also kontaminierter Boden der fachgerechten Entsorgung zugeführt. Darüber hinaus wurden an der Absturzstelle eines Hubschraubers in Aerzen insgesamt 372 Tonnen Erde ausgehoben, in beiden Fällen wurde die Ernte auf den umliegenden Feldern vernichtet. Der Bodenaushub wurde durch einen Entsorgungsfachbetrieb abgefahren und direkt dort der Behandlung zugeführt.

Im Falle eines Brandes an einer WKA mit Carbon-Materialien werden die anfallenden Mengen an Bodenaushub um ein Vielfaches höher ausfallen, je nach kontaminierter Fläche.

Bisher konnten folgende Brände an Windkraftanlagen, bei denen eine Emission durch Fiese Fasern nicht ausgeschlossen werden kann, in Windindustriegebieten dokumentiert werden:

· am 30.03.2012 in Groß Eilsdorf, Niedersachsen;

· am 27.03.2013 in Groß-Bisdorf, Mecklenburg Vorpommern;

· am 26.06.2018 in Wrohms-Osterrade, Schleswig Holstein.

In allen drei Fällen waren Windturbinen des Typs Vestas V 112 mit 3,0 Megawatt Nennleistung betroffen. Laut Mitteilung des TÜV-Verband (VdTÜV) [7] kommt es zu rund 50 gravierenden Schäden an Windenergieanlagen pro Jahr. D.h. 3,3 % aller rund 30.000 WEA in der BRD erreichen nicht ihre Soll-Lebensdauer von 20 Jahren. Ein Großteil der Schäden ist auf Brände zurückzuführen [8].

Obwohl diese Problematik bereits seit Jahren bekannt ist, wird sie in den Genehmigungsverfahren bis heute ignoriert, und dies trotz der bekannten Warnungen. Wir stellen daher die Frage, welche Auswirkungen die ignorierten Gefahren auf die Typengenehmigung der Windkraftanlagen und die einzelnen Genehmigungsprozesse haben. Sind Abstände kleiner als das Zehnfache der Anlagenhöhe aus Aspekten des Brandschutzes überhaupt verantwortbar?

Zuletzt hat das Umweltbundesamt das Thema in Zusammenhang mit der völlig ungeklärten Entsorgungsfrage dieses Materials aufgegriffen. Inwieweit die Verwendung dieses Materials in Windkraftanlagen mit dem Bundesimmissionsschutzgesetz, welches explizit den Entsorgungsweg mit einschließt, überhaupt vereinbar ist, ist nach wie vor offen. Laut §1 Abs. 2 des Gesetzes dient es auch der „Vermeidung schädlicher Umwelteinwirkungen durch Emission in Luft, Wasser und Boden unter Einbeziehung der Abfallwirtschaft“. Ein geschlossener Stoffkreislauf wäre bei diesem Material zwingend vorzuschreiben, ist jedenfalls heute aber nicht gegeben. Dadurch sollte ein Einsatz von CFK in Windkraftanlagen unzulässig sein, denn das Kreislaufwirtschaftsgesetz (KrWG) fordert, „den Schutz von Mensch und Umwelt bei der Erzeugung und Bewirtschaftung von Abfällen sicherzustellen“.

Dass die Hersteller der Windkraftanlagen die verbauten Materialien, insbesondere die verbauten Carbonfasern, die zur Verstärkung der Rotorblätter, zur Beschichtung der Rotorblattoberflächen, als Begleitheizung in Rotorblättern zum Enteisen, in Gondelgehäusen und in Bremsbelägen zum Einsatz kommen, als Betriebsgeheimnis einstufen, mutet in diesem Zusammenhang grotesk an. Nach der REACH-Richtlinie der EU wäre dies zwingend vorgeschrieben. Daraus ergibt sich, dass auch die Genehmigungsbehörden nicht wissen, ob und welche Mengen an Carbonfaser-Verbundwerkstoffen in den jeweiligen Anlagen verbaut sind.

Lediglich Nordex gibt für seine Anlage N 117/2400 5,6 Tonnen verbaute carbonfaserverstärkte Kunststoffe (CFK) an. Zur Größenordnung: Ein Eurofighter hat ein Gesamtgewicht von 11,0 Tonnen.

Unter Berücksichtigung der genannten Sachverhalte ist eine sorgfältige Analyse der Stoffströme und der Gefährdungslage unabdingbar, um adäquate Entsorgungskonzepte gemäß BImSchG und KrWG abzuleiten.

Welchen Einfluss das fehlende Entsorgungskonzept auf Typen- und Baugenehmigungen für Windkraftanlagen hat, ist die interessante Frage. Festzuhalten ist, dass die Politik diese Frage bislang ignoriert hat. Das Kreislaufwirtschaftsgesetz wird nachweislich nicht eingehalten.

Zu klären wird nun sein, wie dieses Ignorieren von Gesetzen in die Genehmigungsabläufe für Windparks eingebracht werden kann. Viel schwerer wöge, wenn festgestellt würde, dass Windkrafthersteller, Genehmigungsbehörden, Projektierer, Verwaltungen und Betreiber strafbewehrte Fehler begangen haben, denen nachgegangen werden kann.

(1) Bundeswehrübung in Faulbach 2019 Videoübertragung SWR
https://www.facebook.com/FeuerwehrFaulbach/videos/2169664943088958/

https://www.main-echo.de/regional/kreis-miltenberg/Bundeswehruebung-in-Faulbach-Hubschrauber-stuerzt-ab-und-brennt;art3999,6674709

[2] ARD Mittagsmagazin: Wenn Carbon brennt – Achtung Gesundheitsgefahr https://www.youtube.com/watch?v=HYltgsiuobI

[3] https://www.process.vogel.de/bund-warnt-vor-risiken-durch-nanotubes-a-363781/#:~:text=Nanotubes%20BUND%20warnt%20vor%20Risiken%20durch%20Nanotubes&text=Der%20Bund%20f%C3%BCr%20Umwelt%20und,CNT)%20in%20Laufenburg%20am%20Oberrhein.

[4] Bundesamt für Infrastruktur, Umweltschutz und Dienstleistungen der Bundeswehr – Zentrale Stelle für Arbeitsschutz der Bundeswehr, Info-Brief 08/2014, „Nur in der Ausnahmesituation eines Brandes von CFK-Material ist es möglich, dass Faserbruchstücke entstehen, die von der Weltgesundheitsorganisation (WHO) als krebsverdächtig eingestuft sind. Diese Carbonfaserbruchstücke stellen, zusätzlich zu akuten Gefährdungen wie Hitzeeinwirkung und Exposition gegenüber toxischen Brandprodukten, für direkt an Brand-Unfällen beteiligte Personenkreise, z.B. Feuerwehr, Rettungskräfte oder Unfalluntersucher, eine weitere Gefährdung dar.“

[5] Sebastian Eibl und Norbert Scholz, „Besondere Gefährdung beim Abbrand von Carbon-Kunststoffen“, Brandschutz, Zeitschrift für das gesamte Feuerwehrwesen, für Rettungsdienst und Umweltschutz, 68. Jahrgang, Juni 2014: „Feuerwehrangehörige sind zwar im Einsatz durch eine Persönliche Schutzausrüstung mit umluftunabhängigem Atemschutz geschützt. Weitere Rettungskräfte bzw. unbeteiligte Personen können jedoch nach dem Löschen des Brandes ungeschützt einer Faserstaubbelastung ausgesetzt sein.“

[6] https://www.universimed.com/ch/fachthemen/gesundheitsgefaehrdung-durch-lungengaengige-kohlenstofffasern-beim-abbrand-von-carbonkunststoffen-2098532

[7] https://www.vdtuev.de/news/tuev-verband-fordert-umfassendere-sicherheitskontrollen-bei-windraedern

[8] https://www.keinewindkraftimemmertal.de Unfallliste

Der Beitrag erschien zuerst beim Deutschen Arbeitgeber Verband hier




DAS KLIMA UND SEINE RISIKEN

Die Mutter der Angst

Es geht in diesem Artikel um Risikomanagement. Das betreiben wir ganz intuitiv schon von Kindesbeinen an: Wir überlegen uns gut, ob wir dem großen Bruder einen der Schokoriegel klauen und ob wir mit Nachbars Schäferhund fangen spielen.

Das Verhalten gegenüber Risiken bestimmt ganz wesentlich unseren Charakter und den Verlauf unseres Lebens. Manche halten es für zu gefährlich, ein Flugzeug zu besteigen, andere, eine Rede zu halten.

Ratlosigkeit gegenüber Risiken erzeugt ein Gefühl, dass als Angst bezeichnet wird. Das Schüren dieser Angst durch verzerrte Darstellung von Risiken ist probates Mittel der Politik. Atomausstieg oder Corona-Lockdown wären von der Bevölkerung nicht so willig hingenommen worden, hätten Staatsfunk und Presse nicht durch schreckliche Bilder und falsche Zahlen psychologische Vorarbeit geleistet.

Dem Bürger wurde ganz dramatisch seine Hilflosigkeit vor Augen geführt. In dieser Situation würde er dann bei „Mutti“ Schutz suchen. Inzwischen sind wir aber erwachsen und sind in der Lage, mit Logik und System an das Thema Risiko heranzugehen.

 

Wahrscheinlichkeit und Schaden

Offensichtlich sind es zwei Parameter, die ein Risiko kennzeichnen: zum einen die Wahrscheinlichkeit des Eintreffens und zum anderen das Ausmaß des befürchteten Schadens. Die realistische Einschätzung von Wahrscheinlichkeit und Schaden ist nicht einfach.

So unterschiedlich diese beiden Aspekte sind, so schwer ist es, sie auseinanderzuhalten. Wir reden von „großem Risiko“, ohne zu wissen, ob wir damit die Wahrscheinlichkeit oder den Schaden meinen.

Betrachten wir Risiken im täglichen Leben:

  • Sie wollen weg, aber der Hund hat Ihren Autoschlüssel versteckt
  • Sie werden gekidnappt
  • Eine Puffotter beißt Sie ins Bein

Oder:

  • Eine Möwe lässt einen Klecks auf Ihren Kopf fallen
  • Sie kommen abends nach Hause und es ist eingebrochen worden
  • Sie erleiden einen Sportunfall

Oder:

  • In Ihrem Lieblingsrestaurant ist kein Tisch mehr frei
  • Sie erleiden einen Autounfall
  • Ihr anstrengender Lebensstil verursacht gesundheitlichen Schaden

Versuchen Sie nun, jedes Risiko nach Wahrscheinlichkeit und Schaden zu bewerten. Fragen Sie sich: „Wie schlimm wäre das, wenn es geschähe“ und „wie wahrscheinlich ist es / ist es mir schon passiert / oder anderen?“ Klassifizieren Sie nach „niedrig“, „mittel“ und „hoch“.

Sie haben es sicher gleich gesehen: Die Wahrscheinlichkeit wird von Ansatz zu Absatz größer; der Schaden wächst von Zeile zu Zeile. Das volle Restaurant etwa ist mit hoher Wahrscheinlichkeit zu erwarten, aber der Schaden ist minimal; daher klassifizieren wir dieses Risiko als hoch/niedrig.

 

Aktiv und passiv

Die Faustregel ist nun,  dass wir die Kandidaten niedrig/niedrig oder mittel/niedrig ignorieren. Wir haben nicht immer eine Million in bar dabei, um die Kidnapper auszuzahlen, wir setzen keinen Tropenhelm gegen „Bird Dropping“ auf, und dem Hund kaufen wir keinen eigenen Wagen, damit er unsere Autoschlüssel liegen lässt.

Gegen die drei Risiken hoch/hoch, hoch/mittel und mittel/hoch schützen wir uns auf jeden Fall;  alles andere wäre verantwortungslos. Nehmen wir den Autounfall: Wir fahren auf gut profilierten Reifen, die der Jahreszeit entsprechen, unser Bremssystem ist auf neuestem Entwicklungsstand und das Wageninnere mit Airbags tapeziert. Die Sicherheitsgurte brauche ich hoffentlich gar nicht zu erwähnen.

Ganz offensichtlich helfen gute Reifen und Bremsen, die Wahrscheinlichkeit eines Unfalls zu mindern, während Airbag und Gurt den Schaden verringern, falls es dann doch kracht. Minderung der Wahrscheinlichkeit ist „aktives Risikomanagement“, Minderung des Schadens „passives“.

Das Risiko Atomkraft ist übrigens vom Typ niedrig/hoch, so wie die Puffotter. Die Wahrscheinlichkeit eines Unfalls ist sehr niedrig, der Schaden wäre hoch. Der deutsche Atomausstieg, der uns als aktives Risikomanagement verkauft wurde, hat die ohnehin geringe Wahrscheinlichkeit nicht wesentlich reduziert, denn es gibt gleich nebenan noch die Reaktoren in Tihange, Fessenheim und Temelin. Der wirtschaftliche Schaden des Atomausstiegs ist allerdings gewaltig.

 

Die Macht der Angst

Die Krone der Täuschung aber trägt den Namen „Klimawandel“. Wir wollen jetzt nicht in die wissenschaftliche Diskussion des Themas einsteigen, sondern für unsere Zwecke das offizielle Narrativ akzeptieren. Auf Basis dieser – mehr als fragwürdigen – Grundlage lassen Sie uns das globale Risikomanagement der angeblich größten jemals dagewesenen Bedrohung analysieren.

In unserer Systematik wäre der Klimawandel natürlich hoch/hoch. Es ist also absolut geboten, Gegenmaßnahmen zu implementieren, um die Welt zu retten. Die weltweit beschlossene Maßnahme ist die Reduktion des von Menschen verursachten CO2 in Richtung null. Das ist „aktives Risikomanagement“, denn es verringert die Wahrscheinlichkeit des Eintretens.

Das Kyoto-Protokoll von 1992 legte die Rahmenbedingungen für diese Anstrengung fest. Seither sind die CO2-Emissionen um 50% gestiegen, trotz jährlicher Konferenzen mit Tausenden von Teilnehmern. Siehe auch https://think-again.org/corona-statt-klima/

 

Die Senkung der CO2-Konzentration in der Atmosphäre gelingt also offensichtlich nicht, sei es aus technischen, politischen oder wirtschaftlichen Gründen. Es geht einfach nicht – Punkt. Das hat man jetzt 25-mal auf gigantischen Kongressen festgestellt.

Auch die Zerstörung der Natur in Deutschland durch Windräder hat keinen Beitrag geleistet. Auch diese Medizin namens Energiewende ist wieder einmal schädlicher als die Krankheit.

 

Wo bleibt unser Airbag?

Warum also setzt man nicht passives Risikomanagement ein? Warum sorgt man nicht dafür, dass die Folgen des unausweichlichen Desasters so gering wie möglich ausfallen? Das wäre doch logisch. Und noch dazu könnten wir es unabhängig vom Rest der Welt machen! Passives Risikomanagement wäre eine lokale Angelegenheit. Aktives Risikomanagement verlangt globale Maßnahmen. Die Eindämmung von CO2 geht ja nur, wenn die ganze Welt mitmacht, denn das Zeug verteilt sich spontan über den ganzen Erdball, egal woher es kommt.

Und noch etwas: Unsere passiven Maßnahmen würden auch greifen, falls nicht die Menschheitdie Ursache für den Klimawandel wäre, sondern „jemand“ anderes!

Ein Airbag hilft ja auch, wenn der andere den Unfall verursacht hat. Die Reduzierung von CO2 aber, auch wenn sie gelänge, wäre ein sinnloses Unterfangen, wenn etwa die Sonne oder die Erdachse Schuld am Klimawandel wären. Unsere nagelneuen Reifen helfen auch nicht, wenn an der Ampel jemand auf uns auffährt. Wenn der andere schuld ist, dann helfen hoffentlich die passiven Maßnahmen: Nackenstütze oder Gurtstrammer.

 

Her mit den passiven Maßnahmen.

Die Erwärmung wird bei uns dazu führen, dass bislang unbekannte Insekten und Reptilien heimisch werden. Warum also hat man nicht längst dafür gesorgt, dass Babybetten Moskitonetze haben, um die Kleinen vor Malaria zu schützen? Warum hat man Bauernhöfe im Allgäu nicht längst gegen Hyänen und Krokodile abgesichert, die dorthin aus ihrer afrikanischen Heimat einwandern? Wann endlich wird Lübeck evakuiert, bevor es ganz im Meer versinkt? Und wo sind die Haifischnetze vor Sylt, um unsere Urlauber zu schützen?

Sie sehen, solche Maßnahmen würden der Menschheit die Absurdität der ganzen Klimahysterie zu deutlich vor Augen führen.

Vielleicht wenden Sie ein, dass man in Nordfriesland längst an den Deichen baut, um sich gegen Sturmfluten zu schützen – ein Musterbeispiel für passives Risikomanagement. Das ist wahr, und Ihr Wort „längst“ trifft den Nagel auf den Kopf: schon seit Jahrhunderten! Deiche sind und waren permanente Bauprojekte, seit Menschen auf die Idee kamen, sich an flachen Küsten anzusiedeln. Es ist wieder einmal pfiffiges Marketing der Klimajünger, dieses Projekt nun als Schutz vor Gefahren des Klimawandels zu verkaufen. Sturmfluten gab es schon immer, man lese nur die Erzählung „Der Schimmelreiter“ von Theodor Storm aus dem Jahr 1888.

Es wären die neuen, speziell gegen vermeintliche Klimarisiken gerichteten Schutzmaßnahmen, welche das ganze Klima-Narrativ ad absurdum führen würden. Im eingangs geschilderten persönlichen Risikomanagement wäre das so, als trügen Sie auf dem Kopf einen Tropenhelm, über die Schulter ein gekühltes Umhängetäschchen und an den Beinen kräftige Schaftstiefel. So kommen Sie dann morgens ins Büro und die Kollegen fragen: Na, geht’s auf Safari? Und Sie antworten ganz gelassen: Nein, aber man kann nicht vorsichtig genug sein. Der Helm schützt vor den Möwen, die Stiefel gegen Schlangenbisse und in meinem Täschchen hab ich das Serum gegen die häufigsten Reptiliengifte, ach ja, und außerdem eine Million Dollar in bar für die Kidnapper.

 

Die Bilanz

Das ist also die Situation: Sinnvolle passive Maßnahmen zum Management der Risiken durch den Klimawandel sind derzeit nicht denkbar. Die aktiven Gegenmaßnahmen aber, die ergriffen wurden, sind astronomisch teuer und haben nichts bewirkt. Die Arznei war nutzlos und schädlicher als die Krankheit.

Unter dieser Überschrift wird Angela Merkels gesamtes Wirken in die Geschichtsbücher eingehen.

 

Dieser Artikel erschien zuerst bei www.think-again.orgund im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/

 




Nutzloser und gesundheitsgefährdender Mund-Nasen-SchutzMasken sind weder wirksam noch sicher

Drucken Sie diesen Artikel aus und geben Sie ihn verängstigten Maskenträgern, die den alarmierenden Medien, Politikern und Technokraten in weißen Kitteln geglaubt haben. Masken sind erwiesenermaßen unwirksam gegen Coronaviren und potenziell schädlich für gesunde Menschen und Menschen mit Vorerkrankungen.

In den Vereinigten Staaten wie auch in anderen Ländern hat die Verwendung von Gesichtsmasken an öffentlichen Orten, auch über längere Zeiträume, in jüngster Zeit zugenommen. Die Öffentlichkeit wurde von ihren Regierungen und Masssenmedien darüber aufgeklärt, der Gebrauch von Masken könne auch dann, auch wenn man selbst nicht krank sei, vor einer Infektion mit SARS-CoV-2, dem infektiösen Erreger von COVID-19, schützen.

Ein Bericht über die von Fachkollegen überprüften medizinischen Literatur untersucht die Auswirkungen auf die menschliche Gesundheit, sowohl in immunologischer als auch in physiologischer Hinsicht. Der Zweck dieser Arbeit ist es, Daten zur Wirksamkeit von Gesichtsmasken sowie Sicherheitsdaten zu untersuchen. Der Grund dafür, dass beide in einer einzigen Abhandlung untersucht werden, liegt darin, dass für die breite Öffentlichkeit als Ganzes sowie für jeden Einzelnen eine Risiko-Nutzen-Analyse notwendig ist, um Entscheidungen darüber zu treffen, ob und wann eine Maske getragen werden soll.

Sind Masken wirksam bei der Verhinderung einer Übertragung von Atemwegserregern?

In dieser Meta-Analyse wurde festgestellt, dass Gesichtsmasken keine nachweisbare Wirkung in Bezug auf die Übertragung von Virusinfektionen haben. Es wurde festgestellt: „Im Vergleich zum Nichtragen einer Maske gab es beim Tragen einer Maske weder in der Allgemeinbevölkerung noch bei den Beschäftigten im Gesundheitswesen eine Verringerung der Fälle von grippeähnlichen Erkrankungen oder Grippe.“

Diese Meta-Analyse von 2020 ergab, dass das aus kontrollierten Studien (die mit Gesichtsmasken durchgeführt wurden) resultierende Datenmaterial keinen Beweis für einen wesentlichen Effekt auf die Übertragung der im Labor bestätigten Influenza ergaben, weder wenn sie von infizierten Personen (Quellenkontrolle) noch wenn sie von Personen aus der Allgemeinbevölkerung getragen werden. Eine Verringerung der Anfälligkeit wurde nicht festgestellt.

Eine andere kürzlich durchgeführte Untersuchung ergab, dass Masken keine spezifische Wirkung gegen Covid-19 hatten, auch wenn die Verwendung von Gesichtsmasken in drei von 31 Studien mit einer „sehr leicht verringerten“ Wahrscheinlichkeit, eine grippeähnliche Erkrankung zu entwickeln, in Verbindung gebracht wurde.

Diese 2019 durchgeführte Studie mit 2.862 Teilnehmern zeigte, dass sowohl N95-Atemschutzmasken als auch Operationsmasken „zu keinem signifikanten Unterschied in der Inzidenz der im Labor bestätigten Grippe führten“.

Eine andere, 2016 durchgeführte Meta-Analyse ergab, dass sowohl randomisierte kontrollierte Studien als auch Beobachtungsstudien zu N95-Atemschutzmasken und Operationsmasken, die von medizinischem Personal verwendet werden, keinen Nutzen gegen die Übertragung von akuten Atemwegsinfektionen zeigten. Es wurde auch festgestellt, dass eine akute Übertragung von Atemwegsinfektionen „durch die Kontamination von bereitgestellten Atemschutzgeräten während der Lagerung und Wiederverwendung von Masken und Beatmungsgeräten während des Arbeitstages stattgefunden haben könnte“.

Eine weitere, 2011 durchgeführte Meta-Analyse von 17 Studien zu Masken und ihrer Wirkung auf die Übertragung von Influenza ergab, dass „keine der Studien eine schlüssige Beziehung zwischen dem Gebrauch von Masken/Atemschutzmasken und dem Schutz vor einer Influenza-Infektion hergestellt hat“. Die Autoren spekulierten jedoch, dass die Wirksamkeit von Masken möglicherweise mit einer frühen konsistenten und korrekten Anwendung zusammenhängt.

Die Verwendung von Gesichtsmasken erwies sich im Vergleich zu Kontrollen ohne Gesichtsmaske bei medizinischem Personal ebenfalls als nicht schützend vor Erkältungen.

Luftstrom um Masken

Es wurde angenommen, dass Masken die Vorwärtsbewegung von Viruspartikeln wirksam behindern. Betrachtet man diejenigen, die neben oder hinter einem Maskenträger positioniert sind, so ist die Übertragung virusbeladener Flüssigkeitspartikel von maskierten Personen weiter fortgeschritten als von unmaskierten Personen, und zwar durch „mehrere Leckstrahlen, einschließlich intensiver Rückwärts- und Abwärtsstrahlen, die große Gefahren darstellen können“ sowie einen „potenziell gefährlichen Leckstrahl von bis zu mehreren Metern“. Es wurde davon ausgegangen, dass alle Masken den Vorwärtsluftstrom um 90 Prozent oder mehr reduzieren, als wenn keine Maske getragen wird. Die Schlieren-Bildgebung zeigte jedoch, dass sowohl chirurgische Masken als auch Tuchmasken einen weiter reichenden Brauenstrahl (ungefilterter aufwärts gerichteter Luftstrom an den Augenbrauen vorbei) hatten als ohne, 182 bzw. 203 Millimeter, im Gegensatz zu keiner Auffälligkeit beim Nichtragen einer Maske. Der rückwärts gerichtete ungefilterte Luftstrom erwies sich bei allen Maskenträgern im Vergleich zu Nicht-Maskierten als stark.

Sowohl bei N95- als auch bei chirurgischen Masken wurde festgestellt, dass ausgestoßene Partikel von 0,03 bis ein Mikron um die Ränder jeder Maske abgelenkt wurden und dass eine messbare Penetration von Partikeln durch den Filter jeder Maske erfolgte.

Durchdringung von Masken

Eine Studie mit 44 Maskenmarken ergab eine mittlere Durchdringung von 35,6 Prozent (plus 34,7 Prozent). Die meisten medizinischen Masken hatten eine Penetration von über 20 Prozent, während „allgemeine Masken und Taschentücher keine Schutzfunktion hinsichtlich der Aerosol-Filtrationseffizienz hatten“. Die Studie ergab, dass „medizinische Masken, allgemeine Masken und Taschentücher nur einen geringen Schutz gegen Atemaerosole bieten“.

Es mag hilfreich sein, sich daran zu erinnern, dass ein Aerosol eine kolloidale Suspension von flüssigen oder festen Partikeln in einem Gas ist. Bei der Atmung ist das relevante Aerosol die Suspension von bakteriellen oder viralen Partikeln im ein- oder ausgeatmeten Atem.

In einer anderen Studie lag die Durchdringung von Stoffmasken durch Partikel bei fast 97 Prozent und bei medizinischen Masken bei 44 Prozent.

N95-Atemschutzgeräte

Honeywell ist ein Hersteller von N95-Atemschutzmasken. Diese werden mit einem 0,3-Mikron-Filter hergestellt. N95-Atemschutzmasken werden deshalb so genannt, weil 95 Prozent der Partikel mit einem Durchmesser von 0,3 Mikron von der Maske mithilfe eines elektrostatischen Mechanismus gefiltert werden. Coronaviren haben einen Durchmesser von etwa 0,125 Mikrometern.

Die Meta-Analyse ergab, dass N95-Atemschutzmasken keinen besseren Schutz vor Virusinfektionen oder grippeähnlichen Infektionen bieten als Gesichtsmasken. In dieser Studie wurde festgestellt, dass N95-Atemschutzmasken bei der Passformprüfung im Vergleich zu chirurgischen Masken einen besseren Schutz boten.

Die Studie ergab, dass 624 von 714 Personen, die N95-Masken trugen, beim Aufsetzen ihrer eigenen Masken sichtbare Lücken hinterließen.

Chirurgische Masken

Eine Studie ergab, dass chirurgische Masken überhaupt keinen Schutz gegen Grippe boten. In einer anderen Studie wurde festgestellt, dass chirurgische Masken einen Penetrationsgrad von etwa 85 Prozent der aerosolisierten inaktivierten Influenza-Partikel und etwa 90 Prozent der Staphylococcus-aureus-Bakterien aufwiesen, obwohl die Staphylococcus-aureus-Partikel etwa den sechsfachen Durchmesser der Influenza-Partikel aufwiesen.

In einer Studie mit 3.088 Operationen wurde festgestellt, dass die Verwendung von Masken bei chirurgischen Eingriffen die Inzidenz von Infektionen im Vergleich zum Nicht-Maskieren leicht erhöht. Es wurde festgestellt, dass die Masken der Chirurgen keine schützende Wirkung in Bezug auf die Patienten haben.

Andere Studien fanden keinen Unterschied in der Wundinfektionsrate mit und ohne chirurgische Masken.

Eine Studie von C. DaZhou und P. Sivathondan kam zu dem Ergebnis, dass „es an substanziellen Beweisen für die Behauptung fehlt, dass Gesichtsmasken entweder den Patienten oder den Chirurgen vor infektiöser Kontamination schützen“.

Die Studie ergab, dass es bei den medizinischen Masken eine große Bandbreite an Filtrationseffizienz gibt, wobei die meisten eine Effizienz von nur 30 bis 50 Prozent aufweisen.

Insbesondere: Sind chirurgische Masken wirksam, um die Übertragung von Coronaviren beim Menschen zu stoppen? Sowohl bei den Versuchs- als auch bei den Kontrollgruppen, jeweils maskiert und unmaskiert, wurde festgestellt, dass sie „kein nachweisbares Virus in Atemwegströpfchen oder Aerosolen absondern“. In dieser Studie konnte die Infektiosität des Coronavirus, wie sie im ausgeatmeten Atem gefunden wurde, nicht bestätigt werden.

Eine Untersuchung der Aerosolpenetration zeigte, dass zwei der fünf untersuchten Operationsmasken zu 51 bis 89 Prozent von polydispersen Aerosolen durchdrungen waren.

In einer anderen Studie, die Probanden beim Husten beobachtete, „filterten weder chirurgische noch Baumwollmasken wirksam SARS-CoV-2 während des Hustens von infizierten Patienten“. Und es wurden mehr Viruspartikel auf der Außenseite als auf der Innenseite der getesteten Masken gefunden.

Tuchmasken

Es wurde festgestellt, dass Tuchmasken eine geringe Effizienz für das Blockieren von Partikeln von 0,3 Mikron und kleiner haben. Die Aerosoldurchdringung durch die verschiedenen in dieser Studie untersuchten Tuchmasken lag zwischen 74 und 90 Prozent. Ebenso lag die Filtrationseffizienz der Gewebematerialien bei lediglich drei bis 33 Prozent.

Es wurde festgestellt, dass Beschäftigte im Gesundheitswesen, die Stoffmasken tragen, ein 13-mal höheres Risiko einer grippeähnlichen Erkrankung haben als diejenigen, die medizinische Masken tragen.

Diese 1920 durchgeführte Analyse der Verwendung von Stoffmasken während der Pandemie von 1918 untersucht das Versagen von Masken, die Grippe-Übertragung zu dieser Zeit zu behindern oder zu stoppen, und kam zu dem Schluss, dass die zur Verhinderung des Eindringens von Krankheitserregern erforderliche Anzahl von Gewebelagen eine erstickende Anzahl von Lagen erfordert hätte und aus diesem Grund nicht verwendet werden konnte; es wurde außerdem das Problem der Leckageöffnungen an den Rändern von Stoffmasken nachgewiesen.

Masken gegen Covid-19

Der Leitartikel des New England Journal of Medicine zum Thema Maskengebrauch versus Covid-19 beurteilt die Angelegenheit wie folgt:

„Wir wissen, dass das Tragen einer Maske außerhalb von Gesundheitseinrichtungen, wenn überhaupt, nur wenig Schutz vor Infektionen bietet. Die Gesundheitsbehörden definieren eine signifikante Exposition gegenüber Covid-19 als persönlichen Kontakt innerhalb von sechs Fuß mit einem Patienten mit symptomatischem Covid-19, der mindestens einige Minuten lang (manche sagen, mehr als zehn Minuten oder sogar 20 Minuten) andauert. Die Chance, Covid-19 bei einer vorübergehenden Interaktion in einem öffentlichen Raum aufzufangen, ist daher minimal. In vielen Fällen ist der Wunsch nach einer weit verbreiteten Maskierung eine reflexartige Reaktion auf die Angst vor der Pandemie“.

Sind Masken sicher beim Gehen oder anderen sportlichen Betätigungen?

Chirurgische Maskenträger hatten nach einem sechsminütigen Fußmarsch eine signifikant höhere Dyspnoe als Nicht-Maskenträger.

Die Forscher sind besorgt über die mögliche Belastung des Lungen-, Kreislauf- und Immunsystems durch Gesichtsmasken bei körperlicher Aktivität, da die Sauerstoffreduktion und der Lufteinschluss den Kohlendioxidaustausch reduzieren. Als Folge der Hyperkapnie kann es zu einer Überlastung des Herzens sowie der Nieren und schlimmstenfalls sogar zur metabolischen Azidose kommen.

Risiken von N95-Atemschutzgeräten

Es wurde festgestellt, dass schwangere medizinische Fachkräfte beim Tragen von N95-Atemschutzmasken im Vergleich zu unmaskierten Kontrollpersonen einen Volumenverlust beim Sauerstoffverbrauch von 13,8 Prozent aufwiesen. Es wurde 17,7 Prozent weniger Kohlendioxid ausgeatmet. Patienten mit Nierenerkrankungen im Endstadium wurden während der Verwendung von N95-Atemschutzmasken untersucht. Ihr Sauerstoffpartialdruck (PaO2) nahm im Vergleich zu den Kontrollpersonen signifikant ab und erhöhte die Nebenwirkungen auf die Atemwege. 19 Prozent der Patienten entwickelten während des Tragens der Masken verschiedene Grade von Hypoxämie.

Die N95-Atemschutzmasken des Gesundheitspersonals wurden mit persönlichen Bioaerosol-Messgeräten auf die Beherbung von Influenzaviren untersucht. Und bei 25 Prozent der Gesichtsmasken von Beschäftigten des Gesundheitswesens wurde in einer Notaufnahme während der Grippesaison 2015 festgestellt, dass sie Influenza enthielten.

Risiken von chirurgischen Masken

Die chirurgischen Masken der Beschäftigten des Gesundheitswesens wurden ebenfalls mit persönlichen Bioaerosol-Probennehmern auf Influenzaviren untersucht.

Auf der Außenfläche gebrauchter medizinischer Masken wurden verschiedene Atemwegserreger gefunden, die zu einer Selbstkontamination führen könnten. Es wurde festgestellt, dass das Risiko bei längerer Dauer der Maskenbenutzung höher ist.

Es wurde auch festgestellt, dass chirurgische Masken ein Lager für bakterielle Kontamination sind. Als Quelle der Bakterien wurde die Körperoberfläche der Chirurgen und nicht die Umgebung des Operationssaals ermittelt. Angesichts der Tatsache, dass Chirurgen bei Operationen von Kopf bis Fuß bekleidet sind, sollte dieser Befund besonders für Laien, die Masken tragen, bedenklich sein. Ohne die Schutzkleidung von Chirurgen haben Laien im Allgemeinen eine noch exponiertere Körperoberfläche, die als Quelle für Bakterien dient, die sich auf ihren Masken ansammeln.

Risiken von Stoffmasken

Beschäftigte im Gesundheitswesen, die Stoffmasken trugen, wiesen nach vier Wochen ununterbrochener Anwendung am Arbeitsplatz im Vergleich zu den Kontrollen signifikant höhere Raten grippeähnlicher Erkrankungen auf.

Die erhöhte Infektionsrate bei Maskenträgern kann auf eine Schwächung der Immunfunktion während der Maskenanwendung zurückzuführen sein. Es hat sich gezeigt, dass Chirurgen nach Operationen, die sogar nur 30 Minuten dauern, eine geringere Sauerstoffsättigung haben. Niedriger Sauerstoff induziert Hypoxie-induzierbaren Faktor 1 Alpha (HIF-1). Dadurch werden wiederum CD4+-T-Zellen herunterreguliert. CD4+-T-Zellen wiederum sind für die virale Immunität notwendig.

Abwägen von Risiken und Nutzen der Maskenanwendung

Im Sommer 2020 erleben die Vereinigten Staaten einen Anstieg des Maskengebrauchs in der Bevölkerung, der häufig von den Medien, politischen Führern und Prominenten propagiert wird. Selbstgemachte und im Laden gekaufte Stoffmasken und chirurgische Masken oder N95-Masken werden von der Öffentlichkeit vor allem beim Betreten von Geschäften und anderen öffentlich zugänglichen Gebäuden verwendet. Manchmal werden auch Halstücher oder Schals verwendet. Die Verwendung von Gesichtsmasken, ob Tuch, chirurgische Masken oder N95-Masken, stellt ein geringes Hindernis für aerosolisierte Krankheitserreger dar, wie wir aus den Meta-Analysen und anderen Studien in diesem Papier erkennen können, da sie sowohl die Übertragung von aerosolisierten Krankheitserregern auf andere Personen in verschiedene Richtungen als auch die Selbstkontamination ermöglichen.

Es muss auch berücksichtigt werden, dass Masken die für einen adäquaten Sauerstoffaustausch erforderliche Lufteintrittsmenge behindern, was zu den beobachteten physiologischen Effekten führt, die unerwünscht sein können. Schon sechsminütige Spaziergänge, ganz zu schweigen von anderen anstrengenderen Aktivitäten, führten zu Atemnot. Die normale Menge Sauerstoff in einem Atemzug beträgt etwa 100 Milliliter, die für normale physiologische Prozesse verwendet wird. 100 Milliliter O2 übersteigt bei Weitem das Volumen eines Erregers, das für die Übertragung erforderlich ist.

Die vorstehenden Daten zeigen, dass Masken eher als Instrumente zur Obstruktion der normalen Atmung und nicht als wirksame Barrieren gegen Krankheitserreger dienen. Daher sollten Masken nicht von der Allgemeinheit, weder von Erwachsenen noch von Kindern, verwendet werden, und ihre Einschränkungen bei der Prophylaxe gegen Krankheitserreger sollten auch in medizinischen Einrichtungen in Betracht gezogen werden.

Patrick Wood ist Herausgeber und Chefredakteur der Website technocracy.news. Er verfasste zusammen mit dem verstorbenen Historiker Antony C. Sutton das zweibändige „Trilaterals over America“. Wood schreibt regelmäßig über die Gefahren der heraufziehenden globalen Technokratie.

Dieser Artikel erschien zuerst auf der Seite Technocracy News & Trends und wurde von Axel B. C. Krauss exklusiv für eigentümlich frei ins Deutsche übersetzt.

Mit freundlicher Genehmigung von eigentümlich frei wo der Beitrag zuerst in Deutsch erschien hier

Quellen

Endnotes

1  T Jefferson, M Jones, et al. Physical interventions to interrupt or reduce the spread of respiratory viruses. MedRxiv. 2020 Apr 7.

https://www.medrxiv.org/content/10.1101/2020.03.30.20047217v2

2  J Xiao, E Shiu, et al. Nonpharmaceutical measures for pandemic influenza in non-healthcare settings – personal protective and environmental measures.  Centers for Disease Control. 26(5); 2020 May.

https://wwwnc.cdc.gov/eid/article/26/5/19-0994_article

3  J Brainard, N Jones, et al. Facemasks and similar barriers to prevent respiratory illness such as COVID19: A rapid systematic review.  MedRxiv. 2020 Apr 1.

https://www.medrxiv.org/content/10.1101/2020.04.01.20049528v1.full.pdf

4  L Radonovich M Simberkoff, et al. N95 respirators vs medical masks for preventing influenza among health care personnel: a randomized clinic trial.  JAMA. 2019 Sep 3. 322(9): 824-833.

https://jamanetwork.com/journals/jama/fullarticle/2749214

5  J Smith, C MacDougall. CMAJ. 2016 May 17. 188(8); 567-574.

https://www.cmaj.ca/content/188/8/567

6  F bin-Reza, V Lopez, et al. The use of masks and respirators to prevent transmission of influenza: a systematic review of the scientific evidence. 2012 Jul; 6(4): 257-267.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5779801/

7  J Jacobs, S Ohde, et al.  Use of surgical face masks to reduce the incidence of the common cold among health care workers in Japan: a randomized controlled trial.  Am J Infect Control. 2009 Jun; 37(5): 417-419.

https://pubmed.ncbi.nlm.nih.gov/19216002/

8  M Viola, B Peterson, et al. Face coverings, aerosol dispersion and mitigation of virus transmission risk.

https://arxiv.org/abs/2005.10720https://arxiv.org/ftp/arxiv/papers/2005/2005.10720.pdf

9  S Grinshpun, H Haruta, et al. Performance of an N95 filtering facepiece particular respirator and a surgical mask during human breathing: two pathways for particle penetration. J Occup Env Hygiene. 2009; 6(10):593-603.

https://www.tandfonline.com/doi/pdf/10.1080/15459620903120086

10 H Jung, J Kim, et al. Comparison of filtration efficiency and pressure drop in anti-yellow sand masks, quarantine masks, medical masks, general masks, and handkerchiefs. Aerosol Air Qual Res. 2013 Jun. 14:991-1002.

https://aaqr.org/articles/aaqr-13-06-oa-0201.pdf

11  C MacIntyre, H Seale, et al. A cluster randomized trial of cloth masks compared with medical masks in healthcare workers.  BMJ Open. 2015; 5(4)

https://bmjopen.bmj.com/content/5/4/e006577.long

12  N95 masks explained. https://www.honeywell.com/en-us/newsroom/news/2020/03/n95-masks-explained

13  V Offeddu, C Yung, et al. Effectiveness of masks and respirators against infections in healthcare workers: A systematic review and meta-analysis.  Clin Inf Dis. 65(11), 2017 Dec 1; 1934-1942.

https://academic.oup.com/cid/article/65/11/1934/4068747

14  C MacIntyre, Q Wang, et al. A cluster randomized clinical trial comparing fit-tested and non-fit-tested N95 respirators to medical masks to prevent respiratory virus infection in health care workers. Influenza J. 2010 Dec 3.

https://onlinelibrary.wiley.com/doi/epdf/10.1111/j.1750-2659.2011.00198.x?fbclid=IwAR3kRYVYDKb0aR-su9_me9_vY6a8KVR4HZ17J2A_80f_fXUABRQdhQlc8Wo

15  M Walker. Study casts doubt on N95 masks for the public. MedPage Today. 2020 May 20.

https://www.medpagetoday.com/infectiousdisease/publichealth/86601

16  C MacIntyre, Q Wang, et al. A cluster randomized clinical trial comparing fit-tested and non-fit-tested N95 respirators to medical masks to prevent respiratory virus infection in health care workers. Influenza J. 2010 Dec 3.

https://onlinelibrary.wiley.com/doi/epdf/10.1111/j.1750-2659.2011.00198.x?fbclid=IwAR3kRYVYDKb0aR-su9_me9_vY6a8KVR4HZ17J2A_80f_fXUABRQdhQlc8Wo

17  N Shimasaki, A Okaue, et al. Comparison of the filter efficiency of medical nonwoven fabrics against three different microbe aerosols. Biocontrol Sci.  2018; 23(2). 61-69.

https://www.jstage.jst.go.jp/article/bio/23/2/23_61/_pdf/-char/en

18  T Tunevall. Postoperative wound infections and surgical face masks: A controlled study. World J Surg. 1991 May; 15: 383-387.

https://link.springer.com/article/10.1007%2FBF01658736

19  N Orr. Is a mask necessary in the operating theatre? Ann Royal Coll Surg Eng 1981: 63: 390-392.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2493952/pdf/annrcse01509-0009.pdf

20  N Mitchell, S Hunt. Surgical face masks in modern operating rooms – a costly and unnecessary ritual?  J Hosp Infection. 18(3); 1991 Jul 1. 239-242.

https://www.journalofhospitalinfection.com/article/0195-6701(91)90148-2/pdf

21  C DaZhou, P Sivathondan, et al. Unmasking the surgeons: the evidence base behind the use of facemasks in surgery.  JR Soc Med. 2015 Jun; 108(6): 223-228.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4480558/

22  L Brosseau, M Sietsema. Commentary: Masks for all for Covid-19 not based on sound data. U Minn Ctr Inf Dis Res Pol. 2020 Apr 1.

https://www.cidrap.umn.edu/news-perspective/2020/04/commentary-masks-all-covid-19-not-based-sound-data

23  N Leung, D Chu, et al. Respiratory virus shedding in exhaled breath and efficacy of face masks Nature Research.  2020 Mar 7. 26,676-680 (2020).

https://www.researchsquare.com/article/rs-16836/v1

24  S Rengasamy, B Eimer, et al. Simple respiratory protection – evaluation of the filtration performance of cloth masks and common fabric materials against 20-1000 nm size particles. Ann Occup Hyg. 2010 Oct; 54(7): 789-798.

https://academic.oup.com/annweh/article/54/7/789/202744

25  S Bae, M Kim, et al. Effectiveness of surgical and cotton masks in blocking SARS-CoV-2: A controlled comparison in 4 patients.  Ann Int Med. 2020 Apr 6.

https://www.acpjournals.org/doi/10.7326/M20-1342

26  S Rengasamy, B Eimer, et al. Simple respiratory protection – evaluation of the filtration performance of cloth masks and common fabric materials against 20-1000 nm size particles. Ann Occup Hyg. 2010 Oct; 54(7): 789-798.

https://academic.oup.com/annweh/article/54/7/789/202744

27  C MacIntyre, H Seale, et al. A cluster randomized trial of cloth masks compared with medical masks in healthcare workers.  BMJ Open. 2015; 5(4)

https://bmjopen.bmj.com/content/5/4/e006577.long

28  W Kellogg. An experimental study of the efficacy of gauze face masks. Am J Pub Health. 1920.  34-42.

https://ajph.aphapublications.org/doi/pdf/10.2105/AJPH.10.1.34

29  M Klompas, C Morris, et al. Universal masking in hospitals in the Covid-19 era. N Eng J Med. 2020; 382 e63.

https://www.nejm.org/doi/full/10.1056/NEJMp2006372

30  E Person, C Lemercier et al.  Effect of a surgical mask on six minute walking distance.  Rev Mal Respir. 2018 Mar; 35(3):264-268.

https://pubmed.ncbi.nlm.nih.gov/29395560/

31  B Chandrasekaran, S Fernandes.  Exercise with facemask; are we handling a devil’s sword – a physiological hypothesis. Med Hypothese. 2020 Jun 22. 144:110002.

https://pubmed.ncbi.nlm.nih.gov/32590322/

32  P Shuang Ye Tong, A Sugam Kale, et al.  Respiratory consequences of N95-type mask usage in pregnant healthcare workers – A controlled clinical study.  Antimicrob Resist Infect Control. 2015 Nov 16; 4:48.

https://pubmed.ncbi.nlm.nih.gov/26579222/

33  T Kao, K Huang, et al. The physiological impact of wearing an N95 mask during hemodialysis as a precaution against SARS in patients with end-stage renal disease.  J Formos Med Assoc. 2004 Aug; 103(8):624-628.

https://pubmed.ncbi.nlm.nih.gov/15340662/

34  F Blachere, W Lindsley et al. Assessment of influenza virus exposure and recovery from contaminated surgical masks and N95 respirators. J Viro Methods.  2018 Oct; 260:98-106.

https://pubmed.ncbi.nlm.nih.gov/30029810/

35  A Rule, O Apau, et al. Healthcare personnel exposure in an emergency department during influenza season.  PLoS One. 2018 Aug 31; 13(8): e0203223.

https://pubmed.ncbi.nlm.nih.gov/30169507/

36  F Blachere, W Lindsley et al. Assessment of influenza virus exposure and recovery from contaminated surgical masks and N95 respirators. J Viro Methods.  2018 Oct; 260:98-106.

https://pubmed.ncbi.nlm.nih.gov/30029810/

37  A Chughtai, S Stelzer-Braid, et al.  Contamination by respiratory viruses on our surface of medical masks used by hospital healthcare workers.  BMC Infect Dis. 2019 Jun 3; 19(1): 491.

https://pubmed.ncbi.nlm.nih.gov/31159777/

38  L Zhiqing, C Yongyun, et al. J Orthop Translat. 2018 Jun 27; 14:57-62.

https://pubmed.ncbi.nlm.nih.gov/30035033/

39  C MacIntyre, H Seale, et al. A cluster randomized trial of cloth masks compared with medical masks in healthcare workers.  BMJ Open. 2015; 5(4)

https://bmjopen.bmj.com/content/5/4/e006577

40  A Beder, U Buyukkocak, et al. Preliminary report on surgical mask induced deoxygenation during major surgery. Neurocirugia. 2008; 19: 121-126.

http://scielo.isciii.es/pdf/neuro/v19n2/3.pdf

41  D Lukashev, B Klebanov, et al. Cutting edge: Hypoxia-inducible factor 1-alpha and its activation-inducible short isoform negatively regulate functions of CD4+ and CD8+ T lymphocytes. J Immunol. 2006 Oct 15; 177(8) 4962-4965.

https://www.jimmunol.org/content/177/8/4962

42  A Sant, A McMichael. Revealing the role of CD4+ T-cells in viral immunity.  J Exper Med. 2012 Jun 30; 209(8):1391-1395.




Masse statt Klasse – Die Antwort der Bundesregierung auf eine Kleine Anfrage der AfD, welche IPCC kritischen Wissenschaftler sie zur Beratung hinzugezogen hätte.

Wissenschaftlichen Marxismus – Leninismus als Lehrmeister

Die Theorie des wissenschaftlichen Marxismus – Leninismus wurde (und wird) auf der ganzen Welt gelehrt, war im Ostblock Staatsdoktrin und wurde von tausenden von Wissenschaftlern tagtäglich durch neue Belege und Beweise bereichert. Sie erwies sich indes nicht einmal als falsch, sondern als Nicht-Wissenschaft, allein aus Ideologie bestehend. Aber menschgemacht versteht sich.

Doch selbst unter den Gelehrten, die dieser Ideologie anhingen, gab und gibt es – bis heute – Streit über den rechten Weg. Deswegen hätte eine Umfrage oder Literaturstudie unter den sicher hunderttausenden von Studien – allesamt peer reviewed – zwar sehr hohe Zustimmungsraten, aber niemals von fast 100 % gefunden,

Diese Zustimmungsrate bleibt der Hypothese vom menschgemachten Klimawandel vorbehalten, wie die Bundesregierung gerade wieder mal verkündete.

Denn geht es nach ihr, dann würden 99,94 % „allesamt von Fachkollegen und Fachkolleginnen geprüfte (peer reviewed) wissenschaftliche Artikel(n)“, und nur die von 1991 bis 2015, die Hypothese vom menschgemachten Klimawandel, der zudem wie es im Mandat des IPCC festgehalten wird, riskant sei, „bejahen“.

Doch, das schreibt Bundesregierung tatsächlich, 99,94 % und bezieht sich dabei auf die Meta-Studie eines James Powell von 2016.  Den Anlass dazu gab eine Kleine Anfrage der AfD Fraktion vom 6.Juli 2020, welche die Fragen der NGO Klimafragen.org wohl der Reihe nach der Bundesregierung in Form „Kleiner Anfragen“ vorlegt.

Die Antwort der Bundesregierung auf eine Kleine Anfrage

In dieser Kleinen Anfrage wurden nur zwei Fragen gestellt:

  1. Sind der Bundesregierung der U.S. Senate Minority Report, die Eingabe an den damaligen US-Präsidenten Barack Obama, der Offene Brief an UN- Generalsekretär Ban Ki-Moon, die Petition an den US-Präsidenten Donald Trump oder die jüngst erfolgte Eingabe im Namen von 500 Wissenschaft- lern an den UN-Generalsekretär Antonio Guterres mit ihren Inhalten bekannt (sämtliche Dokumente vgl. Vorbemerkung der Fragesteller)?
  1. Wen hat die Bundesregierung zu ihrem eigenen Verständnis und zu ihrer Auseinandersetzung mit Klimafachveröffentlichungen, die die Hypothese vom gefährlichen menschgemachten Klimawandel ablehnen oder den menschlichen Beitrag als weniger entscheidend einstufen, für ihre Entscheidungsfindung konsultiert?

In Ihrer Antwort, die seit dem 16.7.20 vorliegt und im Internet abrufbar ist (hier) schrieb die Bundesregierung zu Frage 1:

„Der Bundesregierung sind genannte Schriftstücke bekannt.“

Und zu Frage 2 zwar einen längeren Sermon – auf den ich gleich noch ein wenig eingehen werde- der zusammengefaßt aber sinngemäß lautet:

„Keinen“

Das war´s, aber noch nicht ganz. Denn in diesem längeren Sermon verteidigte sich die Bundesregierung mit der Behauptung, dass ja das IPCC schon alles erforscht und geprüft hätte, und zu 95 bis 100 % „ äußerst wahrscheinlich“ sei, dass der Mensch den Klimawandel verursache und weil „die Berichte des IPCC beruhen auf tausenden von Veröffentlichungen aus aller Welt und zehntausenden von Gutachterkommentaren“ die „ausgewogen, verlässlich und vollständig“ seien, es kein Bedarf mehr an anderen evtl. abweichenden wissenschaftlichen Meinung gäbe.

Das IPCC ist wohl zu befangen und kann allein nicht zur Rechtfertigung dienen

Doch weil Ihr selber diese Darstellung wohl auch zu dürftig vorkam, schließlich folgt das IPCC bekannterweise nur seinem strikten Mandat, nachzuweisen, dass der Klimawandel menschgemacht und riskant sein, verwies sie im Folgenden auf die Metastudie des James Powell von 2016, dass 99,94 % von 54.195 der von „Fachkollegen und Fachkolleginnen geprüften (per reviewed) wissenschaftliche Artikel aus dem Zeitraum von 1991 bis 2015“ den menschengemachten Klimawandel bejahen würden.

Abgesehen von der Tatsache, dass selbst zu Sowjet- bzw. DDR Zeiten eine solche  Zustimmungsrate, s.o. auch unter „Wissenschaftlern“ des Marxismus-Leninismus ungewöhnlich hoch gewesen wäre, also in diesem Fall zu einer echten Pseudowissenschaft, wobei die Zustimmungsverweigerung auch noch ganz praktisch schwer sanktioniert wurde, ist diese Aussage der Bundesregierung auch sachlich falsch.

Denn der Studienautor James Powell suchte nicht nach der Zustimmung der Studienautoren – ebenso fälsch als Bejahung der Hypothese vom menschengemachten Klimawandel interpretiert-, sondern nach der vermuteten Ablehnung dieser Hypothese. Und das auch nicht in den viele Seiten umfassenden Studien selber, sondern allein in deren Zusammenfassungen (Abstracts).

Und er suchte auch nicht in Studien zu den Ursachen des Klimawandels, sondern zu allen Studien in denen die Suchwörter „Global Warming“ und „Climate Change“ vorkamen. Deshalb findet er hauptsächlich Arbeiten, die gar nicht nach den Ursachen der Erderwärmung fragen, und übersieht dabei viele, die danach fragen. Aber auch darin sucht er nicht danach, ob die „Bejahung“ der Hypothese von der menschgemachten Erwärmung  expressiv verbis erklärt wäre, sondern allein darauf, ob das Wort „reject“ (zurückweisen) vorkäme.

Da er überdies nicht weiß, was und in welchem Umfang „reject“ also zurückgewiesen wurde, erweist sich seine Meta-Studie, mit der die Bundesregierung ihre Verweigerung begründet, nur als wissenschaftlicher Betrug. Als Pseudowissenschaft. Ebenso hätte er nach einem Abzählreim wie eene, meene, muh suchen können, bzw. dessen Rückweisung. Es wäre auf dasselbe hinaus gekommen.

 

Nach der Betrugs-Masche Powell als richtig zu erkennende Hypothesen

Wäre sie es nicht so, kann mit Fug und Recht, als durch Fachliteratur bestätigte Hypothesen, ebenso bewiesen, feststellen:

  1. Die Regierung Merkel hat das Ziel, die deutsche Wirtschaft zu zerstören und Armut herbeizuführen.
  2. Die UN ist ein kommunistisches Regime, das den vermeintlich menschengemachten Klimawandel nutzt, um Armut herbeizuführen.
  3. Unter den Parteien des Bundestages herrscht Konsens darüber, dass ihr Daseinszweck in Korruption und Selbstbereicherung besteht.

Alle 3 Hypothesen wurden durch den Soziologen Michael Klein nach der Methode Powell mit deutlich über 97 % bestätigt. Dabei wurden für die Hypothese 1 über 49.000 wissenschaftliche Studien überprüft, für die Hypothese 2 über 420.000  und für die Hypothese 3 immer noch 373 Arbeiten.[1]

 

Ein Irrtum wird zur Lüge, wenn er bewusst beibehalten und nicht korrigiert wird.

In seiner Rede vor dem Plenum am 12.9.19 wies der AfD Abgeordnete Hilse die Bundesregierung auf diesen Wissenschaftsbetrug des James Powell hin. Und gab ihr so Gelegenheit sich zu korrigieren, bzw. in diesem Fall auch zu distanzieren. Doch die Reaktion der Bundesregierung war so wie oben beschrieben. Und damit erkennt sie automatisch auch die Richtigkeit der oben aufgeführten drei Hypothesen an.  Millionen Fliegen können eben nicht irren.

Bleibt nachzutragen, dass auch ein tragisch komischer Teil in der Antwort vorkommt. Das sei hier noch kurz erwähnt.

Obwohl die Bundesregierung direkt nach Konsultationen, die sie durchgeführt hat, gefragt wurde, verweist sie zu ihrer Entlastung auf den Fachvortrag des Sachverständigen Prof. Dr. Nir Shaviv im Umweltausschuss – übrigens auf Vorschlag der AfD – anlässlich des öffentlichen Fachgespäches im November 2018.

Zitat  Dabei werden im Umweltausschuss des Deutschen Bundestages unterschiedliche Perspektiven angehört; so wie die von Nir Shaviv, auf den auch im U.S. Senate Minority Report ver- wiesen wird (vgl. S. 97 f.). Er nahm zur Klimakonferenz der Vereinten Nationen im Jahr 2018 an einem öffentlichen Fachgespräch teil und hatte dabei Gelegenheit seine Zweifel am menschengemachten Klimawandel öffentlichkeits- wirksam zu äußern (siehe www.bundestag.de/dokumente/textarchiv/2018/kw4 8-pa-umwelt-klima-578906).

Zitatende

Und führt damit gezielt in die Irre, bzw. betreibt damit wieder Etikettenschwindel, denn an diesem, ausschließlich von den Parlamentariern veranstaltetem Fachgespräch, nahm zwar der unbedarfte Florian Pronold als Mitglied der Regierung teil, hütete sich aber wohlweislich auch nur eine einzige Frage zu stellen, und machte eher den Eindruck nicht anwesend zu sein, wohl aber wurde Prof. Shaviv in ungebührlicher Weise und entgegen aller wissenschaftlichen Tradition, von seinem Kollegen Prof. Levermann verbal niedergemacht, ohne sich dafür einen Ordnungsruf seitens der Vorsitzenden (Grüne) Frau Kottig -Uhl einzuhandeln.

Das also war die „Konsultation“, welche die Bundesregierung uns unterjubeln will. Sehen Sie hier das Video dazu.

Dieser Text wurde unter Verwendung von Teilen (hier und hier und hier) einiger früheren EIKE News erstellt.

[1] Quelle Quelle mit weiteren Details dazu: https://eike.institute/2019/09/01/unabweisbare-schlussfolgerung-nach-vorgabe-der-bundesregierung-975-wissenschaftler-konsens-merkel-ruiniert-deutsche-wirtschaft/

 




Bericht zur Coronalage 23.07.2020: Massentests und künstliche Wellen

Seit Jahrzehnten gehen wir mit solchen Grippewellen um, ohne in Panik zu verfallen und ganze Länder durch Lockdowns schwer zu beschädigen. Im Gegenteil, es gibt immer mehr Hinweise, dass der Lockdown selbst in beträchtlicher Zahl Todesopfer fordert. Es fällt auf, dass die Infektionszahlen schon vor dem Lockdown rückläufig waren, aber dennoch die Übersterblichkeit genau mit dem Verhängen des Lockdowns beginnt.

Vielleicht auch deshalb, weil wir seit Monaten so tun, als gäbe es nur eine Erkrankung und die Behandlung anderer viel schwerer Krankheiten behindern oder verzögern.

Es geht schon lange nicht mehr um Gesundheit

Dennoch wird weiter die Angst geschürt.  Doch wer immer noch öffentlich fordert, Corona sei eine außergewöhnliche Bedrohung, die es weiter durch Schutzmaßnahmen von Masken bis Lockdown einzudämmen gilt, den treibt eine ganz andere Agenda an, die mit allem möglichen zu tun hat, aber ganz sicher nicht mit der Sorge um die öffentliche Gesundheit: das Rennen um die apokalyptischste Schlagzeile; die Angst, als Verharmloser von solchen Schlagzeilen politisch beschädigt zu werden. Sicher auch Fantasien, die künstliche Aufrechterhaltung eines permanenten Notstands undemokratisch für ökonomische wie politische Eigenzwecke zu nutzen. Oder vielleicht auch schlicht die Angst vor dem Eingeständnis, falsch gehandelt zu haben. Besonders perfide ist, dass die für diese Angststrategie Verantwortlichen letztlich die dadurch verursachte Beschädigung der psychischen und physischen Gesundheit der Menschen in Kauf nehmen.

Der Missbrauch unschuldiger Testergebnisse

Und dennoch wird weiter so getan, als stünden wir kurz vor einer zweiten Welle und damit vor dem Abgrund. Als Beweis gelten die täglichen Meldungen über hunderte Neuinfektionen. Man möchte das Wort Fake-News nicht mehr in den Mund nehmen, zu inflationär wird es nur noch als K(r)ampfbegriff benutzt. Aber wer ein eindrückliches Beispiel für den dilettantischen wie intentiösen Umgang mit Daten sucht, der findet es im aktuellen Umgang mit den Corona-Testergebnissen.

Um dies zu verstehen, muss man ein wenig über die grundsätzlichen Grenzen solcher Testungen Bescheid wissen. Es ist einfach zu verstehen. Das Kernproblem der aktuellen Testsituation lautet: falsch positive Fälle bei niedriger Prävalenz. Wie hier auch hinreichend dargestellt, verfälscht dieser immer vorhandene und nie gänzlich zu eliminierende Fehler eines Virusnachweises per Test das Ergebnis umso stärker, je mehr Tests negativ ausfallen. Je niedriger also der Anteil der tatsächlich Infizierten innerhalb der getesteten Gruppe ist.

Dazu ein Gedankenspiel: Stellen Sie sich zwei Städte vor.

In der ersten Stadt leben Menschen, die mit dem SARS-CoV-2 infiziert sind. Sagen wir 50 Prozent. In dieser Stadt leben dann auch weitere 50 Prozent nicht infizierte Einwohner. Von den zweiten 50 Prozent zeigen immer 1 Prozent ein falsch positives Ergebnis. Die Gesamtrate der falsch positiven ist dann auch um die Hälfte kleiner, weil ja die eine Hälfte schon richtig positiv ist. Sie reduziert sich deshalb um die Hälfte auf 0,5 Prozent. Und da bereits 50 Prozent der Einwohner positiv sind, verfälschen diese 0,5 Prozent das Gesamtergebnis kaum

Nun zur zweiten Stadt. In dieser leben nur noch Menschen, die kein SARS-CoV-2 in sich tragen. Die Rate von 1 Prozent falsch positiven Tests ist deshalb auf alle Einwohner anzuwenden, beträgt also auch insgesamt 1 Prozent. Und da niemand richtig positiv ist, bestehen in diesem Fall alle (!) positiven Testergebnisse in Wirklichkeit aus falsch positiven Fällen. Hier verfälscht die Rate an falsch positiven das Ergebnis maximal, da ja in Wirklichkeit niemand infiziert ist.

(Der Vollständigkeit halber sei erwähnt, dass ebenfalls das Problem der falsch negativen Testergebnisse existiert. Dieses spielt in Stadt 1 mit hoher Prävalenz eine bedeutende Rolle, also bei hoher Infektionsrate, aber – und das ist wichtig – nicht in Stadt 2 mit niedriger Prävalenz, also wenn kaum noch jemand infiziert ist.)

Wenn man nun wissen möchte, wie viele infizierte Einwohner sich in einer Stadt befinden, dann testet man eine Stichprobe. In dieser misst man, wie viele sind positiv, und wie viele sind negativ. Dabei gilt, je größer die Stichprobe, desto mehr Testungen, desto mehr positive Einwohner werde ich messen können. So wie in einem größeren Netz auch mehr Fische gefangen werden. Und je repräsentativer die Stichprobe, desto besser lassen sich die Ergebnisse auf die gesamte Stadt übertragen. Ein Vorgehen, welches zu Beginn der Epidemie hochgradig Sinn gemacht hätte, welches jedoch nur Professor Hendrik Streeck auf eigene Initiative durchgeführt hat. Das RKI zeigte Arbeitsverweigerung.

Kann man falsch positive Ergebnisse ausschließen?

Nun die derzeit vielleicht wichtigste Frage bezüglich der Deutung der Testergebnisse in Deutschland. Wie viele der derzeit gemeldeten „Infizierten“ beruhen auf falsch positiven Ergebnissen, also einem Fehlalarm? Die Frage, wie häufig ein bestimmter Test falsch positive Ergebnisse produziert, lässt sich in einer Gruppe ohne Infizierte leicht beantworten (bei allerdings realem, hohem Aufwand). Man muss eine ausreichend hohe Zahl an Placeboproben, die kein Virus enthalten, an die Labore senden und feststellen, wie viele davon als positiv zurückgemeldet werden, obwohl sie das Virus nicht enthalten. Die Gründe dafür können vielfältig sein: Fehler der Messmethode, der Messapparate, Verwechslungen, Verunreinigungen und dergleichen. Daraus kann man dann in Prozent die Rate an falsch positiven Testergebnissen errechnen.

In dem inzwischen öfters zitierten ersten Ringversuch im Auftrag der Deutschen Akkreditierungsstelle kam man dabei auf 1,4 Prozent. Und das auf der Basis von 983 Messungen. Sicher zu wenig angesichts dessen, dass an diesem Ringversuch 112 Labore beteiligt waren. Aber wegwischen kann man diese 1,4 Prozent ganz sicher nicht. Ein neuer Ringversuch läuft derzeit, und die Ergebnisse sollen Ende Juli veröffentlicht werden. Dieser Ringversuch zeigte zusätzlich noch die Möglichkeit falsch positiver Ergebnisse bezüglich SARS-CoV-2, weil der Test auch auf andere harmlosere Coronaviren anspricht. Ebenfalls als gesichert gilt, dass Menschen mit durchgemachter Infektion weiter Trümmer von SARS-CoV-2 Viren in sich tragen, auf die der Test ebenfalls positiv anspricht. Solche Getesteten gelten dann als infektiös, obwohl sie es schon lange nicht mehr sind.

Insgesamt betrachtet, macht es sehr viel Sinn, von einer falsch positiven Rate von einem Prozent auszugehen. Das bedeutet: Wenn in der Gesamtheit aller Tests derzeit das RKI stets um die 1 Prozent positive Testergebnisse feststellt, die die Medien dann irreführenderweise und unwidersprochen als 1 Prozent Infizierte bezeichnen, dann dürfte ein Großteil dieser „Infizierten“ in Wirklichkeit das Virus gar nicht in sich tragen.

Wie groß ist das Netz?

Das Städtebeispiel zeigt, in jeder Stadt – ganz egal, wo und wann, selbst im keimfreien Weltall – werde ich positive Testergebnisse generieren, ganz unabhängig davon, ob Viren vorhanden sind oder nicht. Und diese Zahl lässt sich dann beliebig steigern, einfach dadurch, dass sich das Netz, sprich die Testzahl, vergrößert. Man kann diesen Effekt gut am Beispiel USA belegen. Ständig werden in den Medien neue Infektionsrekordzahlen gemeldet. Doch wie sind diese tatsächlich einzuordnen?

Wenn ich eine Studie lese, dann fange ich immer mit den Tabellen und anschließend mit den Grafiken an und nicht mit den Worten. Es ist eine Binsenweisheit, dass die Interpretationen solcher Zahlen in vielen Studien durch Fremdinteressen, wie denen des Auftraggebers, stark beeinflusst werden. Deswegen sollte man stets damit beginnen, die Zahlen selbst zu verstehen. Schauen Sie mal hier diese zwei Grafiken an, dazu etwas nach unten scrollen (Stand 20.7.2020).

Die erste Grafik trägt die Überschrift: Daily New Cases in the United States. Gemeint sind positive Testergebnisse. Sie sehen ab 22. Juni einen zweiten, viel stärkeren Anstieg als den im März. Doch welche medizinischen Folgen hat dieser Anstieg? Das lässt sich am besten mit einer Verzögerung von zwei Wochen an der Todesrate etwas weiter unten anhand der Grafik mit der Überschrift: Daily New Deaths in the United States ablesen. Sie sehen ein Absinken der Todesrate bis zum 6. Juni und seitdem ein Stagnieren auf niedrigerem Niveau. Das bedeutet, obwohl die Zahl der „New Cases“ ansteigt, sinkt die Zahl der Todesopfer und damit die Zahl der schweren Verläufe.

Probieren wir es mit Logik. Mögliche Erklärungen: Das Virus ist schwächer geworden. Oder es werden jetzt mehr junge Menschen infiziert, die gar nicht oder nur leicht erkranken. Oder: Es handelt sich gar nicht um mehr Infizierte. Wie ist das möglich? Die Antwort steckt hier in den gesammelten Zahlen der zentralen amerikanischen Gesundheitsbehörde CDC (Stand 20.7.2020).

Der erste Peak der Infektionszahlen in den USA begann ab 4. April mit rund 35.000 neuen Fällen (positiven Tests) täglich. Der zweite viel größere Anstieg findet seinen vorläufigen Höhepunkt in KW 28 mit rund 77.000 neuen Fällen täglich. Vergleichen Sie nun die Anzahl der Tests in den Grafiken. Die eine bezieht sich auf die öffentlichen Labors: In Kalenderwoche 15 ca. 80.000 wöchentlich, in KW 27 ca. 240.000 Tests. Die Privaten (Commercial) Labors weisen diese Zahlen auf: KW 15 rund  500.000 Test, KW 27 rund 1,3 Millionen. In KW 26 waren es sogar rund 2,3 Millionen.

Das Netz wuchs stärker als die Zunahme der Fische

In dem Zeitraum, in dem sich die Zahl der New Cases ca. verdoppelt hat, hat sich die Zahl der Tests in etwa verdreifacht. Das Netz wuchs stärker als die Zunahme der Fische. Bezieht man also die „New Cases“ auf die Testzahlen, dann stellt man fest, in Wirklichkeit sinkt die Zahl. Deshalb lässt sich auch die unter dem obigen Link auffindbare untenstehende Grafik leicht erklären: „Percentage of visits o Influenza-Like Ilness (ILI)“: Sie sehen einen typischen Winteranstieg von behandlungsbedürftigen viralen Atemwegsinfektionen und dann ein rapides Sinken ab KW 14. Das minimale Ansteigen in KW 27 ist immer noch unter der Baseline des Winters 2019/2020 und kann auch der allgemeinen Panik geschuldet sein.

Doch in den täglichen USA Coronameldungen – und zwar ganz egal, auf welchem Kanal oder in welcher Publikation – werden diese leicht zugänglichen Zahlen überhaupt nicht berücksichtigt und stattdessen eine Art amerikanische Apokalypse beschrieben. Ich stehe ehrlich gesagt vor einem Rätsel. Sollte Corona eventuell eine spezifische Berufskrankheit bei Journalisten auslösen? Die konsequente Leugnung der Wirklichkeit?

Dabei ließe sich anhand des Coronaverlaufs in den USA sehr viel Interessantes ableiten. Wie wird die Situation in verschiedenen Bundestaaten gehandhabt, Lockdown ja oder nein mit welchen Konsequenzen, was hat das amerikanische Gesundheitssystem damit zu tun, die Altersverteilung, was der Präsidentenwahlkampf. Belassen wir es bei den nackten Zahlen, denn diese sind eindeutig und reichen für eine vernünftige Einschätzung völlig aus. Schwere saisonale (Corona-) Grippewelle, mit im Vergleich hohen Opferzahlen (wir sprechen gleich darüber, warum Panik diese erhöht haben dürfte) – aber auch nicht mehr. Wenn die täglichen Katastrophenmeldungen aus den USA wirklich Substanz hätten, dann müsste sich dies aktuell in weiter stark steigenden Todeszahlen zeigen. Doch das tut es bisher nicht.

Pressemeldungen zu Coronainfizierten komplett irreführend

Die Wirklichkeitsverweigerung bezieht sich auch auf Deutschland. Die aktuellen Pressemeldungen wie z.B. „heute wieder 486 Neuinfizierte“, oder schlimmer noch „Neuerkrankte,“ sind aus vier Gründen sinnfrei:

  • Es handelt sich weder um gesicherte Neuinfizierte, erst recht nicht um Erkrankte, sondern lediglich um positiv Getestete, die ich erst durch den Filter möglicher Fehlerquellen betrachten muss. Aufgrund des Problems der falsch positiven Fälle, dürften sehr viele dieser aktuell „Infizierten“ in Wirklichkeit überhaupt nicht infiziert sein.
  • Um Rückschlüsse für die Bedeutung dieser Zahl auf die Gesamtheit zu ermöglichen, muss ich immer die gleichzeitig die Zahl der negativen Testergebnisse mit angeben.
  • Um diese Zahl in Bezug zu Vormessungen zu setzen, ist sie angestiegen oder gesunken, muss ich angeben, ob sich gleichzeitig die Gesamttestzahl verändert hat, ist sie angestiegen oder gesunken. Ist also das Fischernetz größer geworden?
  • Um die Bedeutung einer Gesundheitsgefahr durch diese Zahl einschätzen zu können, sollte stets auch die Entwicklung der stationär wegen Covid-19 Behandelten und die Covid-19 Todesfälle mit angegeben werden (Dabei zu beachten: zeitliche Verzögerung (Inkubationszeit) und die unterschiedlichen Kriterien der Covid-19-Zuordnung. Siehe auch die Diskussion bezgl. mit oder an Covid-19 Verstorbene).

Aktuelle Massentestungen täuschen Problem vor, das nicht existiert

Wenn man sich nun der Wirklichkeit tatsächlich annähern will, muss man die Realität des komplexen Messvorgangs beachten. Zwei Punkte sind besonders wichtig. Wenn Proben zur Testung eingehen, sollte das Labor eigentlich wissen, um beim Gedankenspiel zu bleiben, aus welcher Stadt die Probe stammt, also wie hoch die Prävalenz ist. Außerdem muss ein Labor ein nachvollziehbares Vorgehen installieren, wie man mit dem Problem der falsch positiven Ergebnisse umgeht. Werden diese nochmals überprüft und wie genau?

Aus welcher der im obigen Gedankenspiel genannten Städte kommt die Probe (Prävalenz)? Grundsätzlich kann man die Anzahl von Infizierten in der getesteten Gruppe nie genau wissen. Das liegt in der Natur der Sache. Aber man kann anhand der niedrigen Erkrankungszahlen davon ausgehen, dass Menschen ohne Symptome und mit Bagatellsymptomen, wie Schnupfen oder Halsweh, derzeit ziemlich sicher aus Stadt Nr. 2 stammen. Also aus einer Gruppe mit sehr niedriger Prävalenz. Teste ich also derzeit Symptomlose oder -arme, dann spielt die Rate an falsch positiven Ergebnissen eine ganz entscheidende Rolle. Solche Ergebnisse müssen unbedingt nochmals nachgetestet werden.

Wenn ein Getesteter jedoch aus einer Gruppe mir hoher Prävalenz stammt, dann gehört er derzeit hochwahrscheinlich in die Gruppe, die deutliche Symptome einer Lungenentzündung aufweisen im Verbund mit typischen neurologischen Symptomen, vor allem dem Verlust des Geruchssinns. Doch diese Patienten sind derzeit extrem selten.

Ich hatte letzte Woche ein Gespräch mit einer Mitarbeiterin einer sehr großen Krankenversicherung, die fast den gesamten Raum östlich von Zürich abdeckt. Sie sagte mir, dass ihrer Versicherung schon seit Wochen kein einziger Covidfall, also ein Coronainfizierter, der deswegen einen Arzt aufsuchte, mehr gemeldet wurde. Wie viele Patienten wegen Covidsymptomen derzeit stationär in Deutschland behandelt werden, habe ich leider nicht herausfinden können. Teste ich einen solchen Patienten, stammt er jedoch sicher aus einer Stadt mit einer höheren Prävalenz, wie aus Stadt Nr. 1. Dann spielt die Rate an falsch positiven Fällen eine viel kleinere Rolle. Wenn nicht verstanden, bitte noch mal oben das Gedankenspiel der zwei Städte ansehen.

Es ist also elementar einzuschätzen, welche Prävalenz für den Getesteten zutrifft. Man muss klar unterscheiden:

  • Kranke Patienten, die Atemnot haben und neurologische Symptome, kommen vielleicht eher aus Stadt Nr.1 (hohe Prävalenz). Hier machen Tests Sinn, weil sie helfen, den Auslöser einer Erkrankung zu identifizieren, z.B. auch Influenza Viren. Hier verfälscht eher die Rate der falsch negativen Testergebnisse das Gesamtergebnis.
  • Symptomlose und Menschen mit Bagatellsymptomen kommen derzeit aus Stadt Nr. 2 (sehr niedrige Prävalenz). Hier verfälscht die Rate an falsch positiven Testergebnissen das Gesamtergebnis.

Zurzeit werden Massentestungen ausgebaut und Geldmittel bereitgestellt. Schon bei kleinsten Anzeichen soll getestet werden. Stellen sie sich nur einmal den kommenden Herbst und die damit beginnende jährliche Schnupfensaison vor. So inkompetent wie man derzeit mit Testergebnissen umgeht, wird es natürlich zu der beschworenen zweiten Welle kommen, obwohl so gut wie niemand mehr SARS-CoV-2 Virusträger ist. Verhindert werden könnte dieser Fehler, wenn die Labore es schaffen würden, falsch positive Fälle zu erkennen. Wie muss man sich das vorstellen? Dazu habe ich das Robert-Koch-Institut befragt.

Mein Mailwechsel mit dem Robert-Koch-Institut

Es folgt nun ein kleiner Briefwechsel:

—–Ursprüngliche Nachricht—–

Von: kontakt-rki@noreply.bund.de

Gesendet: Sonntag, 12. Juli 2020 12:34

An: RKI-Pressestelle

Betreff: positive Testergebnisse

Sehr geehrte Damen und Herren,

ich habe eine Frage bezgl. der im Epidemiologischen Bulletin veröffentlichten positiven Testergebnisse. Wie viele der positiv Getesteten fließen aufgrund eines einzigen Tests in diese Tabelle ein? Und wenn es eine zweite Testung gab, wissen Sie wie viele von den zuerst positiven Getesteten dann ein zweites Mal positiv sind?

Vielen Dank für eine Antwort und Grüße Gunter Frank

 

Von: RKI-Info <info@rki.de>

Gesendet: 13. Juli 2020 13:54

An: ‚dr@gunterfrank.de‘ <dr@gunterfrank.de>

Betreff: AW: positive Testergebnisse

Sehr geehrter Dr. Frank,

vielen Dank für Ihre Anfrage.

Bitte beachten Sie dazu https://www.rki.de/SharedDocs/FAQ/NCOV2019/gesamt.html  (wie funktioniert der Meldeweg?) Doppelt erfasste Fälle werden in der Regel durch die Gesundheitsämter bereinigt, so dass letztendlich die Daten des RKI keine Mehrfachtestungen enthalten.

Ich wünsche Ihnen alles Gute.

Mit freundlichen Grüßen

Im Auftrag

Dr. 

 

Gesendet: Montag, 13. Juli 2020 15:01

An: RKI-Info

Betreff: AW: positive Testergebnisse

Sehr geehrter Dr.

vielen Dank für Ihre Antwort. 

Das bedeutet, die meisten der als positiv erfassten Fälle beruhen auf einem einzigen Test?

Mit freundlichen Grüßen

Gunter Frank

Gesendet: 13. Juli 2020 16:36
An: ‚Gunter Frank‘ <dr@gunterfrank.de>
Betreff: AW: positive Testergebnisse

 

Sehr geehrter Dr. Frank,

es können pro Person durchaus mehrere Teste durchgeführt werden, die als ein Fall in der Statistik gewertet werden (wenn das Endergebnis positiv ist).

Das Genom des SARS-Cov-2-Virus umfasst ca. 30000 Nukleotide. Diese kodieren für verschiedene Gene. Alle Bereiche des Genoms der Viren können zur Selektion von Primern für die Reverse-Transkriptase Polymerase-Kettenreaktion verwendet werden (RT-PCR). Zur PCR-Diagnostik von SARS-CoV-2 verwenden viele Labore mehrere PCRs (z.B. dual target in Sinne von (Screening)Test mit anschließendem Bestätigungstest) . Für die PCR-Diagnostik von SARS-CoV-2 Virus ist auch eine PCR ausreichend, die nur auf Primern innerhalb eines Gens des Virus basiert, wenn die Methode ausreichend hinsichtlich Spezifität und Sensitivität validiert wurde. Um Auskünfte über die Sensitivität und Spezifität der PCR zu erhalten kann man sich mit dem Labor in Verbindung setzen, welches den Test durchführt.

Bei niedriger Prävalenz und niederschwelliger Testindikation (einschließlich der Testung asymptomatischer Personen) werden an die Spezifität der Teste im Hinblick auf den positiven Vorhersagewert hohe Anforderungen gestellt (z.B. dual target). 

Weitere Hinweise zur Testung von Patienten auf Infektion mit dem neuartigen Coronavirus SARS-CoV-2 finden Sie unter https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Vorl_Testung_nCoV.html

Vielleich sind Sie auch am Bericht zur Optimierung der Laborkapazitäten zum direkten und indirekten Nachweis von SARS-CoV-2 im Rahmen der Steuerung von Maßnahmen interessiert https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Laborkapazitaeten.pdf;jsessionid=62B3E0DB6D3A30F5AABB59D9F6B46C60.internet121?__blob=publicationFile

Mit freundlichen Grüßen

Im Auftrag

Dr. 

Gesendet: 13. Juli 2020 17:42
An: ‚RKI-Info‘
Betreff: Rate der falsch Positiven AW: positive Testergebnisse

Sehr geehrter Dr.

ja, das hilft weiter, vielen Dank. Bei der derzeitigen niedrigen Prävalenz sprechen Sie völlig richtig die hohe Anforderung an die Spezifität des Tests an. Aber wenn ich mich nicht irre, liegt eine gravierende Fehldeutung vor.

Ich habe mir den mitgesendeten Link https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Laborkapazitaeten.pdf;jsessionid=62B3E0DB6D3A30F5AABB59D9F6B46C60.internet121?__blob=publicationFile bezgl. des INSTANT Ringversuchs angesehen Das RKI schreibt ab Seite 19 dazu:

„Zur Überprüfung der Testspezifität wurden …  1 Probe mit nicht-infizierten Kontrollzellen (MRC-5-Zellen) untersucht. Für die RV-Probe 340062 mit MRC-5-Zellen (negativ für SARS-CoV-2) wurden 1,4% nicht richtig negative Ergebnisse festgestellt. Lediglich 3 deutsche Laboratorien meldeten 2 falsch positive Ergebnisse/596 Ergebnisse (entspricht 0,35%) und 2 inkomplette Ergebnisse/596 Ergebnisse (entspricht 0,35%). Hinsichtlich der Spezifität spiegeln die Ergebnisse dieser negativen Probe eine sehr gute Testdurchführung in deutschen Laboratorien wider.“

Wenn wir über den gleichen Ringversuch sprechen https://www.instand-ev.de/System/rv-files/340%20DE%20SARS-CoV-2%20Genom%20April%202020%2020200502j.pdf, glaube ich, dass eine Verwechslung vorliegt. Bzgl. der MRC-5-Zellen war das Ergebnis nicht 1,4% nicht richtig negative Ergebnisse (den Terminus kenne ich auch nicht), sondern 1,4% falsch positive Ergebnisse – warum auch immer. Schauen Sie dazu die Tabelle auf Seite 12 an, die untere Zeile. Das bedeutet 98,6% der Proben waren richtig negativ, aber dann eben 1,4% falsch positiv. Das heißt die durchschnittliche Testung der RV-Probe 340062 ergab eine falsch positive Rate von 1,4%. Das bedeutet doch nichts anderes, als dass bei der niedrigen Prävalenz und der Testung bei nur Bagatellsymptomen, die derzeitige Rate an positiven Testergebnissen um die 1% bei rund 400.000 wöchentlichen Testungen, vor allem aus falsch positiven Ergebnissen bestehen dürfte.

Bitte widerlegen Sie mich, denn wenn das stimmt, wäre der R-Faktor gleich null und die derzeit täglichen Meldungen von 200–500 Neuinfizierten schlicht eine Fehlinformation. Denn man würde dann auch in völlig steriler Umgebung immer um die 1% (falsch) positiv testen.

Mit freundlichen Grüßen

Gunter Frank

 

—–Ursprüngliche Nachricht—–
Von: RKI-Info
Gesendet: 20. Juli 2020 12:51
An: ‚Gunter Frank‘
Betreff: AW: Rate der falsch Positiven AW: positive Testergebnisse

Sehr geehrter Herr Frank,

Insbesondere bei diskrepanten Ergebnissen innerhalb eines Tests bzw. unklaren/unplausiblen Ergebnissen der PCR-Testung (z.B. grenzwertige ct-Werte, untypischer Kurvenverlauf) muss eine sorgfältige Bewertung und Validierung durch einen in der PCR-Diagnostik erfahrenen und zur Durchführung der Diagnostik ermächtigten Arzt  erfolgen. Ggf. muss zur Klärung eine geeignete laborinterne Überprüfung (z.B. Wiederholung mit einem anderen Testsystem) erfolgen bzw. eine neue Probe angefordert werden. Der Befund soll eine klare Entscheidung im Hinblick auf die Meldung ermöglichen und liegt im Verantwortungsbereich des Labormediziners.

Von einer ungezielten Testung von asymptomatischen Personen wird aufgrund der unklaren Aussagekraft eines negativen Ergebnisses (lediglich Momentaufnahme) in der Regel abgeraten (Ausnahmen siehe https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Vorl_Testung_nCoV.html;jsessionid=4D4AC3126B17831BCE04638561BE32C3.internet062).

Weitere Informationen zur Diagnostik bekommen Sie aus den regelmäßigen Aktualisierungen auf unserer Homepage https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/nCoV.html und https://www.rki.de/SharedDocs/FAQ/NCOV2019/gesamt.html .

Mit freundlichen Grüßen

Dr. 

 

An der Stelle macht eine Kommunikation keinen weiteren Sinn mehr. Das RKI weicht aus. Es schiebt die Verantwortung für die potenziell irreführenden Ergebnisse in die Labore, weiß aber nicht genau, wie man dort mit dem Problem umgeht. Es verweigert die Antwort darauf, ob es nicht gravierende Probleme mit den täglichen Meldungen neuer „Infizierter“ gibt. Es rät zwar von Massentestungen ab, verwechselt jedoch das Problem dabei. Es liegt nicht in der „unklaren Aussagekraft eines negativen Ergebnisses“, sondern in den positiven Ergebnissen, die wahrscheinlich mehrheitlich Fehlalarme sind.

So wird das RKI nicht Teil der Lösung, sondern Teil des Problems. So, wie es das schon bei der Schweinegrippe und es von Anfang an in der aktuellen Coronakrise war.

Antworten eines Laborfachmanns 

Daraufhin wandte ich mich direkt an ein Fachlabor, welches Coronaabstriche testet (und die derzeit mit solchen Tests geflutet werden).

Gesendet: 14. Juli 2020 13:34
Betreff: Kurze Nachfrage bezgl. Testung

Sehr geehrte Damen und Herren,

Eine kurze Frage, ihr Real-time RT-PCR Test ist ja wahrscheinlich eine einmalige Bestimmung? Ab wann gehen sie von einem falsch negativen Ergebnis aus und testen zweimal? Und wie hätten Sie das Ergebnis gehandhabt, wenn der real-time Test positiv gewesen wäre?

Vielen Dank für eine Antwort.

Mit freundlichen Grüßen

Gunter Frank

 

Gesendet: 14. Juli 2020 14:04
An: dr@gunterfrank.de
Betreff: Befundkriterien SARS-CoV2 PCR

Sehr geehrter Herr Frank,

wir bewerten die PCR nach zwei Kriterien, ja nach dem positiven/negativen Ergebnis der Probe selbst und positivem/negativem Ergebnis der in jeder Untersuchung mitlaufenden Kontrollen:

Positives Ergebnis Probe:

Zeigt eine Probe ein positives Ergebnis, so kontrollieren wir diese auf sauber sigmoidalen Verlauf der Fluoreszenzmessung selbst. Wir evaluieren unsere Untersuchung regelmäßig. Zeigt die Kurve einen unsauberen Verlauf oder liegt sie signifikant außerhalb der evaluierten Detektionsgrenzen wir die Messung wiederholt. Bei leichter Unterschreitung des Detektionslimits bei sauberem Verlauf befunden wir als „grenzwertig positiv“ und bitten um die Einschätzung des behandelnden Arztes.

Kontrollmessungen:

Fällt die interne Extraktionskontrolle, die jeder einzelnen Probe zugegeben wird aus, werten wir ein negatives Ergebnis als falsch negativ und messen erneut. Sie bekommen nur das finale Ergebnis. Fällt aus unnachvollziehbaren Gründen die Messung mehr als 2x in Folge aus, müssen wir von der Gegenwart von Störsubstanzen ausgehen und bitten um Neuzusendung eines neuen Abstrichs.

Fällt die jedem Lauf hinzugefügte Positivkontrolle negativ aus, wird der gesamte Lauf wiederholt.

Fällt die jedem Lauf hinzugefügte Negativkontrolle positiv aus, wird der gesamte Lauf wiederholt.

Positiv- und Negativkontrolle verfügen je über dieselbe interne Kontrolle wie die Probe selbst und werden nach identischen Kriterien beurteilt. 

Bei weiteren Detailfragen, zögern Sie bitte nicht mich direkt zu kontaktieren.

Mit besten Grüßen

 

From: Gunter Frank <dr@gunterfrank.de>
Sent: Dienstag, 14. Juli 2020 14:41
Subject: AW: Befundkriterien SARS-CoV2 PCR

Lieber Dr.

vielen Dank.

Ich fürchte, um ihre bereits gegebene Antwort einordnen zu können, fehlt mir als Allgemeinarzt die Fachexpertise. Darf ich nochmal nachfragen. Wie würden Sie das einschätzen. Das RKI bringe ja die täglichen Testzahlen und positiven Fälle heraus. Pro Woche ca. 400.000 Tests und seit einigen Wochen immer zwischen 3000–6000 positive Fälle. Es gibt ja den Instand Ringversuch, hier wurden auch Leerproben ohne Virus an viele Labors versandt, die auch unterschiedliche Verfahren einsetzen. Es waren annähernd 1000 Proben. Hier kamen als Gesamtergebnis 98,6% als richtig negativ zurück, und somit 1,4% als falsch positiv. Da die Prävalenz von SARS CoV2 ja derzeit sehr niedrig ist und die meisten Tests bei Bagatellsymptomen durchgeführt werden, spielen diese 1,4% falsch positiven Ergebnisse eine große Rolle. Kennen sie die Rate von falsch positiven und negativen Ergebnissen bei ihren verwendeten Tests? Die Frage, die ich mir stelle ist, wie viele der vom RKI als positiv Getestete und dann in den Medien als Infizierte bekanntgegebenen Fälle sind in Wirklichkeit falsch positiv. Wie schließen sie dies in ihrem Labor aus und wie melden sie ihre Ergebnisse dem RKI? Messen Sie beispielsweise jedes positive Ergebnis standardmäßig zweimal?

Mit freundlichen Grüßen

Gunter Frank

 

Gesendet: 14. Juli 2020 15:48
An: Gunter Frank
Betreff: RE: Befundkriterien SARS-CoV2 PCR

Lieber Herr Frank,

Ihre Rückfrage ist berechtigt. 

Das wichtigste zuerst: Wir hätten in vielen Fällen gar nicht die Möglichkeit jedes positive Ergebnis doppelt zu bestimmen. Extraktion und Analyse nehmen so viel Zeit in Anspruch, dass die Ergebnisübermittlung um Stunden, ggf. um einen Tag verschoben würden. Dies können wir nicht riskieren, die Proben kommen teils aus Krankenhäusern oder ähnlich kritischen Einrichtungen. Grenzwertig positive Ergebnisse messen wir häufig nach. Wir testen auf einen spezifischen Abschnitt des E-Gens.

Wichtig bei der Erstellung eines positiven Befundes: Die Beurteilung, ab wann eine Probe nachgemessen werden muss, obliegt dem Fachpersonal und basiert auf Parametern, die durch die von Ihnen zitierten Ergebnisse des RV leider nicht umfassend abgebildet werden. Wie in meiner letzten Mail beschrieben, haben wir entsprechend der RKI Empfehlung hier https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Vorl_Testung_nCoV.html Kriterien festgelegt, ab denen ein positives Ergebnis durch uns als nicht eindeutig eingestuft wird und die Messung wiederholt oder im Befund auf ein grenzwertiges Ergebnis hingewiesen werden muss. Ich würde nicht davon ausgehen, dass (bei korrekter Durchführung und Dokumentation!)  falsch positive Ergebnisse aus dem RV ((Ringversuch)) nach unseren Kriterien eindeutig waren. An den RVen nehmen wir selbst Teil und die Ergebnisse waren allesamt sehr eindeutig positiv (also mehr als zwei Größenordnungen von unserer Nachweisgrenze entfernt) oder negativ (kein detektiertes Signal)!

Mitunter lassen wir unklare Ergebnisse zur Kontrolle in anderen Laboren, die mit anderem Material als wir arbeiten, nachmessen. Dies wird routinemäßig zwischen allen Standorten so praktiziert, ich würde daher unsere Ergebnisse als verlässlich einstufen. Wie dies in Laboren anderer Anbieter von Corona-PCR gehandhabt wird, ist mir nicht bekannt.

Reporting erfolgt bei uns zentral aus unseren Datenbanken heraus. In diesen Prozess bin ich nicht eingebunden, meine Verantwortung ist das Labor und die Aufrechterhaltung der damit verbundenen Prozesse. Die Meldungen an die Gesundheitsämter erfolgen bei uns aus dem Haus, in grenzwertigen Fällen (im Befundtext vermerkt) halten die Verantwortlichen i.d.R. Rücksprache mit mir und/oder dem behandelnden Arzt. 

Mit besten Grüßen

Ich erkenne in diesen Antworten eine hohe Kompetenz, aber auch ein weites Feld des unklaren Umganges mit grenzwertigen sowie schwach positiven Fällen. Daraufhin führte ich ein Telefonat mit einem weiteren Fachmann, der ebenfalls in einem der vielen Labors arbeitet, die derzeit massenweise Coronatests durchführen. Er bestätigte das Problem. Die Ergebnisse des Ringversuchs seien zwar mit Vorsicht zu genießen, da die Anzahl der Placebo-Proben pro Labor nicht ausreichend sei. Er sagte aber klipp und klar, das Problem ist die große Masse an Tests bei den gleichzeitig sehr seltenen positiven Ergebnissen.

Massentestungen müssen gestoppt werden – sofort

Bei hunderttausenden Tests ist einfach nicht auszuschließen, dass es doch einmal Verunreinigungen gibt oder schlicht auch Verwechslungen. Diese würden auch nicht durch Nachtestungen als Fehler entdeckt. Außerdem spricht der Test auch immer wieder bei ehemals Infizierten positiv an. Oft bei Menschen, die gar nicht wussten, dass sie infiziert waren, aber bei denen eben noch Virustrümmer auf den Schleimhäuten nachweisbar sind. Außerdem ist die Meldesituation der Gesundheitsämter auch an das RKI unklar. Das dortige Fachwissen sensibilisiert nicht ausreichend bezüglich der immensen Fehlergefahr bei den wenigen positiven Fällen.

Anschließend telefonierte ich mit einem Fachmann der Epidemiologie und der Studienstatistik. Sie sehen, ich lasse die Namen bewusst weg, weil solche Äußerungen inzwischen politisch gewichtet werden und Nachteile an Hochschulen oder bei Arbeitgebern bedeuten können. Machen Sie sich einfach bewusst, wenn beispielsweise die Universitätsklinik Heidelberg vom Land Baden-Württemberg 200 Millionen Euro für den Corona-Verdienstausfall möchte, dann möchte man keine politisch unbequemen Äußerungen aus den eigenen Reihen in den Medien sehen. Nun, dieser Fachmann bestätigte das Problem und plädierte für mehr Mut, um diese in ihrer Missdeutung verheerenden Massentestungen endlich zu beenden. Ganz besonders vor Herbst, wenn die ganz normale Schnupfensaison wieder losgeht, und jedes Niesen die Panik anheizt.

Test auf Rinder-Coronaimpfstoff war negativ

Nun ein weiteres Update. In meinem Coronabeitrag vom 23.06.2020 bin ich der Frage nachgegangen, ob der Test möglicherweise sogar auf Tier-Coronaviren ansprechen könnte. Dass der Mensch solche, für ihn harmlose Viren über seine Nasenschleimhäute auf andere Tiere übertragen kann, ist gesichert. Obwohl diese Meinung wohl begründet und im Beitrag als These in der wissenschaftlichen Diskussion beschrieben ist, wurde der Artikel bei Facebock mit einer Warnung versehen (Siehe Nachtrag vom 08.07.2020). Als Begründung für diesen Eingriff in die Meinungsfreiheit wurde lediglich eine Aneinanderreihung anderer Meinungen angegeben, aber keine wissenschaftliche Veröffentlichung, in denen diese Tests tatsächlich auf Tiercorona getestet wurden.

Das haben ich nun als Pilotversuch mit tatkräftiger Unterstützung von Achgut.com und einem befreundeten Tierarzt selbst durchgeführt. Zwei PCR-Abstriche, getunkt in den Rinderimpfstoff Rotatec Corona, der Rindercoronaviren in abgeschwächter Form enthält, wurden unter Fantasienamen in ein Fachlabor eingeschickt. Ergebnis: beide Tests sind negativ. Das bedeutet einen ersten belastbaren Hinweis, dass Rinderviren den Test nicht verfälschen.

Um diesen Verdacht gänzlich zu widerlegen, sollte dieser Vorgang noch einmal mit mehreren Proben und Laboren wiederholt werden. Vor allem sollten Tierärzte Abstriche bei infizierten Tieren entnehmen und testen lassen. Auch sollte man bei den geschlachteten Tieren, wie Schweine oder Geflügel, Abstriche machen, an denen die positiv getesteten Schlachter gearbeitet haben. Sind diese ebenfalls negativ, könnte man diesen Verdacht ad acta legen. Das wären die Behörden den Menschen der betroffenen Region schuldig, bevor man wieder einen schädlichen Lockdown veranlasst.

Corona: Der Versuch einer derzeitigen Gesamteinordnung

Derzeit werden 6 Monaten weltweit 600.000 Todesfälle der durch das Virus SARS-CoV-2 ausgelösten Erkrankung Covid-19 zugeordnet. Jedes Jahr sterben Schätzungen nach 300.000–650.000 Menschen an einer durch Influenza verursachten Atemwegsinfektion. Wie kommen diese Zahlen zustande? Die Oduktionen in Deutschland zeigten, dass viele Opfer schwerst krank waren und das Corona-Virus zwar der Todesauslöser war, aber die Ursache eigentlich die schwere Erkrankung.

Außerdem testete man nicht auf Influenza. Die Coronapanik und der Lockdown führen sicher besonders in Ländern ohne soziales Netz zu unmittelbaren Versorgungsengpässen und damit zu Hunger, Schwäche und Todesopfern. Wir werden die Opfer hier zugeordnet? Es ist schwierig einzuschätzen. Die Toten durch Influenza werden auch hochgerechnet und nicht getestet.

Werfen wir einen Blick auf ein paar vergleichende Übersichtszahlen einiger Länder in ca. Einwohnerzahl / jährliche Todeszahlen / bisherige Covid-19 zugeordnete Todesfälle (Stand 17.07.2020). 

Indien:             1,4 Milliarden / 10 Millionen / 25.777

USA:                330 Millionen / 2,7 Millionen / 141.150

Brasilien:          210 Millionen / 1,3 Millionen / 76.846

Deutschland:    82 Millionen / 950.000/ 9.157

Frankreich:       66 Millionen / 585.000 / 30.831

Italien:              60 Millionen / 630.000 / 35.017

Belgien:           11,5 Millionen / 113.000 / 9.795

Schweden:       10 Millionen / 95.000 / 5.593

Schweiz:           8,8 Millionen / 70.000 / 1.969

Quelle https://countrymeters.info/dehttps://www.worldometers.info/coronavirus/

Geht man von diesen Zahlen aus, dann ergibt sich ein bisheriger prozentualer Anteil der Covid-19 zugerechneten Toten an der jährlichen Gesamtsterbezahl in der Reihenfolge der Höhe:

Indien 0,3

Deutschland 1,1

Schweiz 2,8

USA 5,2

Frankreich 5,3

Italien 5,6

Schweden 5,9

Brasilien 5,9

Belgien 8,7

Die Prozentzahlen für Indien werden sicher noch ansteigen, aber wegen der jüngeren Bevölkerung vermutlich nicht sehr stark. In Brasilien hält sich der Peak der Todeszahlen jetzt schon 8 Wochen. Voraussichtlich müsste er demnächst sinken, wenn nicht, wäre dies ungewöhnlich. Die USA haben ihren Peak schon länger überschritten.

Inwieweit diese Prozentzahlen die Todeszahlen durch Atemwegsinfektionen insgesamt am Ende des Jahres steigen lassen und für eine Übersterblichkeit sorgen werden, wird sich zeigen. Meiner Schätzung nach wird es in den westlichen Ländern, die jetzt über fünf Prozent stehen, anteilig mehr Atemwegstote geben, aber keine Übersterblichkeit insgesamt. Weil es vor allem Schwererkrankte und sehr alte Menschen getroffen hat, bei denen man oft nicht sagen kann, ob sie an oder doch eher mit dem neuen Coronavirus gestorben sind. Und gestorben wurde vor allem in den Pflegeheimen, wo sich eben alte schwer vorerkrankte Menschen sammeln, auch wegen gravierender Fehler wie die panische Verlegung von Covidkranken zur Entlastung von Krankenhäusern ausgerechnet in Pflegeheimen (Coronabeitrag vom 28.05.2020). Eine Panikreaktion, vor allem in Hotspots wie Bergamo und New York. Und das, obwohl schon seit Jahren bekannt ist, dass im Gegensatz zur anderen Bevölkerung sich in Pflegeheimen solche Viren mit einer hohen Letalität ausbreiten.

Wenn dennoch eine Übersterblichkeit zu messen ist, dann sollten auch die Schutzmaßnahmen selbst als Verursacher überprüft werden. Jetzt schon mehren sich die Hinweise, dass, wie oben schon erwähnt, durch fehlende Behandlung anderer Krankheiten viele Menschen gestorben sind,

Nur der Vollständigkeit halber sei bemerkt, dass niemand Vernünftiges abstreitet, Covid-19 könne nicht auch bei Jüngeren zu einer heftigen Lungeninfektion führen, mit einer manchmal mehrwöchigen Rekonvaleszenz-Phase. Aber virale Infektionen können nun mal sehr heftig sein. Ich hatte die Grippe 2018. Drei Tage heftigste Gliederschmerzen, bei denen kein Schmerzmittel half, und währenddessen ich laut stöhnend im Bett lag. Es war schlimm. Ich brauchte drei Wochen, um danach wieder normal arbeiten zu können. Seitdem weiß ich auch aus eigenem Erleben, dass eine Grippe besonders geschwächte Menschen töten kann.

Zusammenfassend kann man aus diesen Zahlen erkennen, dass es sich je nach Land, um eine schwere bis mittelschwere virale Atemwegsinfektion handelt, die erkennbar, wie üblich, saisonal verläuft. Diese Erkrankungen werden üblicherweise als Grippewelle bezeichnet, obwohl sie von ganz verschiedenen Viren ausgelöst werden können, wie Corona- oder Influenzaviren. Sie kehren jedes Jahr leicht verändert wieder, und unsere Gesellschaften haben bis zum Jahr 2020 gelernt, vernünftig damit umzugehen.

Diese jährlichen Grippewellen treffen die Länder stets unterschiedlich, so war beispielsweise Deutschland vergleichsweise hart getroffen, während es 2020 sehr milde (!) ablief. Doch so wenig die Bundesregierung an dem schlimmen Verlauf 2018 schuld war, so wenig hat sie etwas mit dem milden Verlauf 2020 zu tun. Wenn die Coronapanik etwas Gutes hat, dann dass wir zukünftig sensibilisierter mit klaren Risikogruppen umgehen, was Händewaschen und Abstand halten betrifft. Doch ganz im Gegensatz zu dieser Einschätzung vermittelt die politische wie mediale Berichterstattung den Eindruck einer globalen Katastrophe, die es ganz sicher nirgends war und nirgends ist.

Was ist zu tun? Seien wir mutig!

Die jährliche Wintergrippe ist bei uns schon längst vorbei. Doch die derzeitigen Massentestungen suggerieren stets eine Infektionsrate von 1 Prozent, die jedoch fast ausschließlich auf Fehlalarmen beruft. Stichwort: falsch positive Testergebnisse bei niedriger Prävalenz. Deshalb müssen die Massentestungen sofort gestoppt werden, sonst wird es keinen Weg zurück zur Normalität geben.

Es gelten in der derzeitigen Situation die ganz normalen Hygieneregeln, an die man sich besonders im Winter im Umgang mit schwerkranken, meist alten Menschen (Risikogruppen) halten soll: häufiges Händewaschen, Niesen in die Ellenbeugen. Risikogruppen sollten sich vor großen Menschenansammlungen, insbesondere in geschlossenen Räumen, fernhalten. Masken sind dazu da, in besonderen Situationen, die Infizierung Anderer zu verhindern: im Operationssaal, in den Intensivabteilungen, in den Pflegeheimen und bei medizinischen Hausbesuchen bei der Behandlung von Risikogruppen. Masken verwendet man für diese Situationen einmal und wirft sie dann weg. Die jetzige allgemeine Anwendungspraxis von Masken, genauso wie Social Distancing, Ausgangsperren, Lockdowns sind sinnfrei. Sie schaden wesentlich mehr, als sie nützen.

Wir sollten diesen Unfug stoppen, denn er führt uns immer weiter weg von dem, was Gesundheit eigentlich bedeutet, Unbefangenheit, Optimismus und Lebensfreude. Die vermeintliche Bedrohung ist schon lange vorbei. Seien wir mutig, fangen wir wieder an, unbefangen unser Leben zu leben. Wenn Ihnen dieser Beitrag plausibel erscheint, verbreiten sie ihn bitte weiter.

Post Scriptum

Wie selbst Zeitungen wie die FAZ den Panikmodus schüren, zeigt dieser Kommentar von FAZ-Redakteurin Sibylle Anderl. Er stellt stellvertretend für das Elend der unreflektierten wie kompetenzarmen Unisono-Berichterstattung deutscher Medien. Mein Kollege Christian Haffner, den ich aus der Zusammenarbeit mit meiner Fachgesellschaft kenne und von dem ich weiß, dass er mit Studienzahlen sehr gut umgehen kann, hat darauf einen Leserbrief verfasst, der jedoch von der FAZ abgelehnt wurde. Deshalb füge ich diesen hier im Anschluss an meinen Beitrag an.

Leserbrief zur Leitglosse: „Fragile Lage“, FAZ vom 18.7.2020

In der Leitglosse „Fragile Lage“ von Sibylle Anderl vom 18.7.2020  werden einige grundlegenden Fakten missachtet und damit ein falsches Bild gezeichnet. Zum Beispiel werden positive PCR-Tests auf SARS-CoV-2 mit Infektionszahlen verwechselt. Da kein Test 100% richtige Ergebnisse liefert, hängt die Korrektheit eines Testergebnisses  stark von der Vortestwahrscheinlichkeit ab, wie das Deutsche Ärzteblatt 24/2020 in seinem Artikel: „PCR-Tests auf SARS-CoV-2: Ergebnisse richtig interpretieren“ schreibt. Testen wir z.B. in einer Gruppe mit sehr vielen Gesunden und der Test ist „positiv“, ist er häufig falsch positiv, d.h. es besteht gar keine Coronavirusinfektion.. Und selbst bei einem richtig positiven Test können wir keine sichere Aussage über die Infektiosität des Patienten machen, sondern lediglich, dass wir den dem Virus zugeschriebenen RNA-Schnipsel nach millionenfacher Vermehrung im Labor nachweisen konnten. Darüberhinaus ist der PCR-Test nach wie vor ein sog. Inhouse-Test, d.h. er ist amtlich leider immer noch nicht validiert, was dringend nachgeholt werden müsste. Weiten wir außerdem die Anzahl der Testungen noch aus, erhalten wir naturgemäß mehr positive Testergebnisse, was in vielen Medien als eine Zunahme an „Infektionen“ gedeutet wird und dabei „entdecken“ wir einfach nur mehr an schon vorhandenen Fällen.

In Bezug auf die Sterbefälle im Zusammenhang COVID-19 gibt es ebenfalls eine Reihe von Unwägbarkeiten. Das wird in den Ländern unterschiedlich gezählt. Wer wirklich an der Infektion gestorben ist, können am Ende nur Obduktionen klären und nur diese Ergebnisse dürfen, nach international einheitlichen Standards, dann vergleichend als „Coronavirustote“ bezeichnet werden. Auch wird hier nichts über Vorerkrankungen oder das Alter der Verstorbenen berichtet, was aber eine wichtige Information wäre.

Was ebenfalls fehlt sind die durch die staatlichen Maßnahmen zusätzlich Verstorbenen und Geschädigten, wie verschobene Operationen oder Krebsbehandlungen sowie Menschen, die trotz Krankheit nicht zum Arzt gegangen sind oder Auswirkungen der staatlichen Eingriffe weltweit, auch die durch wirtschaftliche Krisen, die jeweils beträchtlich sind. 

Weiterhin ist die Aufweichung der Pandemiekriterien durch die WHO aus meiner Sicht ein wichtiges Kriterium. Im April 2009 wurde unter Lobbyeinfluss pharmazeutischer Unternehmer in den Kriterien die Notwendigkeit „einer beträchtlichen Anzahl an Toten“ herausgestrichen (Quelle: arznei telegramm 2010; 41: 59-60). Eine weitere Abschwächung für die Ausrufung einer Pandemie gab es im Jahr 2017, wie u.a. in dem Dokumentarfilm „Trust WHO – Wie krank ist die Weltgesundheitsorganisation“  der französischen Filmemacherin Lilian Franck von 2018 detailliert dargestellt wurde.

Um die Weltkrise durch die Coronaviruspandemie in den Griff zu bekommen, braucht es transparentes und wissenschaftliches Vorgehen und eine neutrale, kritische und umfassende Berichterstattung. Diese wünsche ich mir ganz besonders von einem Leitmedium, wie der FAZ. Dieser Artikel, wie weitere Artikel zu diesem Thema in dieser Ausgabe, gehören leider nicht dazu.

Dr. med. Christian Haffner
Facharzt für Allgemeinmedizin, Manuelle Therapie/Chirotherapie

Der Beitrag erschien zuerst bei ACHGUT hier




RKI und Corona: Phantombetten und Steinzeitkommunikation

Insgesamt wurde die Einrichtung von 10.600 solcher Plätze bezahlt. Nach ein paar Monaten ist dem Ministerium nun aufgefallen, dass für die 530 Millionen Euro, die man in die Hand nahm, nur 3.300 zusätzliche Betten im DIVI-Register entstanden sind. Reichlich früh. Immerhin weiß man jetzt, wie viele Intensivbetten es derzeit gibt. Denn das ist in der Corona-Pandemie ja der Flaschenhals, der uns vor tausenden weiteren Toten retten sollte. Wenn er nicht überlastet ist. Dafür können das Gesundheitsministerium oder aber das Robert-Koch-Institut aber nix.

Da sollte man doch eigentlich wissen, wie viele Betten existieren, noch besser wäre es, zu wissen, wie viele mit Corona-Patienten belegt sind und ob diese Zahl zu- oder abnimmt. Übrigens sind momentan nach dem DIVI-Intensivregister 249 von 32.567 Betten mit Covid-19-Patienten belegt, davon werden 118 beatmet. Das Worldometer, das auf den Zahlen der Johns-Hopkins-Universität beruht, meldet 255 schwere oder kritische Fälle und 8 Verstorbene am 16.07.2020. Die Zahl der freien Intensivbetten verharrte während der Krise nach Einführung des DIVI-Intensivregisters stets um die 10.000, selbst als 3.000 und mehr Betten mit positiv Getesten belegt waren. Und sie ist nach Corona auch nicht gestiegen. Immer bleiben rund 20.000 Betten belegt, ob mit Corona oder ohne.

Dass das Gesundheitsministerium übersieht, dass rund 7.300 für die Bewältigung der Corona-Krise angeblich so dringend gebrauchte Betten nicht geschaffen wurden, ist nicht verwunderlich. Die Zahl der zu Beginn stets genannten 27.000 Betten, die den Grund für den Lock-Down lieferten, war geschätzt. Wie viele es wirklich waren, wusste keiner. Und das war 2017. Mit dem Aufsetzen des Intensivregisters begann die Deutsche Interdisziplinäre Vereinigung für Notfallmedizin Ende März, als der Lockdown schon in vollem Gange war. Die FAZ meldete am Dienstag den 7.4.2020, dass dieses Register “bis zum Wochenende” eingerichtet sei. Als der Lockdown beschlossen wurde, wusste niemand, wie viele Plätze es gab und wie viele belegt waren.

Das Robert-Koch-Institut erging sich zwar schon 2013 in apokalyptischen Schätzungen, bei einer CoViD-Pandemie würden binnen zweier Jahre 17 Millionen Menschen sterben. Die war Gegenstand einer Bundestagsdrucksache. Und der Präsident des RKI, Lothar Wieler, warnte noch am 1.4.2020 vor 10 Millionen Toten bis Juni 2020, wenn der Lockdown nicht käme. So schlimm kam es nicht mal im bösen Schweden, das sich dem Rat der Weltgemeinschaft verweigerte, endlich die Volkswirtschaft zum Erliegen zu bringen.

Nur Zahlen zählen

Ich gebe zu: 1984 im VWL-Grundstudium bin ich erst mal am Statistik-Schein gescheitert. Allerdings hieß MS Excel noch Multiplan, und ich hatte eh keinen PC. Der Informatikunterricht fand im Zweifel noch mit Lochstreifen statt. Doch seit es moderne Tabellenkalkulationssoftware gibt, kann ich mitreden. Die Statistik des Robert-Koch-Instiuts bewegt sich auf dem Weltniveau der zentralen Plankommission der Deutschen Demokratischen Republik. Fehlendes Wissen wird durch Anmaßung und Schätzung ersetzt. Neumodisch könnte man auch vom Prinzip Wirecard sprechen. Allerdings verschwinden nur Millionen, die allerdings einen Billionen-Schaden anrichten. Nur vertut man sich schon mal um ein paar Millionen Tote mit dem Schätzen. Die Folgen hat man eh nicht im Blick.

Je schneller man je mehr Daten und vor allen Dingen detaillierte Datensätze bekommt, desto leichter kann man seine eigene Vermutung verbessern und – wenn eine nötig ist – seine Schätzung anpassen. Das RKI wusste zu Beginn der “Pandemie” nicht, wie viele wirklich Erkrankte es gab und wie viele davon schwer erkrankt waren. Auch die Zahl der Genesenen kann die staatliche Instanz nur schätzen. Bis heute. Ein Armutszeugnis.

Deutschlands Gesundheitswesen arbeitet mit dem Telefax

Selbst der Deutschlandfunk-Moderator Zurheide fragt in einem Deutschlandfunk-Interview am 25.4.2020 beim Vorsitzenden des Sachverständigenrates im Gesundheitswesen, Ferdinand Gerlach, ungläubig nach:

Zurheide: „Sie haben ja gerade Fax gesagt, ich habe das richtig gehört oder?“

Gerlach: „Ja, wir haben in Deutschland noch den Fax-Standard, sowohl zwischen Gesundheitsämtern und RKI als auch zwischen Ärzten in Praxen und Kliniken, oft auch übrigens die papiergebundene Karteikarte. Das führt natürlich dazu, dass das länger dauert, dass das fehlerträchtig ist. Und dann schauen wir mehr auf die Daten der Johns-Hopkins-University, die auch nicht so viel besser sind, aber schneller da sind als auf unsere eigenen Daten.”

Mit der Kommunikationstechnik Telefax der Achtziger gegen das Virus der Globalisierung.

Ich habe schon am 20.3.2020 hier kritisiert, dass Quantität und Qualität der Daten für eine so weitreichende Entscheidung, einen Lockdown anzuordnen, nicht ausreichten. Die notwendigen Arbeitshypothesen der Virologen konnten nur durch eine Überprüfung durch empirische Daten verifiziert werden. Das Robert-Koch-Institut und der nordrhein-westfälische Gesundheitsminister Laumann wussten Mitte März nicht mal, wieviel Covid-19-Patienten überhaupt im Krankenhaus lagen. Die Deutsche Krankenhausgesellschaft schätzte sie auf ein paar hundert. Auf dieser Basis legte man die ganze Volkswirtschaft lahm. Selbst die bis heute Genesenen sind geschätzt. Und bei den Verstorbenen wissen wir auch nicht, wie viele gar nicht an der Covid-Infektion gestorben sind sondern an der Vorerkrankung. Das Robert-Koch-Institut versuchte lange förmlich, Obduktionen zu verhindern.

Auch die Zahlen der Grippeepidemie von 2017/18 beruhen auf Schätzungen und Hochrechnungen. Hier dienten die Meldungen einzelner Kliniken und Arztpraxen zu Erstellung einer Hochrechnung. Und die 2010 auf gleicher wissenschaftlicher Basis getroffenen Annahmen zur sogenannten Schweinegrippe haben – wie Gunter Frank hier beschrieb – sich komplett als falsch erwiesen. Trotzdem folgte die Risikoanalyse im Bevölkerungsschutz in Drucksache 17/12051 vom 3.1.2013 im Bezug auf eine mögliche Pandemie ein Horrorszenario, das man auch als Treatment für einen Horror- und Action-Blockbuster nach Hollywood schicken sollte. Binnen zweier Jahre hätte die Pandemie 17 Millionen Deutsche dahinraffen sollen. Pikanterweise wird als Konsequenz nicht einmal die Bereithaltung von Schutzkleidung empfohlen.

Spätestens 2010 hätte das RKI evaluieren müssen, warum es bei der Schweinegrippe so daneben lag. Einen gewissen Professor Christian Drosten einzubeziehen, wäre sinnvoll, denn der hatte die Szenarien ja noch weiter übertrieben. Das Ergebnis wäre einfach zu prognostizieren: mehr Daten, mehr Merkmale und das schneller. Und das wäre durch eine Verbesserung des Reporting- und Meldesystems durch eine Datenbank, die im Fall einer Epidemie möglichst schnell möglichst viele Daten erfasst, zu realisieren gewesen. Und natürlich auch eine Veränderung der Risikoeinschätzung anhand der nicht eingetretenen erwarteten Epidemien wäre wohl angezeigt gewesen.

Eine webbasierte Datenbank

Zentrale Datenbanken mit dezentralen Eingabemasken für Arztpraxen, Krankenhäuser, Labors und Gesundheitsämter erfassen die entsprechenden Meldungen in Echtzeit über das Netz. Das DIVID-Register belegt, wie schnell so eine Datenbank einzurichten gewesen wäre. Der Zugang erfolgt passwortgeschützt, und die Datenlage kann mit den Ergebnis des traditionellen Meldewegs abgeglichen werden. Dabei wären/würden folgende Daten erfasst (worden).

  • Persönliche Daten: Name, Alter, Gewicht, ledig, verheiratet, Kinder/keine Kinder, Jahreseinkommen, Beruf, Hobbies, Ausbildung, Hobbies, Geschlecht, Vorerkrankungen, Wohnadresse, Arbeitsort, vermuteter Ort der Infizierung, Person, bei der man sich vermutlich infiziert hat, vermuteter Zeitpunkt der Infizierung.
  • Testdaten: Anzahl der Tests. Je Test: Testdatum, Testergebnis.
  • Krankheitsdaten der positiv Getesteten täglich: Ohne Symptome, leicht erkrankt, schwer erkrankt, hospitalisiert, Intensivbehandlung, Beatmung. Genesung. Therapie. Beginn der Quarantäne, Ende der Quarantäne. Folgeschäden.
  • Daten eines Sterbefalls: Todesursache nach Autopsie: Vorerkrankung oder Covid-19. Art der Therapie (Beatmungspflichtig?).
  • Daten zur Kapazität des Gesundheitswesens (tägliche Meldung durch Arztpraxen und Krankenhäuser). Anzahl der Betten, Anzahl der belegten Betten nach Krankheit, Anzahl der Betten mit den Infizierten in der jeweiligen Einrichtung. Anzahl der Intensivbetten, Anzahl davon belegt, Anzahl nach Krankheit, davon Anzahl der an der Pandemie Erkrankten, Anzahl der Beatmungsplätze, Anzahl der belegten Beatmungsplätze nach Krankheiten. Dauer der Hospitalisierung, Intensivbehandlung, Beatmung.
  • Testkapazität, durchgeführte Tests, Kosten der Tests, Kosten der Behandlung.

Diese Daten werden für alle Getesteten erhoben; auch auf der Basis dieser Daten hätte man zu Beginn der Pandemie bereits viel fundierter entscheiden können und bereits bei der Grippewelle 2017/18 vielleicht eine effiziente Strategie zur Reduzierung der Infektionen, Krankheits- und Todesfälle finden können. Und ich persönlich bin entsetzt, dass es eine solche Datenbank zur Erfassung von angeblich so furchtbaren Pandemien nicht gibt. Sie sollte unbedingt und sofort eingerichtet werden, auch wenn sie bei der Bewertung des derzeitigen Szenarios keine Erkenntnisse mehr liefern kann.

Die Richtigkeit kann man verifizieren, in dem man das bisherige System parallel laufen lässt und die Daten abgleicht.

Die Realitätsverweigerung des RKI

Der Lockdown wurde zunächst damit begründet, das Gesundheitssystem, deren Kapazität man zu diesem Zeitpunkt schätzte, aber nicht kannte, dürfe nicht überlastet werden. Als diese sich nicht im Ansatz einstellen wollte – im Gegenteil, die Krankenhäuser mussten ihre Mitarbeiter in Kurzarbeit schicken –, musste eine andere Begründung her: Der R-Faktor besagt, wieviel Personen von einem als infiziert Getesteten angesteckt werden. Und um die Pandemie auszutrocknen, muss dieser Faktor unter eins bleiben. Dann steckt ein als infiziert getesteter Mensch weniger als einen anderen Menschen an.

Das Problem beim R-Faktor: Wie das RKI selbst zugibt, handelt es sich (wieder mal) um eine Schätzung. Und weil deren Kalkulation nicht zu stimmen scheint, ist seit Wochen nicht mehr davon geredet worden.

Für die Freiheitseinschränkungen muss seither die Anzahl der Neu-Infizierten pro 100.000 Einwohner herhalten. Auch diese Maßzahl ist genauso wenig relevant wie die Zahl der Infizierten überhaupt.

Das RKI hat in seinen Verlautbarungen immer darauf abgestellt, 80 Prozent der Infizierten blieben ohne Symptome, 20 würden erkranken und davon 5 Prozent schwer. Bei rund 10.000 freien Intensivbetten würde die Kapazitätsgrenze also bei 200.000 gleichzeitig als infiziert getesteten Bürgern liegen. Würden alle rund 30.000 Betten mit Covid-19-Patienten belegt, müssten nach dieser Faustformel 600.000 Menschen infiziert sein. Es wären dann ca. 120.000 Menschen gleichzeitig schwer erkrankt und hospitalisert. Die Gesamtkapazität deutscher Krankenhäuser ist mit 500.000 angegeben. Eine Entwicklung eines solchen Szenarios war spätestens Anfang April mehr als unwahrscheinlich. Insgesamt wurden tatsächlich aber nur 15 Prozent hospitalisiert. Nach Angaben des Statistischen Bundesamtes waren in etwa die Hälfte davon in intensivmedizinischer Behandlung, also ca. 15.000, das sind dann 7,5 Prozent der als infiziert Getesteten.

Die Ergebnisse der Streeck-Studie (Heinsberg), die Untersuchung in Ischgl und auch das Geschehen um den Corona-Ausbruch bei Tönnies in Rheda-Wiedenbrück, wo von 1.500 positiv getesteten Personen 6 als erkrankt gemeldet wurden, legen die Vermutung nahe, dass die Zahl der Infizierten, die nicht einmal leichte Symptome entwickeln, deutlich höher liegt. Auf der anderen Seite gibt es ja noch das Phänomen falsch positiver Tests.

Die verzerrende Statistik des RKI

Auch am Samstag hieß es wieder in den Nachrichten: 583 Menschen hätten sich mit Corona infiziert, insgesamt 200.843, 9.082 seien im Zusammenhang mit Corona verstorben, davon 4 am 18.7.2020, insgesamt sind geschätzte 186.900 genesen. Durch die Kumulation der seit Mitte Februar aufgetretenen Fälle entstehen riesige Zahlen, die uns allen Angst einflößen.

Der aktuelle Lagebericht müsste lauten: 583 Menschen sind seit gestern als infiziert getestet worden, 4.861 sind derzeit insgesamt als infiziert getestet. Das Intensivregister meldet derzeit 247 Patienten auf Intensivstation, davon müssen 115 invasiv beatmet werden. Das sind 0,000030 Prozent der Bevölkerung. 4 Menschen sind bedauerlicherweise im Zusammenhang mit dem Virus gestorben.

Die Öffentlichkeitsarbeit des RKI suggerierte dabei offensichtlich eine Kenntnis der Lage, die offensichtlich nicht vorhanden war.

Es ist nicht entscheidend, wie viele Menschen als infiziert getestet sind, sondern wer

Schon das kümmerliche Zahlenwerk des RKI widerlegt dessen eigene Hypothesen. Das lässt sich besonders am Fall Tönnies belegen. Hier ist die Unverhältnismäßigkeit ja sogar gerichtsnotorisch.

Ich habe versucht zu ermitteln, wie viele der als infiziert gemeldeten Mitarbeiter der Fleischfabrik erkrankt, hospitalisiert oder gar verstorben seien. Eine aktuelle Zahl findet sich nicht.

Finden lässt sich dagegen im täglichen RKI-Bericht vom 18.7.2020, dass Einrichtungen nach § 42 des Infektionsschutzgesetzes (Fleischindustrie, Großküchen) im gesamten Zeitraum insgesamt 4.782 Menschen infiziert wurden, davon wurden 202 hospitalisiert und 5 (!) sind verstorben. 4.600 gelten als genesen. Derzeit gelten also noch 177 als infiziert-getestet. Das lässt die Entscheidung, gleich zwei Landkreise wieder in den Stillstand zu schicken in fraglichem Licht erscheinen.

In derselben Tabelle hat das RKI die Zahlen der Krankenhäuser, Alten- und Pflegeheime und vergleichbaren Institutionen zusammengefasst. Dort haben sich 21.810 Bewohner und Patienten infiziert, von denen bedauerlicherweise 4.236 verstorben sind. Ob am Virus oder einer anderen Erkrankung, ist nicht bekannt. Das sind aber eben 46,26 Prozent aller positiv getesteten Toten, obwohl die Zahl der positiv Getesteten nur 10,78 Prozent der Gesamtzahl ausmacht. Die Wahrscheinlichkeit, als positiv Getester in einer solchen Einrichtung zu sterben, liegt bei 19,5 Prozent gegenüber 4,53 Prozent bei der Gesamtbevölkerung.

Zieht man die Zahl der in diesen Einrichtungen Verstorbenen von der Gesamtzahl ab, so verbleiben 180.535 Infizierte und 4.924 Verstorbene. Allerdings halbiert sich der Anteil der Verstorbenen auf 2,73 Prozent.

Noch dramatischer wird das Ergebnis, wenn man die Altersstruktur berechnet. 7.772 der Verstorbenen waren über 70 Jahre. Als infiziert getestet gelten 13.910 Menschen in dieser Altersgruppe. Auf 28 Prozent der als infiziert Getesten entfallen somit 56 Prozent der Verstorbenen.

Dreht man die Perspektive, wird deutlich: Von 188.434 Menschen unter 70 Jahren, die als infiziert getestet wurden, sind 1.388 verstorben. Das sind 0,74 Prozent. Wenn ich das auf 83 Millionen hochrechne, bekommt die Zahl zu viele Nullen hinter dem Komma.

War diese Entwicklung vorhersehbar? Bis zum 30.3.2020 waren 455 Menschen als infiziert Getestete verstorben, davon waren 397 oder 87 Prozent über 70 Jahre alt. Über die Fälle in den medizinischen Einrichtungen nennt das RKI keine Daten in diesem Bericht. Die Altersstruktur der Betroffenen hat sich nicht verändert.

Hätte man seinen eigenen Zahlen vertraut und sie nüchtern analysiert, dann hätte man bereits Ende März, spätestens zu Ostern, den Lockdown aufgehoben und alle Ressourcen in den Schutz der Risiko-Gruppe gesetzt. Systematische Testungen aller Beschäftigten in diesen Einrichtungen hätten Infektionen unterbunden, denn insgesamt wurden dort 24.205 Mitarbeiter als positiv getestet. Die zügige Ausstattung mit Schutzkleidung hätte die früher immunisiert und und so die Infektionskette da unterbrochen, wo sie gefährlich war, statt in den Gesundheitsämtern eine ziemlich überflüssige Schnitzeljagd zu betreiben. Man nennt das “Unterbrechen der Infektionsketten”. Vor allem die Bereitstellung von Schutzkleidung hätte eine Ausbreitung in Krankenhäusern und Seniorenresidenzen reduziert. Der Lockdown war dafür keine geeignete Maßnahme.

Die Plausibilität des internationalen Vergleichs

Wenn man vom Rathaus kommt, ist man schlauer. Aber das war eben schon am 30.3.2020 der Fall. Damals hätte man radikal umschwenken müssen und damit wirkliche Erkrankungen vermieden und damit auch Todefälle.

Aber wir klagen auf hohem respektive niedrigem Niveau. „Nur“ 109 Tote je eine Million Einwohner sind schließlich „Weltklasse“. Aber es hätten eben auch weitaus weniger sein können, wenn man die Ressourcen auf den Schutz der Risikogruppe konzentriert hätte.

Auch hier zeigt sich im internationalen Vergleich, dass die Zahl der Infizierten nichts über die Dramatik der sogenannten Pandemie sagt. In der Vergleichsgruppe schneiden nach Deutschland mit bisher 429 Toten je eine Millionen Einwohner die USA noch am besten ab. Während Deutschland bisher insgesamt 4,53 Prozent der als infiziert getesteten Todesfälle verzeichnet, sind es in den USA 3,77 Prozent.

Das Vereinigte Königreich schneidet da drastisch schlechter ab. 1.543 der als infiziert Getesteten sind verstorben, und mit 666 Toten je Millionen Einwohner nimmt es auch im Vergleich einen traurigen Spitzenplatz ein. Als “Kontrollgruppe” habe ich Schweden eingeführt, das wie Großbritannien ein staatlich rationiertes Gesundheitssystem hat und keinen Lockdown durchgeführt hat. Schweden liegt bei den Toten je Millionen Einwohnen zwischen den USA und deutlich unter dem Vereinigten Königreich mit 556 Toten je einer Million Einwohner. So wird die Pandemie ein Beleg dafür, dass die “Bürgerversicherung” genannte Verstaatlichung des gesamten Gesundheitssystems mehr Opfer kostet als das duale deutsche System.

Dass es weder eine Korrelation zwischen den positiven Tests und dem Pandemie-Verlauf gibt, offenbart sich, wenn man die Zahlen vergleicht. Die Schweden haben mit 67.492 Tests pro Million Einwohner am wenigsten getestet, aber mit 11,33 Prozent der Tests die höchste positive Quote. Deutschland hat 82.159 Tests je Million Einwohner durchgeführt, davon waren ca. 3 Prozent positiv. Die Briten haben mehr als das Doppelte mit fast 190.000 Tests durchgeführt, davon waren nur 2,27 Prozent positiv. Die USA haben mit 140.773 Tests je eine Million Einwohner ebenfalls ein dreistelliges Ergebnis, haben aber mit 8,09 Prozent positiven Tests nach den wenig testenden Schweden eine deutlich bessere Trefferquote als die Deutschen oder die Briten.

Was lernen wir daraus?

Evidenz erzeugen – Wissen teilen – Gesundheit schützen und verbessern. An diesem selbst gewählten Motto muss sich das Robert-Koch-Institut messen lassen. Und es versagt nicht nur im Falle der Corona-Krise.

“Als nationales Public Health-Institut spielt das Robert Koch-Institut eine zentrale Rolle für den Schutz der Gesundheit der Bevölkerung in Deutschland. Doch die Herausforderungen, mit denen sich Public Health konfrontiert sieht, nehmen zu – sowohl auf nationaler als auch internationaler Ebene (Global Health). Diesen Themen wird sich das RKI in Zukunft stellen müssen. Gelingen kann dies nur, wenn das Institut seine Struktur und Arbeitsweise an die kommenden Aufgaben anpasst. Das RKI arbeitet bereits heute wissenschaftlich und evidenzbasiert – das macht die Empfehlungen des Instituts glaubwürdig und ist zentral für seine Funktion als Berater der Bundesregierung und im Gesundheitswesen. In Zukunft möchte das Robert Koch-Institut seine Fähigkeiten stärken und strategisch ausbauen. Die Strategie RKI 2025 formuliert die Ziele für diesen Weg.”

Dieses Selbstbildnis findet sich auf den Seiten des RKI. Danach kann man gelassen feststellen, dass es seinen eigenen Ansprüchen nicht genügt. “Evidenzbasiert war hier so ziemlich keine Regierungsberatung, weil das Institut die entsprechenden Daten gar nicht kannte. Die erzeugte veröffentlichte Meinung und die Empfehlungen an die Bundesregierung hatten keinen empirischen Hintergrund. Sie folgten dem Konzept der bekannten Sendung “Rate mal mit Rosenthal.” Vielleicht hätte das RKI mal jemanden fragen sollen, der sich damit auskennt, statt dürftige Zahlen mit hochkomplexen mathematischen Modellen zu verbrämen. Die laufen am Ende immer auf die bekannte Formel “Pi mal Daumen” hinaus. Das RKI ist überflüssig. Es sollte geschlossen werden. Die Erhebung und Verarbeitung von Daten ist beim statistischen Bundesamt besser aufgehoben.

An dem glimpflichen Verlauf hatte das RKI jedenfalls keinen Anteil. Der Grund scheint mir zu sein, dass unser Gesundheitssystem effektiver zu sein scheint als die staatlichen Systeme Schwedens, Italiens oder Großbritanniens. Der Wettbewerb zwischen privaten und öffentlich-rechtlichen Trägern scheint selbst auf den staatlichen Teil auszustrahlen, und die Quersubventionierung der gesetzlichen Krankenkassen durch die Privaten führt offensichtlich zu einer besseren Finanzierung. Es sind also die Pfleger und Schwestern, die Ärzte und die Kliniken, denen zu danken ist. Unser System ist schlecht, aber es ist immer noch besser als alle staatlichen Systeme, die unterfinanziert sind und darauf mit Rationierung reagieren. Wer etwa in Großbritannien mit 80 Jahren noch eine künstliche Hüfte braucht, bekommt stattdessen einen neuen Krückstock. Die Befürworter der “Bürgerversicherung” sollten mal darüber nachdenken.

Ich bin übrigens gespannt, ob sich die 7.300 Betten doch noch anfinden.

Der Beitrag erschien zuerst bei ACHGUT hier




Pläne: Noch viel mehr Windräder in der Ostsee

Schweinswale und alle anderen Meeresbewohner in Nord- und Ostsee sollten rasch verschwinden: Es wird unter Wasser wieder ziemlich laut. Nord- und Ostsee sollen weiter mit Windrädern zugebaut werden. Dazu müssen Pfähle in den Boden gerammt werden, auf denen die Windräder aufgebaut werden und erzeugen einen Höllenlärm, der sich im Wasser besonders gut fortpflanzt. Der BUND fordert, beim Bau auf die stark lärmerzeugende Rammtechnik zu verzichten.

Jetzt hat das zuständige Bundesamt für Seeschifffahrt und Hydrographie (BSH) seinen Vorentwurf für mögliche neue Standorte vorgelegt und damit für Entsetzen bei »Umweltschützern« gesorgt. Bereits jetzt stehen 1.500 Windräder vor den Küsten mit einer Nennleistung von 7,5 Gigawatt. Bis 2030 soll die Leistung knapp verdreifacht und bis 2040 auf 40 Gigawatt verfünffacht werden.Grundlage ist der Beschluss der Bundesregierung, mehr Windparks in Nord- und Ostsee zu bauen. Änderungen im »Windenergie-auf-See-Gesetz« sollen einen schnelleren Ausbau von Windrädern auf See ermöglichen: »Die Erhöhung der Ausbauziele und die langfristige Planbarkeit entfalten Nutzen für die Allgemeinheit und die Stromverbraucherinnen und Stromverbraucher.«

Der »zielstrebige, effiziente, netz-synchrone und zunehmend marktorientierte Ausbau der erneuerbaren Energien« sei ein entscheidender Baustein, »um die Klimaziele in der Energiewirtschaft zu erreichen«, heißt es in der Offshore-Vereinbarung vom 11. Mai 2020 zwischen dem Bund, den Küstenländern Hansestadt Bremen, Hansestadt Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein sowie den Übertragungsnetzbetreibern 50Hertz, Amprion und TenneT.»Windenergieanlagen auf See können hierzu aufgrund der guten Standortbedingungen im Meer, der stetigen Stromerzeugung, der gesunkenen Technologiekosten und der hohen gesellschaftlichen Akzeptanz einen wichtigen Beitrag leisten«, heißt es im Entwurf. Klar auch im Berliner Politneusprech unter Punkt »Alternativen«: »Keine.«

Die Bundesregierung erklärt auch nicht, woher der Strom in Zeiten der Flaute kommen soll. Denn ohne konventionelle Kraftwerke würde in den letzten Tagen wieder eine erhebliche Lücke zwischen Stromverbrauch und Erzeugung durch Sonne und Wind klaffen, wie man gerade an den vergangenen Tagen sehen kann.

Die Bundesregierung müsste jedoch ziemlich viel erklären. Denn sogar an sehr guten Offshore-Standorten werden nur 4.500 Vollaststunden angegeben, an schlechten relativ nahe an der Küste nur 3.200 Stunden. Woher die restlichen Strommengen kommen sollen, ist offen, zumal sich der Wind eher nicht danach richtet, wann ein Industrieland Strom benötigt. Das Jahr hat immerhin 8.760 Stunden.

Motto: Wenn schon Windräder in der Größenordnung von 7,5 Gigawatt bei Flaute nichts liefern, dann müssen noch mehr gebaut werden. Die liefern dann wenigstens etwas mehr als nichts. Gespalten sind »Umweltschützer«, die einerseits im Ausbau »erneuerbarer Energien« die Rettung vor einer vermeintlichen Klimakatastrophe sehen, andererseits die gigantischen Umweltschäden solcher Großindustrieparks nicht länger verheimlichen können. Spätestens nicht mehr, seitdem Michael Moore in seinem neuesten Dokumentarfilm die drastischen Folgen deutlich dargestellt hat.

MICHAEL MOORES FILM „PLANET OF THE HUMANS“
Der Schwindel von der vermeintlich grünen und erneuerbaren Energie

Die Umweltkonzerne BUND und Greenpeace befürworten zwar die Windparks, wie ein Greenpeace-Vertreter sagt: »Der Ausbau der erneuerbaren Energien und der Windenergie auf See ist für das Erreichen der Energiewende- und Klimaziele von großer Bedeutung.« Doch müssten »ökologische Belastungsgrenzen« beachtet werden.

Nabu-Präsident Jörg-Andreas Krüger kritisierte laut Hamburger Morgenpostdie Pläne: »Ein solcher Ausbau wäre nicht naturverträglich umsetzbar und wäre nicht vereinbar mit dem Naturschutzrecht.«Die Leiterin des WWF-Meeresschutzzentrums in Hamburg, Heike Vesper, befürchtet, dass mehr als 50 Prozent der Fläche für bedrohte und geschützte Vogelarten verloren gingen und der Deutsche Fischereiverband sorgt sich um die Fanggebiete, die verschwinden würden. Denn innerhalb der Windparkbereiche darf im Gegensatz zu Dänemark und Großbritannien kein Fischfang betrieben werden.

Am Ende des Jahres soll nach dem derzeitigen Stand ein Flächenentwicklungsplan verabschiedet werden, dann sollen die Flächen auf ihre Eignung untersucht und von der Bundesnetzagentur versteigert werden.

Der Beitrag erschien zuerst bei TE hier




Teure Energiewende – Die Stromrechnung zeigt es

Ich habe vor ein paar Tagen meine jährliche Stromrechnung erhalten, weil ich wieder mal gewechselt habe, um die deutlichen Wechselrabatte zu nutzen. Meinen Strom habe ich in der Abrechnungsperiode für 27,2 Cent/Kilowattstunde brutto bezogen. Das ist etwa 10 Prozent weniger als der derzeitige Durchschnittspreis. Dafür kann man die Mühe des Lieferantenwechsels schon auf sich nehmen.

Der Lieferant führte als Anlage die Steuern, Umlagen und andere staatliche Abgaben auf. Es waren genau 50 Prozent des Bruttostrompreises. Ohne gesetzliche Abgaben wäre der Strom also nur halb so teuer. Die Abgaben sind zum 1. Januar dieses Jahres um gut 3 Prozent gestiegen. Wesentlichen Anteil daran hat die Umlage nach dem Erneuerbaren-Energien-Gesetz (EEG).

Doch die EEG-Umlage mit rund 30 Milliarden Euro/Jahr einschließlich Mehrwertsteuer ist nur ein Teil der Wendekosten. Die Profiteure der Wende haben mit ihrer gut vernetzten Lobby weitere Abgaben durchgesetzt. Den Strom ihrer Windgeneratoren auf hoher See brauchen sie nicht an Land zu leiten. Diese Aufgabe wurde den Übertragungsnetzbetreibern auferlegt. Wenn die Stromtrassen zum Land nicht rechtzeitig fertig sind, wird der Off-Shore Strom, der nicht geliefert werden kann, trotzdem vergütet. Zahlen muss das der Stromkunde mit der Off-Shore Netzumlage nach § 17f, Absatz 5 des Energiewirtschaftsgesetzes mit 2 Milliarden Euro/Jahr.  Die Kosten für den Stromtransport an Land sind in den allgemeinen Netzgebühren enthalten. Es sollen 5 Cent/Kilowattstunde sein. Sie werden nicht als Off-Shore Kosten ausgewiesen.

Stromintensive Betriebe sind mit den hohen Netzkosten in Deutschland nicht mehr wirtschaftlich. Ihnen wird ein Teil der Netzgebühren erlassen auf Kosten der übrigen Letztverbraucher. Die werden nach der Stromnetzentgeltverordnung (StromNEV) mit einer Netzumlage von 1,7 Milliarden Euro/Jahr belastet, die den Gebührenausfall von den stromintensiven Betrieben deckt.

Schnell heranziehende Wolken und abflauender Wind führen zu einem kritischen Leistungsabfall im Stromnetz, weil Wind- und Solaranlagen nicht mehr genügend liefern. Um einen Zusammenbruch zu vermeiden, werden dann Betriebe mit hoher Leistung (Aluminium-Elektrolyse usw.) abgeschaltet. Der Produktionsausfall wird vergütet. Zahlen muss das wiederum der Endkunde mit einer Umlage nach § 18 der Verordnung über Vereinbarungen zu abschaltbaren Lasten (AbLaV) mit 33 Millionen Euro/Jahr. Mit jeder weiteren Wind- und Solaranlage wird dieser Betrag steigen.

Bei der Stromerzeugung geht rund 60 Prozent der eingesetzten Energie als Abwärme verloren. Es ist sinnvoll, diese Abwärme zum Heizen zu nutzen. Dabei gibt es ein Problem. Im Sommer braucht man keine Wärme. Daher müssen solche kombinierten Strom- und Wärme erzeugenden Anlagen entweder auf den Wärmebedarf oder aber auf den Strombedarf ausgelegt werden. Meistens wird die Bedarfswärme erzeugt und Strom ist ein Nebenprodukt. Der Strom wird nach dem Gesetz für die Erhaltung, die Modernisierung und den Ausbau der Kraft-Wärme-Kopplung (Kraft-Wärme-Kopplungsgesetz – KWKG) vergütet. Auch dafür muss der Letztverbraucher mit einer Umlage von 1,1 Milliarden Euro/Jahr zahlen.

Für das Einsammeln des Stroms von den dezentralen Wind-, Solar- und Biogasanlagen muss das Verteilernetz ausgebaut und verstärkt werden. Stromtrassen werden von Nord- nach Süddeutschland gebaut, um Windstrom in den Süden zu bringen. (Niemand erklärt, welcher Strom fließen soll, wenn der Wind nicht weht.) Wegen Bürgerproteste werden große Teile der Leitungen in die Erde verlegt. Die Kosten steigen damit von 1 Million auf 7 Millionen Euro für jeden Kilometer. Lange Leitungen haben hohe Stromverluste. Bei dem Transport nach Süddeutschland sind es etwa 10 Prozent. Hinzu kommen die Kosten für den Regelstrom, der den vom Wetter gesteuerten Wind- und Solarstrom auf den Bedarf ergänzt. Allein die Bedarfsregelung ist durch die Energiewende von 100 Millionen Euro/Jahr auf 1,5 Milliarden gestiegen. Der Netzausbau, die Regelungskosten und die Leitungsverluste wegen der Energiewende dürften Kosten von mehr als 10 Milliarden Euro im Jahr verursachen, die als Netzkosten versteckt sind.

Ökostrom wird nicht geliefert

Mein Stromlieferant bietet einen Strommix aus Kraftwerken und Ökostromanlagen an. Zusätzlich gibt es noch den Naturstrom Gold, der nur aus Ökostrom besteht. Jeder Kunde erhält jedoch den Strommix, der in seinem lokalen Netz ist, egal, ob er Naturstrom oder einen beliebigen Mix haben wollte. Der Lieferant kauft lediglich die verschiedenen Strommengen ein, die zu beliebigen Zeiten in das Netz eingespeist werden. Der Verkauf von Ökostrom ist also eine Irreführung der Kunden. Sie erhalten ihn nicht.

Mit jeder weiteren Ökostromanlage steigen die Stromkosten weiter. Als Folge müssen Industriebetriebe schließen oder in kostengünstigere Länder abwandern. Wann wird dies den Politikern bewusst?

Die direkten Kosten der Energiewende belaufen sich auf annähernd 50 Milliarden Euro/Jahr. Das sind mehr als 600 Euro je Einwohner. Mit der Beendigung der Energiewende wird die Kaufkraft der Bevölkerung deutlich erhöht. Gleichzeitig sinken die Stromkosten für die Industrie. Produkte werden preiswerter. Der Export wird gestützt und das Abwandern der Betriebe aus Deutschland gestoppt. Dies ist ein effektiver Beitrag zur Bewältigung der Corona-Krise. Werden die Politiker diesen Weg gehen?

 

Stromverbraucherschutz NAEB e.V.