1

Die neue Wasserstoffstrategie – Nicht nur Käse aus Holland

Der einzige und vermeintliche Vorteil einer solchen Technik ist, dass kein CO2beim Einsatz entsteht, was den geltenden Klimadogmen sehr entgegen kommt. CO2ist bekanntlich ein Molekül von ca. 0,1 mm Größe (Greta Thunberg kann, qualitätsjournalistisch bestätigt, CO2-Moleküle mit bloßem Auge sehen, was nach ophthalmologischen Erkenntnissen auf diese Größe schließen lässt), das bei zunehmender Konzentration in der Luft aufgrund der Zusammenstöße mit dem Kopf schwere Schädel-Hirn-Traumata auslösen kann, die sich in manischer Klimahysterie äußern.

Elementarer Wasserstoff hat allerdings den Nachteil, dass das nächste natürliche Vorkommen ca. 150 Millionen Kilometer oder 8,3 Lichtminuten entfernt ist und eine Temperatur von 5.500°C aufweist, was Gewinnung und Transport etwas problematisch machen. Wasserstoff muss folglich auf der Erde aus anderen Stoffen produziert werden.

Bundeswirtschaftsminister Peter Altmeier mit Vorstellung der „Wasserstoffstrategie“. Bild Screenshot Video des Bundesministerium für Wirtschaft und Energie

Stand heute

Das und der technisch nicht gerade unheikle Umgang mit elementarem Wasserstoff haben seinen Einsatz bislang auf wenige industrielle Bereiche beschränkt, aber das soll ja anders werden. Man produziert ihn derzeit hauptsächlich durch thermische Formierung von Erdgas (Methan) mit Wasser oder partielle Oxidation von Erdgas, wobei Wasserstoff und CO2entstehen, alternativ auch durch Zersetzung von Methan im elektrischen Lichtbogen, wobei neben Wasserstoff elementarer Kohlenstoff anfällt. Da Erdgas bei unter 4 ct/kWh liegt, die Verluste erträglich sind und man bei den Produktionsprozessen bislang auf nichts Rücksicht nimmt, ist das ökonomisch in Ordnung. Aus klimadogmatischer Sicht müsste das CO2der ersten Verfahren abgeschieden und gelagert werden, was den Wirkungsgrad unter 50% treiben würde, und da der Kohlenstoff des letzten Verfahrens, in dem fast die Hälfte der Energie steckt, ebenfalls unbrauchbar wäre, landet man auch da bei der gleichen Wirkungsgradhausnummer. Zudem widerspricht der Einsatz von Erdgas Ressourcendogmen.

Wasserstoff aus Wind und Sonne

Dogmatisch korrekt und obendrein effizienter wäre eine komplett CO2-freie Produktion durch die Elektrolyse von Wasser, bei der immerhin ca. 85% der eingesetzten Energie im Wasserstoff landen würde. Dazu braucht man Strom. Den könnte man aus AKWs beziehen, Kosten z.Z. ca. 4 ct/kWh, langfristige Tendenz: abnehmend. Würde man das machen, wären bei einem Grundpreis von knapp 5 ct/kWh nachfolgende Verluste je nach Anwendung vermutlich kein großes Problem.

Will man aber nicht (Kein-AKW-Dogma). Es muss alles mit Windkraft oder Fotovoltaik gemacht werden, Kosten ca. 12 ct/kWh, Tendenz langfristig eher zunehmend. Da in Summe ohnehin nicht genügend Wind und Sonne zur Verfügung steht, zeitweise aber manchmal zu viel, will man diesen zeitweisen Überschuss für die Wasserstoffproduktion nutzen. So weit die offizielle Version, die bereits daran hapert, dass es nicht genügend Wind- und Sonnenstrom für alle Anwendungsgebiete gibt und geben wird. Aber das verschweigt man besser.

Die Niederländer wollen nun im Groninger Land einen neuen riesigen Windpark bauen. Der sollte zunächst soundsoviel Wohnungen versorgen können, falls der Wind weht, und ansonsten Wasserstoff produzieren. Inzwischen haben die Niederländer nachgerechnet: das mit den Wohnungen lohnt irgendwie nicht, also planen sie jetzt, nur Wasserstoff aus dem Windstrom zu produzieren. So um die 800.000 to/a sind geplant und irgendwie soll der Wasserstoff dann auch zu den Industrien an Rhein und Ruhr und zu Verbrauchern anderswo kommen. Die Niederländer meinen, das lohnt sich (für sie). Schauen wir uns das mal genauer an.

Ein paar Eckdaten

Im weiteren schauen wir auf ein paar Zahlen. Manche sind problemlos in Tabellenwerken zu finden, bei anderen ist das weniger einfach. Doch zunächst einmal zu den einfachen Sachen: Wasserstoff ist ja fürchterlich energiereich. Pro Kilogramm liegt er im Vergleich mit anderen Energieträgern deutlich an der Spitze, wobei wir hier die Verbrennungsenthalpie bei vollständiger Verbrennung betrachten.

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/kg 286.000 50.125 49.620 32.750

Diese Werte werden gerne verkauft, um dem Betrachter den Wasserstoff schmackhaft zu machen. Für den Transport ist aber das Volumen interessanter als das Gewicht, und da sieht die Bilanz für den Wasserstoff weniger brillant aus:

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/m³ (Gas) 25.535 35.803 128.500 (~82*10⁶)
kJ/m³ (F) 20,2*10⁶ 21*10⁶ 28*10⁶ ~82*10⁶

Egal wie man es betrachtet, Steinkohle liegt volumenmäßig an der Spitze. Aufgelistet ist der Energieinhalt bei Normaldruck/Temperatur als Gas und sowie als Flüssiggas. Wenn man Gas komprimiert, liegt man irgendwo dazwischen. NPT-Wert * Druck in bar = Energieinhalt. Auch als Flüssiggas bringt Wasserstoff gerade einmal 70 kg/m³ auf die Waage und hat dann eine Temperatur von -252°C, die Alkane wiegen immerhin schon um die 500 kg/m³ (bei -160°C und 0°C), Kohle bei ca. 2,5 to. Solche Daten, die für den Transporteur interessanter sind, muss man allerdings selbst ausrechnen.

Die Frage wäre dann: Gas oder Flüssiggas? Die Russen liefern ihr Erdgas durch Röhren zu uns, die US-Amerikaner verflüssigen es und liefern es per Tanker. Ziemlich leicht lässt sich ermitteln, womit man bei Flüssiggas zu rechnen hat:

Verluste Wasserstoff Erdgas
Verflüssigung ≥35% ~12%
Lagerung pro Tag ~3% ~0,1%

Verflüssigung kostet recht viel Energie, was einer der Gründe ist, weshalb das US-Gas auch teurer ist als das russische, aber das nur nebenbei. Bei Erdgas (Siedepunkt -161°C) hält sich das trotzdem noch in Grenzen, Wasserstoff mit einem um fast 100°C niedrigeren Siedepunkt ist aber ein echtes Problem: In Houston eingeschifft wäre in Rotterdam weniger als die Hälfte übrig. Was für die Niederländer auch gelten würde, wie wir gleich sehen werden.

Die Logistik der Niederländer

Für die niederländische Wasserstoffproduktion kommt ein anderes Problem hinzu, das sie praktisch auf einen Stand mit Wasserstoff aus Houston setzen würde, würden sie auf Flüssigwasserstoff setzen: mit einem Atomkraftwerk könnte man den Wasserstoff „just-in-time“ in der Menge produzieren, in der er benötigt wird, die Niederländer müssen aber so produzieren, wie der Wind weht. Nimmt man Stromleistungen aus Wind und Leistungsbedarf der Kunden als Vorbild für eine Wasserstoffwirtschaft, bedeutet das über den Daumen gepeilt, dass von den 800.000 to/Jahr über den Daumen gepeilt ein Drittel bis zur Hälfte längere Zeit gelagert werden müsste. Nach Elektrolyse, Verflüssigung, Transport und Lagerung kämen noch bestenfalls 35% der Energie an, was mit allem Drumherum bereits zu einem Preis von knapp 50 ct/kWh ab Tank führen würde.

Das Mittel der Wahl ist somit der Transport von Wasserstoff als Gas durch Pipelines, weil die üblichen Druckgasflaschen mit 50 l Inhalt,  300 bar Fülldruck und 50 kg Gewicht wohl kaum  lukrativ sind. Auch in Pipelines muss das Gas allerdings komprimiert werden. Bei AKW-Wasserstoff käme man vermutlich mit den üblichen 16 bar aus. Bei den großen Mengen, die bei Windkraftproduktion zwischengespeichert werden müssten, müsste man aber auch Gaskavernen, in denen das Erdgas zwischengespeichert wird, einsetzen und bei höheren Drücken arbeiten. Wenn man Gas komprimiert, muss Volumenarbeit geleistet werden, außerdem erhitzt sich Gas bei Kompression. Da weder die Temperatur in den Leitungen/Speichern gehalten werden kann noch an der Verbraucherseite die mechanische Energie bei der Entspannung genutzt wird, handelt es sich um reine, bei größer werdendem Druck steigende Verluste. Die sind zwar nicht so spannend wie bei der Verflüssigung, aber bei ca. 80 bar bleiben ohne Berücksichtigung anderer Verluste wie beispielsweise Erzeugen und Halten des Kissendrucks in den Kavernen oder Druckerhöhungen in längeren Leitungen vom Windstrom noch ca. 60% übrig. Beim Verbraucher dürften also auch hier nur knapp über 50% ankommen.

Solche Zahlen sind übrigens schon nicht mehr ganz einfach zu ermitteln. Zum einen redet man ungern über Verluste, zum anderen werden alle möglichen Schönrechnungsfaktoren eingerechnet. Wir kommen später noch darauf zurück. Solche Transportverluste entstehen zwar auch beim Erdgas, aber beim Wind-Wasserstoff müssen wir mindestens vom 5-fachen des Grundpreises von Erdgas ausgehen und dieser Faktor findet sich in allen Zahlen wieder. Zudem spielen auch noch weitere individuelle Randbedingungen mit. Als Kunde ahnt man vermutlich so ganz langsam, wohin sich die Abrechnung für die Heizung bewegt, wenn statt Erdgas niederländischer Wasserstoff eingesetzt wird.

Power-2-Gas

Die Pipeline-Version hat allerdings die Nebenbedingung, dass man auch Pipelines zur Verfügung hat. Wenn genügend vorhanden sind, kann man Erdgaspipelines außer Betrieb nehmen und umwidmen, ansonsten müsste man neue bauen. Das Gleiche gilt für Speicherkavernen. Als Alternative zum Wasserstofftransport bietet sich Power-2-Gas an, wobei man den Wasserstoff gar nicht erst transportiert, sondern mit CO2zu Methan umwandelt. Da die Reaktion zwischen Wasserstoff und CO2in der Gesamtbilanz exotherm ist, sieht das gar nicht so schlecht aus, wenn man die Abwärme nutzen kann.

Hier dreht allerdings die Schönfärberei voll auf. Realistisch betrachtet kommen von der Windkraft vermutlich ca. 60% im Methan an, das dann dem normalen Erdgas untergemischt werden kann. Spezialisten rechnen das unter Hinzuziehen aller möglichen Nebenbedingungen und theoretischer Optionen auf Werte nahe 100% hoch, also Wind=Gas. Eine der Mogelpackungen, die drinstecken: Wo bekommt man das CO2her? Richtig, aus CO2-Abscheidung aus anderen Prozessen. Das kostet ebenfalls wieder Energie, die bezahlt werden muss, was letztlich auch den Preis für das künstliche Erdgas weiter aufbläht. Die Kreuz- und Querrechnung ist ohne viel Aufwand kaum zu durchschauen und ob wirklich alle theoretischen Effekte auch in der Praxis genutzt werden können, ist fraglich. Man liegt sicher nicht weit daneben, wenn man unterstellt, dass bei P2G in der Gesamtbilanz ungefähr 40% des primären Windstroms ankommen. Mit entsprechenden Auswirkungen auf die Preise.

Wasserstoffträger

Besonders im Zusammenhang mit dem immer mehr platzenden E-Mobilitätstraum werden dem Publikum gerne flüssige organische Wasserstoffträger verkauft (dass Wasserstoffgas an Tankstellen eine dumme Idee sein könnte, scheint selbst Grünen ohne Knallgasreaktion einzuleuchten). Der Wasserstoff wird hierbei bei erhöhten Temperaturen chemisch in ein Molekül eingebaut und aus diesem bei noch höheren Temperaturen wieder freigesetzt. Handelsüblich sind etwa 150°C und höherer für Schritt 1 sowie 300°C für Schritt 2, jeweils in Gegenwart bestimmter Katalysatoren. Schritt 1 ist exotherm, wobei man versuchen kann, die Verluste durch Nutzen der Abwärme zu minimieren, Schritt 2 endotherm, d.h. es muss auf jeden Fall Energie zugeführt werden. Es ist etwas schwierig, an Daten zu gelangen, aber Wirkungsgrade bis zu 70% scheinen halbwegs realistisch zu sein. Die Datenlage ist deshalb schwierig, weil die den Wasserstoff nutzenden Brennstoffzellen einen höheren Wirkungsgrad als Benzinmotoren aufweisen, was sich propagandistisch besser macht als die Einzelwerte. Vermutlich sieht die Gesamtbilanz ohne alles Schönen kaum anders aus als bei Benzin.

Wieviel Wasserstoff kommt dabei zusammen? Nehmen wir als Rechenbeispiel einmal Toluol (verwendet werden andere verwandte Verbindungen, aber Toluol, ein Benzolabkömmling, war mal ein Kandidat), das bei einer Molmasse von 92 g/mol insgesamt 3 mol = 6 g Wasserstoff reversibel binden kann. Pro Kubikmeter kann Toluol bei einer Dichte von 0,87 g/cm³ umgerechnet ca. 14 kg Wasserstoff speichern, was einem Energieinhalt von 4*10⁶ kJ entspricht. Das ist gerade einmal 1/5 dessen, was ein LNG-Erdgasfahrzeug im gleichen Volumen mit sich führt. Nicht gerade der Renner. Bei der Untersuchung anderer Möglichkeiten, Wasserstoff an irgendetwas zu binden, findet man kein wirklichen Unterschiede zu diesen Werten.

Zum Transport von Wasserstoff eignen sich organische Wasserstoffträger somit eher nicht, und auch für die Mobilität kommen neben dem relativ geringen Energieinhalt und der damit notwendigen Tankstellendichte andere Probleme hinzu. An der Tankstelle muss man erst die alte Flüssigkeit ablaufen lassen, bevor man den Tank neu füllen kann, und auch der Tankwagen fährt voll wieder zurück und nicht leer. Auch mit AKW-Wasserstoff stellt sich die Frage, ob das wirklich die Technik der Zukunft ist, mit dem Preisgefüge, das sich aus Windkraft-Wasserstoff ergibt, braucht man diese Frage allerdings gar nicht erst zu stellen.

Strom-Speicher

Die Gastechniken werden auch als Energiepuffer für windschwache Zeiten gehandelt, d.h. man macht aus dem Gas in einem Kraftwerk wieder Strom, wenn kein Wind weht. Wäre genügend Strom vorhanden, wären Gasspeicher als solche vermutlich im Gegensatz zu allen anderen Ideen tatsächlich skalierbar, d.h. man könnte möglicherweise genügend Kavernen als Puffer bauen. Dummerweise landen wir bei P-2-G-2-P bei Wirkungsgraden um die 30%, d.h. in Überschusszeiten muss der Wind 3 kWh Überschussstrom produzieren, um in Mangelzeiten 1 kWh wieder zurück gewinnen zu können. Wir können uns die weiter Diskussion vermutlich sparen.

Außer Spesen nichts gewesen

Wie schon erwähnt, war es teilweise nicht ganz einfach, realistische Zahlen aus dem üblichen Mogelwerk heraus zuziehen und ich erhebe keinen Anspruch, wirklich die letzten technischen Details berücksichtigt zu haben. Wer in den Zahlen einen Rechenfehler findet, darf ihn auch gerne behalten. Aber auch Korrekturen dürften die Bilanzen nur unwesentlich ändern. Technisch ist alles machbar, großenteils auch vom Standpunkt eines Ingenieurs hochinteressant, aber bezüglich der Dogmenbefriedigung, unter der alles firmiert, skaliert mal wieder nichts. Da die große Stromwende einschließlich der Elektromobilität aus einer ganzen Reihe von Gründen nicht funktioniert und das selbst dem grünen Ideologieapparat auffällt, verkauft man dem Volk nun die nächste Technik ausgerechnet auf Basis des Nichtfunktionierenden nach dem Motto „wenn etwas nicht funktioniert und obendrein zu teuer ist, propagiere ich eben etwas, was überhaupt nicht funktioniert und noch teurer ist“. Und keiner lacht.

 

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.

 

Der Beitrag erschien zuerst am 20.3.20 hier bei EIKE

 

 




Covid-19 und die Illusion von der Wissensgesellschaft

Yogeshwar wollte damit wohl sagen, dass die Menschen, von wochenlanger Einschränkung ihrer Freiheitsrechte frustriert und ermüdet, es nun wieder vorzogen, sicheres wissenschaftliches Wissen zu verdrängen, um zum gewohnten Trott ihres Alltagslebens zurückkehren zu können und sich dabei wieder von ihrem eigenen Hausverstand leiten zu lassen. Wie Massendemonstrationen gegen die „Hygiene-Diktatur“ in etlichen deutschen Großstädten zeigen, entwickelte sich bei einem Teil der Bevölkerung Widerstandsgeist. Der Wissenschaftsjournalist sieht seine Aufgabe offenbar darin, das lesende und fernsehende Publikum wieder zum rechten Glauben an die Leistungsfähigkeit der wissenschaftlichen Methode zurückzuführen.

Hinter dieser Einschätzung versteckt sich meines Erachtens aber ein grundsätzlicher Irrtum, der auf der Verwechslung von wissenschaftlichem Wissen und szientistischer Ideologie beruht. Zwar glaubt heute kaum noch jemand, die wissenschaftliche Forschung könne durch zähe Anstrengung irgendwann zum gottgleichen Allwissen beziehungsweise ganzheitlichen Verständnis natürlicher und/oder gesellschaftlicher Prozesse gelangen. Doch vermuten wohl immer noch viel zu viele, man könne sich der Wahrheit zumindest bis auf 90 Prozent annähern. Oft fehlen uns für das umfassende Verständnis komplexer Sachverhalte aber über 90 Prozent der nötigen Informationen. Das gilt nach Aussage der darauf spezialisierten Biologen schon für einzellige Organismen und noch in weit größerem Maße für ganze Ökosysteme und für menschliche Individuen und ganze Gesellschaften. Dennoch trauen gerade Menschen mit formal höherer Bildung den zumeist staatlich besoldeten Wissenschaftlern zu, mithilfe deterministischer Computersimulationsmodelle, d.h. mit dem Durchrechnen von Differential- bzw. Differenzengleichungen die wesentlichen Ursachen der Entwicklung komplexer Systeme ausmachen zu können. Nur wer glaubt, bereits die wesentlichen Faktoren und Zusammenhänge verstanden zu haben, kann von Computersimulationen realistische Prognosen erwarten. Es handelt sich dabei aber, wie leicht gezeigt werden kann, um nichts anderes als um das, was Wirtschafts-Nobelpreisträger Friedrich A. Hayek „Anmaßung von Wissen“ genannt hat.

Ich hatte selbst in Sachen Modellierung ein Schlüsselerlebnis. Als ich vor Jahren beim deutschen Magazin „Bild der Wissenschaft“ einen Übersichtsartikel über das Pro und Contra von Tierversuchen  einreichte, wollte der zuständige Redakteur nicht verstehen, warum man Chemikalientests an Tieren nicht vollständig durch Tests an Zellkulturen und durch Computersimulationen ersetzen kann. Er ging offenbar davon aus, dass solche Modelle alle wesentlichen Zusammenhänge abbilden konnten. Um ihn vom Umfang unseres Nichtwissens zu überzeugen, argumentierte ich mit Karl R. Popper und anderen Wissenschaftsphilosophen. Danach können Forscher aufgrund von Beobachtung und Experiment nur zu mehr oder weniger vorläufigen Hypothesen, aber nicht zu definitiven Erklärungen von Naturzusammenhängen gelangen. Aber den Namen Popper hatte der junge Mann noch nie vernommen. Mein Artikel wurde schließlich zwar veröffentlicht, aber vom Cover genommen und ins Innere des Heftes verbannt, obwohl er vom Umfang her der Hauptartikel der Ausgabe war.

Die Anmaßung von Wissen in Form mathematischer Modelle zeigte sich bislang hauptsächlich in den vergleichsweise primitiven Computersimulationen auf malthusianistischer Grundlage, die der 1972 erschienen Studie „Die Grenzen des Wachstums“ zugrunde liegen, die vom „Club of Rome“ in Auftrag gegeben worden war. Danach sollte die Weltwirtschaft schon um die Jahrtausendwende wegen der Erschöpfung von Ressourcen zusammengebrochen sein. Die aktuelle Ölschwemme auf dem Weltmarkt zeigt, wie weit von der Realität diese Modelle entfernt waren. Weniger augenfällig ist das bei den scheinbar erheblich komplexeren Klimamodellen, mit denen die so genannte Klimapolitik zur Abwendung einer der Menschheit angeblich drohenden „Klimakatastrophe“ begründet wird. Das Vertrauen in diese Modelle ist inzwischen so groß, dass ihnen widersprechende Messdaten und Alltagserfahrungen bei maßgeblichen Massenmedien und den ihnen ausgelieferten Bevölkerungsteilen der selektiven Wahrnehmung zum Opfer fallen. Kaum jemand wagt es noch zu bezweifeln, dass die Freisetzung von Kohlenstoffdioxid durch menschliche Aktivitäten die Hauptursache der Erderwärmung ist. Dabei gibt es für die monokausale Argumentation und daher nur scheinbar komplexe Struktur dieser Modelle keine empirischen Belege. Das unrühmliche Ende des Biosphere-II-Experiments in Arizona (hier) hätte schon in den 1990er Jahren zeigen können, dass die Natur nicht so funktioniert, wie die Grünen sich das vorstellen. Doch wer sich heute die akademische Freiheit nimmt, die Erzählung vom schädlichen Einfluss der industriellen Revolution auf Umwelt und Klima durch Hinweis auf eigene Beobachtungen kritisch zu hinterfragen, der riskiert, wie das Beispiel der Auseinandersetzung des australischen Meeresforschers Peter Ridd zeigt, inzwischen seine berufliche Zukunft.

Nur auf dem Hintergrund der verbreiteten Modell-Gläubigkeit bei den Regierenden und den ihnen nahe stehenden Medien wird verständlich, wie es unter Hinweis auf „die“ Wissenschaft zur politischen Entscheidung kam, der Ausbreitung des neuen Virus SARS-CoV-2 mit der dümmsten aller denkbaren Strategien, nämlich dem kompletten Lockdown des Kultur- und Wirtschaftslebens zu begegnen, anstatt lediglich die an Covid-19 Erkrankten zu isolieren und empfindliche Bevölkerungsgruppen besonders zu schützen. Eine zentrale Rolle spielte dabei das epidemiologische Modell des Teams um Neil Ferguson vom renommierten Londoner Imperial College. Dieses prognostizierte im März 2020, die Covid-19-Epidemie würde in Großbritannien höchstwahrscheinlich eine halbe Million und in Amerika über zwei Millionen Todesopfer  fordern. Wörtlich schrieb die New York Times: „With ties to the World Health Organization and a team of 50 scientists, led by a prominent epidemiologist, Neil Ferguson, Imperial is treated as a sort of gold standard, its mathematical models feeding directly into government policies.“ Der britische Premierminister Boris Johnson revidierte daraufhin die von ihm ursprünglich favorisierte Option einer kontrollierten Durchseuchung der Bevölkerung zugunsten eines strengen Lockdowns nach chinesischem Vorbild – mit unabsehbaren wirtschaftlichen und sozialen Folgekosten. Die meisten anderen europäischen Regierungen, mit Ausnahme der schwedischen, taten es ihm gleich – soweit sie nicht ohnehin bereits von sich aus dem Beispiel der chinesischen Diktatur gefolgt waren.

Ausschlaggebend für die Angst erzeugenden Projektionen des Ferguson-Modells war die Annahme einer unrealistisch hohen Infektionsrate von 80 Prozent und dessen deterministische Struktur, die keinen Platz ließ für intelligente Anpassungsmaßnahmen der von der Epidemie bedrohten Menschen. Obendrein verwendete das Team von Neil Ferguson ein total veraltetes Computerprogramm.

Das hielt die „New York Times“ nicht davon ab, es zum „gold standard“ der epidemiologischen Modellierung zu erklären. Dabei hatte Ferguson bereits eine lange Liste von haarsträubenden Fehlprognosen auf seinem Register: Im Jahre 2001 wurden auf seinen Rat hin in England vorsorglich sechs Millionen Schafe gekeult, um die Ausbreitung der Maul- und Klauenseuche zu stoppen. Kostenpunkt: Sechs Milliarden Pfund Sterling. Ein Jahr später sagte Ferguson den Tod von 150.000 Personen durch BSE (Creutzfeldt-Jacob-Krankheit) voraus. Es starben aber in GB gerade einmal 177 Menschen daran. Im Jahre 2005 prognostizierte Ferguson sage und schreibe 200 Millionen Todesopfer durch die Vogelgrippe. Es starben aber weltweit nur 282 Personen. Und im Jahre 2009 sagte er den Tod von 65.000 Briten durch die Schweinegrippe voraus. Es starben nur 457 Personen. Am Ende verlor Ferguson seinen Job nicht wegen seiner betrügerischen Fehlprognosen, sondern weil er während der von ihm selbst propagierten Kontaktsperre mit seiner Geliebten, einer verheirateten Frau mit zwei Kindern, erwischt wurde.

Auf die herrschende szientistische Ideologie ist auch der bislang wohl größte Wissenschaftsskandal der herbeigeredeten Coronakrise zurückzuführen. Es handelt sich dabei um die offenbar orchestrierte Lobby-Kampagne großer Pharma-Konzerne gegen den Einsatz des seit über sieben Jahrzehnten bewährten und obendrein sehr preiswerten Anti-Malaria- und Anti-Rheuma-Mittels Chloroquin (CQ) beziehungsweise dessen verträglichere Abkömmlinge Hydroxychloroquin (HCQ) und Chloroquinphosphat in Kombination mit dem ebenfalls zum Klassiker gewordenen Antibiotikum Azithromycin (AZ). In Frankreich verordnete Prof. Didier Raoult seinen positiv auf Covid-19 getesteten Patienten im Marseiller Hospital „La Timone“ in der Anfangsphase der Krankheit diese beiden Medikamente. Er hat nie behauptet, dass diese für ganz andere Anwendungen gedachten Medikamente allein in der Lage sind, die bereits fortgeschrittene Erkrankung zu stoppen. Vielmehr sollten sie einer Verschlimmerung der Virusinfektion vorbeugen, gehören also eher in die Kategorie Prophylaxe. Er berief sich dabei auf die guten Erfahrungen seines chinesischen Kollegen Zhong Nanshan und auf den Hippokratischen Eid, der ihm gebiete, Patienten beim Fehlen einer anerkannten Therapie auch mit unkonventionellen Methoden zu helfen. Raoult konnte sich mit seinem empirischen, vom gesunden Menschenverstand geleiteten Vorgehen auf seine Jahrzehnte lange Erfahrung als Infektiologe und seine weltweite Anerkennung als führender Mikrobiologe (dessen Namen einige bekannte Krankheitserreger tragen) berufen, was sich nicht zuletzt im Science Citations-Index niederschlug. Die zunächst bei über 1.000  und schließlich bei fast 4.000 Patienten erzielten Resultate  gaben Didier Raoult am Ende recht. Kaum irgendwo starben so wenige Patienten an Covid-19 wie in Marseille (0,9 Prozent). Nur bei 25 Patienten (0,67 Prozent) wurde die befürchtete Herzrhythmus-Störung (Verlängerung des Q-T-Intervalls) festgestellt. Nur in drei Fällen führte diese zum Abbruch der Behandlung.

Doch damit fand er bei den Mandarinen des staatlichen französischen Gesundheitswesens keine Anerkennung. Im Gegenteil: Sie mokierten sich darüber, dass Raoult in Südfrankreich vom einfachen Volk inzwischen wie ein Messias verehrt wird, und warfen ihm vor, sein Vorgehen entspreche nicht dem „Gold Standard“ klinischer Studien. Als solcher gelten angeblich nur randomisierte Doppel-Blind-Studien, bei denen ein Teil der Probanden ohne ihr Wissen nur mit Placebos behandelt wird. Bei potenziell lebensbedrohenden Erkrankungen wie Covid-19 sei es aber ethisch nicht vertretbar, Patienten mit Placebos abzuspeisen, entgegnete Didier Raoult. Medizin erschöpft sich eben nicht in der Anwendung starrer von „der“ Wissenschaft abgeleiteter Regeln, sondern ist bekanntlich auch eine Kunst, die sich auf jahrzehntelange Erfahrung und Intuition stützt. Sie hat es also weniger mit Gewissheit, sondern mehr mit Wahrscheinlichkeiten zu tun. Didier Raoult kann sich damit immerhin auf Paul Feyerabends Polemik wider den Methodenzwang  berufen.

Diese vom gesunden Menschenverstand inspirierte Haltung stieß offenbar in der französischen Gesundheitsbürokratie auf Missfallen. Yves Lévy, der Mann der früheren Gesundheitsministerin Agnès Buzyn, versuchte als Direktor des nationalen medizinischen Forschungs-Netzwerks INSERM Didier Raoult und seinem Institut Hospitalier Universitaire (IHU) Méditerranée das Leben schwer zu machen, indem er es nicht anerkannte. Seine Frau ließ zu Beginn dieses Jahres HCQ als gefährliche Substanz und damit verschreibungspflichtig einstufen, nachdem das Medikament, trotz einiger problematischer Nebenwirkungen bei Herz-Patienten, vor allem in warmen Ländern Jahrzehnte lang ohne Beanstandung in großen Mengen als Malaria-Prophylaktikum eingenommen worden war. Buzyns Amtsnachfolger Olivier Véran versuchte schließlich sogar in mehreren Anläufen, HCQ für die Behandlung von Covid-19-Patienten ganz zu verbieten.

Da kam die Veröffentlichung einer internationalen Metastudie im renommierten Magazin „The Lancet“ unter dem Titel „Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: A multinational registry analysis“  am 22. Mai 2020 offenbar wie gerufen. In dieser von Prof. Mandeep Mehra MD, Sapan S. Desai MD, Prof. Frank Ruschitzka MD und Amit N. Patel MD gezeichneten Publikation, die inzwischen zurückgezogen werden musste, geht es um die Analyse von anscheinend überwiegend aus Amerika, aber auch von anderen Kontinenten stammenden Patientendaten aus insgesamt 671 Kliniken, die nach Angaben von Sapan Desai elektronisch an das von ihm geleitete Chicagoer Start-up-Unternehmen Surgisphere übermittelt worden waren. So hätten die Heilungserfolge von fast 15.000 mit CQ oder HCQ behandelten Patienten mit Daten von 81.000 Patienten verglichen werden können, die anders behandelt wurden. Im Ergebnis Im Vergleich zur Kontrollgruppe wurde danach bei den mit HCQ (18 %), HCQ plus Makrolid-Antibiotikum (23,8 %), Chloroquin (16,4 %) und Chloroquin plus Makrolid (22,2 %) im Krankenhaus behandelten Patienten sogar eine erhöhte Mortalitätsrate wegen Herzrhythmusstörungen o.ä. festgestellt. Jedenfalls sei die Anwendung von Chloroquin und HCQ nicht von Vorteil.

Schon am 23. Mai kündigte Olivier Véran daraufhin über Twitter an, das zuständige Beratergremium HCSP werde sich mit der Aufhebung der provisorischen Zulassung von HCQ befassen. Am 27. Mai verbot Olivier Véran den Ärzten schließlich die Verschreibung von HCQ an Covid-19-Patienten. Schon am 25. Mai unterbrach die Weltgesundheitsorganisation WHO unter Hinweis auf die Veröffentlichung in „The Lancet“ teilweise ihre groß angelegte Studie SOLIDARITY . In Deutschland wurde jedoch entschieden, zwei ähnliche Studien mit etwa 3.000 Patienten fortzuführen, wie der Koordinator der beiden Studien, der Tübinger Professor Peter Kremsner gegenüber der „Ärzte-Zeitung“ erklärte. Eine dieser beiden Studien, die COMIHY-Studie konzentriert sich auf ambulant behandelte, also weniger schwer an Covid-19 erkrankte Patienten und hält sich auch mit der Dosierung an die Vorgaben von Prof. Didier Raoult, während die meisten übrigen Therapie-Experimente mit HCQ eine Überzahl schwerkranker Patienten einschlossen und obendrein mit Überdosen von HCQ arbeiteten. Auch Raoult selbst fuhr fort, von seiner autonomen Entscheidungsbefugnis als Arzt Gebrauch zu machen, wies jedoch darauf hin, dass es zu diesem Zeitpunkt zumindest in Marseille kaum noch Covid-19-Patienten gab.

In der Zwischenzeit hatte eine ganze Reihe international renommierter Kliniker und Statistiker , angeführt durch den Statistiker Dr. James Watson (aus Deutschland steht Prof. Dr. Frank Brunkhorst von der Jenaer Uni-Klinik auf der Liste) in einem Brief an die Autoren der Studie und an Richard Horton, den Herausgeber von „The Lancet“ öffentlich bezweifelt, dass bei der Datenauswertung der in „The Lancet“ veröffentlichten Metastudie von Mehra et al. alles mit rechten Dingen zugegangen ist. Unter anderem bemängelten die Wissenschaftler, dass die Herkunft der Daten wegen des Fehlens eines Codes nicht nachvollzogen werden kann. Man wisse also nicht, welche Kliniken Daten übermittelt haben und welche nicht. In Australien wurden für fünf Kliniken mehr Corona-Tote erfasst als im ganzen Land ermittelt worden waren. Als verwunderlich erschien den Kritikern auch die auffällig geringe Varianz des (verborgenen) statistischen Materials. Aus diesen und weiteren Gründen forderten die Experten die Offenlegung der Rohdaten und der Codes, mit deren Hilfe sie verarbeitet wurden. Dieser Bitte konnten Mehra et al. nicht nachkommen.

In Brasilien, dessen Präsident Jair Bolsonaro sich wie US-Präsident Trump nachdrücklich für die Verabreichung von HCQ einsetzte, versammelte der führende Chemiker Marcos Eberlin 300 weitere Top-Wissenschaftler, um den Artikel von Mehra et al. in „The Lancet“ zu zerpflücken und die Ergebnisse der Analyse in einem offenen Brief zu veröffentlichen. Die brasilianischen Kritiker der Veröffentlichung von Mehra et al. wiesen überdies nach, dass schwerkranken Patienten in der so genannten Manaus-Studie (veröffentlicht im JAMA hier) tödliche Dosen von CQ verabreicht worden war, um die Gefährlichkeit dieses Medikaments zu demonstrieren. Am Ende ihres offenen Briefes weisen die brasilianischen Wissenschaftler übrigens ausdrücklich darauf hin, dass sie sich nicht absolut gewiss sind, ob HCQ den Patienten hilft. Nur die Wahrscheinlichkeit spreche dafür. Die Justiz könne bei der Prüfung der Zulassung dieses Medikaments nur nach dem Grundsatz „In dubio pro reo“ verfahren.

(Leider gehen die Wissenschaftler nicht auf die bei Schwarzen, also gerade auch in Brasilien relativ häufige HCQ-Unverträglichkeit bei Glucose-6-Phosphat-Dehydrogenase (G6PD(H)-Mangel https://de.wikipedia.org/wiki/Glucose-6-phosphat-Dehydrogenase-Mangel ein. Durch diese ernsthafte Störung des Zuckerstoffwechsels werden die Zellmembranen, insbesondere die der roten Blutkörperchen, anfällig für oxidativen Stress durch HCQ. Das kann zur hämolytischen Anämie führen.)

Noch strenger ging ein anonymer, aber bekannter Blogger aus der Wissenschaftsszene  (Goldstein) mit den Autoren der in „The Lancet“ publizierten Studie ins Gericht. Er wies nach, dass die Studie auf Fake-Daten beruht und dass Surgisphere nichts anderes ist als eine unseriöse Briefkastenfirma, in der eine Porno-Darstellerin als leitende Angestellte untergekommen war. Weitere Statistik-Profis schlossen sich in anonymer Form dieser vernichtenden Kritik an, indem sie nachwiesen, dass Surgisphere zu tragbaren Kosten gar nicht an die in der Studie angeblich verwendeten klinischen Daten gelangt sein konnte. Schlag auf Schlag kamen dann über soziale Netzwerke im Internet weitere kompromittierende Tatsachen über die Chicagoer Firma und über Interessenskonflikte der Autoren ans Licht.

In Frankreich untersuchte der linke Soziologe Laurent Mucchielli mögliche Interessenskonflikte der Autoren des Lancet-Artikels und wies nach, dass Mandeep Mehra verschwiegen hatte, dass das Bostoner Brigham Hospital, an dem er arbeitete, vom Pharma-Konzern Gilead bezahlt wird, um das Virostatikum Remdesivir zu testen. Gilead hatte dieses Medikament entwickelt, um die in Zentralafrika ausgebrochene Ebola-Epidemie gewinnbringend zu bekämpfen. Doch diese Epidemie war von selbst erloschen, bevor das neue Medikament auf den Markt kam. Nun versucht Gilead offenbar, sein teures, aber noch kaum erprobtes Medikament in der Coronakrise loszuwerden, indem er mithilfe willfähriger Wissenschaftler und Medien das preiswerte Konkurrenz-Produkt HCQ mit allen Mitteln schlecht macht. Auch der an der Zürcher Uni-Klinik arbeitende Prof. Dr. Frank Ruschitzka forscht mit Geldern der US-Pharma-Konzerne Gilead und Abbott. Mit dem letztgenannten Konzern arbeitet auch Dr. Mandeep Mehra zusammen. Der an der University of Utah lehrende Mediziner Amit Patel gab zu, die beiden renommierten Professoren Mehra und Ruschitzka mit seinem Schwager Sapan Desai, dem Gründer von Surgisphere, bekanntgemacht und für die Unterzeichnung der gefakten Lancet-Veröffentlichung gewonnen zu haben. Er trennte sich kürzlich „im Einvernehmen“ von seiner Universität.

Anfang Juni 2020 gab es nach alledem kein Halten mehr. „The Lancet“ musste die Veröffentlichung der inkriminierten Studie zurückziehen. So endete (vorläufig) einer der größten Wissenschaftsskandale der letzten Jahrzehnte. In Frankreich spricht man von „Lancet Gate“ . Tausende von Ärzten und Angehörige von Covid-19-Opfern haben in Frankreich juristische Schritte gegen die (un)verantwortlichen Minister eingeleitet oder angekündigt. Aber vermutlich dürfte dieser Skandal noch sehr viel weiter reichende politische Konsequenzen haben.

Man erinnert sich daran, dass die Europäische Union im Rahmen des so genannten Lissabon-Prozesses einmal offiziell verkündet hat, innerhalb von einem Jahrzehnt zur dynamischsten Wissensgesellschaft der Welt werden zu wollen. Dahinter steht offenbar der u.a. auf Auguste Comte zurückgehende Anspruch, das angeblich im Mittelalter vorherrschende magische Denken durch eine wissenschaftliche Weltanschauung überwinden zu können. Es lässt sich aber leicht zeigen, dass gerade die durch deterministische Modelle begründete Politik in Verbindung mit postmoderner Werteverkehrung zur Renaissance des magischen Denkens führt. Marxisten bewegen sich ohnehin nur in Modellwelten. Beispiele dafür sind die Klimapolitik, die damit zusammenhängende „Energiewende“, die Öffnung der Grenzen für die unkontrollierte Masseneinwanderung aus nichteuropäischen Ländern und die Euro-Rettungspolitik der EZB. Es bedarf bei all diesen Politiken keiner höheren Mathematik, um zu erkennen, dass diese nicht an ihr Ziel gelangen können. Das gilt vermutlich auch für die szientistisch begründete und bürokratisierte Gesundheitspolitik Frankreichs.

Hinter dem Anspruch, im Namen „der“ Wissenschaft zu sprechen, stehen m.E. letztlich immer totalitäre Bestrebungen. Um Fehlentwicklungen wie „Lancet Gate“ zu vermeiden, gilt es, im Gesundheitswesen dem Pluralismus und vor allem dem gesunden Menschenverstand größere Chancen einzuräumen. Das darf aber nicht mit Zugeständnissen an wissenschaftsfeindliche Ideologien einhergehen. Man braucht mit der Bescheidenheit hinsichtlich der menschlichen Erkenntnisfähigkeit nicht so weit gehen wie Sokrates, dem die Aussage zugeschrieben wird: „Ich weiß, dass ich nichts weiß.“ Denn wir wissen, trotz unserer grundsätzlichen Beschränktheit, schon sehr viel über uns und unsere Umwelt und haben das für eine Vielzahl echter Verbesserungen der menschlichen Lebensqualität genutzt. Aber wir sollten m. E. nie vergessen, dass unser Wissen immer nur eine Insel in einem Ozean von Unwissen sein kann.




Corona-Tests: Dichtung – Wahrheit – Konsequenzen

Allein die Betrachtung und Auswertung von einer Symptomatik, wie zum Beispiel Atembeschwerden, Husten oder Fieber reicht nicht aus, um zu einem hinreichenden Ergebnis zu gelangen. Kommen diese Symptome doch auch bei vielen anderen mehr oder weniger harmlosen, mitunter schweren, zum Teil auch tödlichen Infekten zum Tragen. Der grippale Infekt, die echte Grippe und die Lungenentzündung, die häufig bettlägerige, alte Menschen trifft, seien hier beispielhaft genannt. Um eine Corona-Virusinfektion festzustellen, werden PCR-Tests verwendet. Doch dieser Test wird dank seiner hohen Sensitivität auch für Bruchstücke des Virus so lange positiv sein, bis keine Trümmer des Virus mehr vorhanden sind. Das bedeutet, auch wenn längst keine infektiösen Viren mehr vorhanden sind, kann ein Corona-Test also noch positiv ausfallen, weil durch die PCR-Methode selbst ein kleines Stück des viralen Genmaterials im Test genügend vervielfältigt wird.(mehr Details hier)

Zum Verständnis des Testverfahrens, welches zwecks der Vermeidung von Verschmutzung der genommenen Proben äußerst akribisch und hygienisch sehr sorgfältig durchgeführt werden muss, ist die Kenntnis einiger Fachbegriffe unabdingbar. Jeder Test zeichnet sich durch Sensitivität und die Spezifität aus. Beides wird in Prozent angeben.

Die Sensitivität eines diagnostischen Testverfahrens gibt an, bei welchem Prozentsatz als im Sinne des Tests positive Patienten die jeweilige Krankheit [bzw. Infektion] durch die Anwendung des Tests tatsächlich erkannt wird, d.h. ein positives Testresultat auftritt. Sie wird definiert als der Quotient aus richtig positiven Testergebnissen und der Summe aus richtig positiven und falsch negativen Testergebnissen. Quelle kursives Zitat: Hier klicken. Beträgt die Sensitivität des Tests 100%, kann der Getestete sicher sein, dass das Virus oder Teile von Sars-CoV-2 in sich trägt, wenn sein Test positiv ausfällt. Auch dann, wenn z. B. akut keinerlei Symptome vorliegen. Bei der Sensitivität geht es allein um die Eignung des Tests bezogen auf den Testgegenstand Sars-CoV-2.

Die Spezifität eines diagnostischen Testverfahrens gibt die Wahrscheinlichkeit an, dass tatsächlich Gesunde, die nicht an der betreffenden Erkrankung leiden, im Test auch als gesund erkannt werden. Sie wird definiert als der Quotient aus richtig negativen Testergebnissen und der Summe aus falsch-positiven und richtig negativen Testergebnissen – also allen Testergebnissen, denen tatsächlich keine Erkrankung zugrunde lag. Quelle kursives Zitat: Hier klicken Bei der Spezifität handelt es sich um die Genauigkeit der Erfassung des Testgegenstands Sars-Cov-2.

Beträgt die Spezifität eines Tests 100% ergeben sich keinerlei Probleme. Leider aber gibt es diese 100-prozentige Sicherheit beim Corona-PCR-Test nicht. Nehmen wir also eine Spezifität von 99% an. Dann liegt ein Test vor, von dem man allgemein annimmt, dass er sehr genau sei. Prozentual gesehen stimmt das auch. So wie es stimmt, dass ein Arbeitnehmer bei 10% Gehaltserhöhung prozentual mehr bekommt als sein Kollege mit 5%. Bleibt die Frage, Prozent wovon? Unser einer Arbeitnehmer verdient 2.000 € im Monat, macht bei 10% 200 €. Sein Kollege hingegen erhält mit seinen 5% ´satte` 250 € mehr Gehalt. Weil er 5.000 € im Monat verdient.

Ein einfaches Beispiel: Die Gruppe, die getestet werden soll, besteht aus 10.000 Menschen. Die angenommene Durchseuchung liegt bei 1%.   Es sind also 100 Menschen echt positiv mit dem Virus belastet. Der Test mit 100% Sensitivität filtert diese Menschen auch zuverlässig heraus. Bleiben 9.900 Menschen, die negativ getestet wurden. Die Spezifität unseres Tests liegt bei hohen 99%.  Was nichts anders bedeutet, dass bei 99 Personen = 1 % der verbleibenden 9.900 das Ergebnis falsch-positiv ist. Das eine Prozent, welches bei der Spezifität des Tests zu den 100% fehlt. Insgesamt sind zwar nur 100 Personen tatsächlich infiziert. Der Test wirft gleichwohl 199 positive Ergebnisse = Infizierte aus. Praktisch ist nur jedes zweite Ergebnis korrekt. Je größer die zu testende Gruppe, je geringer der Durchseuchungsgrad, desto ungenauer wird das Ergebnis. Die Menge der negativen Ergebnisse nimmt absolut zu, und damit auch die Anzahl der falsch-positiven Ergebnisse. Das eine Prozent wirkt sich immer stärker aus. Es ist sogar denkbar, dass positive Testergebnisse ausschließlich aus falsch-positiven Ergebnissen bestehen. Dann, wenn die Durchseuchung = 0 ist und immer weiter getestet wird.

Der Grund, weshalb die 15% Durchseuchungsgrad, die Prof. Hendrik Streeck in der Gangelt-Studie ermittelt hat, nicht einfach auf das gesamte Bundesgebiet hochgerechnet werden kann, liegt im verhältnismäßig hohen Durchseuchungsgrad dieser Gegend. In Deutschland gibt es zwar Hotspots wie Gangelt mit verhältnismäßig starken Ausbrüchen, der Durchseuchungsgrad im Land gesamt ist gleichwohl gering.

Die mittlerweile knapp 4,7 Millionen Tests haben Stand 11.6.2020 eine Gesamtzahl von  186.866 Test positiver (fälschlich Infizierte genannte) Personen ergeben. Das entspricht einer Durchseuchung von 0,2232% bezogen auf die gerundet 83,7 Millionen Einwohner Deutschlands. Darunter sind selbstverständlich etliche falsch-positiv getestete Menschen. Die fallen deshalb nicht sonderlich auf, weil die Krankheit Covid-19 insgesamt als milde Erkrankungeingestuft wird, eine Erkrankung, die oft sogar gar keine Symptome aufweist.  Das belegen die 7.322 aktiven Fällen inkl. falsch-positiver Tests. 7.322 aktive Fälle, von denen über 93% = 6.809 als mild eingestuft werden. Auch die schweren Fälle sind nicht in jedem Fall tödlich. Bedauerlicherweise sterben Menschen, natürlich, sie sterben auch zu einem Teil durch oder mit Covid-19, wobei eben immer die Frage bleibt, ob die Betroffenen nicht zum Teil falsch-positiv getestet wurden. Die Untersuchungen des Pathologen Püschel aus Hamburg lassen dies vermuten.

Zusammenfassend kann gesagt werden, dass die Fehlerquote von Corona Tests je geringer wird, desto größer die Durchseuchung einer Gruppe ist und je höher der Prozentsatz der Sensitivität, der Spezifität des Tests ist. Die Ergebnisse der Gangelt-Studie sind wesentlich genauer, als die kumulierten Zahlen der infizierten Personen, die dem verängstigten Bürger vor allem in den öffentlich-rechtlichen Medien, insbesondere dem Fernsehen Tag für Tag vermittelt werden.

Am 9.6.2020 präsentierte die ZDF-Nachrichtensendung Heute einen Chart mit der Entwicklung der aktiven Fällen. Das war neu. Die Zahl der aktiven Fälle unterscheidet sich massiv von den annähernd 190.000 Infizierten inkl. aller falsch-positiv getesteten Menschen.  Der Chart allerdings war in eine Kommentierung eingebettet, die dem aktuellen Sachverhalt des faktischen Endes der Epidemie in Deutschland in keiner Weise gerecht wurde. Immer noch wird Panik verbreitet. Immer noch wird Hygiene-Gehorsam eingefordert. Immer noch wird die Bevölkerung an der Nase herumgeführt.

Prof. Dr. Martin Haditsch erläutert den Sachverhalt der falsch-positiven Tests und vieles mehr  im obigen Video sehr detailliert und verständlich. Bemerkenswert ist, dass der Professor einen Laptop als Blatthalter nutzt, um die Tücken des Testens zu erläutern. Was nichts an der Richtigkeit seiner Aussagen ändert und ihn sehr sympathisch als alten, weißen Mann der korrekten Wissenschaften ´rüberkommen` lässt.

Samuel Eckert hat die von Prof. Haditsch vermittelten Erkenntnisse klug in einer Excel-Tabelle verarbeitet. Mit dieser können diverse Szenarien simuliert werden.

Das Video, s.o. , in dem Samuel Eckert seine Methodik vorstellt, ist erhellend. Es zeigt konkret auf, wie der Bürger mit Zahlen und Werten manipuliert wird, wie Zahlen und Werte so präsentiert werden können, dass ein gewünschtes Ergebnis herauskommt und der Bürger „springt“. Dahin springt, wo die Großkopferten es wollen. Dahin springt, wo der Bürger seine Freiheit zugunsten einer vermeintlichen Sicherheit aufgibt.Die Original-Exceltabelle, aus der die Übersicht der weltweiten Corona-Entwicklung entnommen wurde, kann hier heruntergeladen werden. Datengrundlage ist Worldometers.

Die Daten, insbesondere deren prozentuale Einordnung in der Übersicht, zeigen eindrucksvoll auf, wie mit großen Zahlen so gearbeitet wird, dass der normale, staatsgläubige Bürger heute glaubt, der Lockdown in Deutschland, nein, weltweit habe ein Massensterben verhindert. Nichts ist weniger richtig. Der Beleg ist recht einfach.

Man nehme den aktuellen Chart der aktiven Fälle, der täglich mehrfach aktualisiert auf WELTonline veröffentlicht wird.  186.555 Infizierte, 170.900 Genesene und 8.770 Verstorbene werden dort am 11.6.2020 um 17:00 Uhr verzeichnet. Ergibt 6.885 aktive Fälle in Deutschland gesamt. Davon 93% Milde Fälle. Um 17:00 Uhr am 11.6.2020. Das ist der Zeitpunkt, an dem die Daten veröffentlicht wurden.  Real stattgefunden hat alles viel früher. Schauen wir uns den Verlauf einer typischen Infektion mit Symptomen und deren Dokumentation, deren Weg in die Medien an. Der Betroffene infiziert sich. Nach etwa einer Woche bemerkt er mehr oder weniger starke Symptome. Er geht, weil es nicht besser wird, zwei Tage nach Auftreten der Symptome zum Arzt. Dieser veranlasst einen Test. Bis getestet wurde, bis das Ergebnis vorliegt, vergeht eine gute weitere Woche. Nun muss das Ergebnis noch zum Gesundheitsamt, zum RKI, zur Johns-Hopkins-Universität. Es wird aufbereitet, validiert. Dann geht es an die Medien. Es dauert mit Sicherheit noch mal eine Woche, bis das Ergebnis in dem Chart eingestellt ist. Insgesamt sind seit der Infektion mit Sicherheit gute 3 Wochen vergangen. Da ist der Infizierte wahrscheinlich schon wieder gesund bzw. auf dem Weg der Genesung. Es kommt auf einen Tag mehr oder weniger für unsere Betrachtung gar nicht an. Wichtig ist, dass unser Chart Ereignisse abbildet, die mindestens 3 Wochen her sind.

Aktive Fälle (orange) versus „Genesene“ (grün) vs Gesamtfällen (grau) mit eingetragenen Stichtagen bspw. Lockdown, Grafik R. Stobbe

Dementsprechend habe ich unseren Chart den realistischen Verhältnissen angepasst. Die Leiste mit den Datumsangaben wurde um 3 Wochen in die Zukunft verschoben. Die Linie unter Punkt 1 weist den Zeitpunkt (Mitte Februar) der ersten zahlenmäßig nennenswerten Infektionen aus. Punkt 2 verweist auf den Zeitpunkt (Anfang März), an dem sich die Kurven Neuinfektionen und Aktive Fälle trennen. Bis dahin waren sie identisch. Selbstverständlich steigt die Anzahl der Neuinfizierten an. Genau dieser Anstieg wird dem Bürger Tag für Tag kommuniziert. Dass ab Punkt 2, dass ab Anfang März die Zahl der tatsächlich Infizierten wegen der steigenden Anzahl der Genesenen abnimmt, Genesene, die ja von den Infizierten genau wie die Verstorbenen abgezogen werden müssen, wird verschwiegen. Etwa Mitte März, Punkt 3, wird der Höhepunkt der aktiven Fälle erreicht. Danach sinkt die Zahl der aktiven Fälle praktisch kontinuierlich. Gut eine Woche vor dem verhängnisvollen Lockdown, Punkt 4, der faktisch nicht notwendig war. Zwar steigt die Zahl der Infizierten weiter. Das Infektionsgeschehen insgesamt aber nimmt ab.  Ganz ohne Lockdown. Die berühmte Reproduktionszahl R lag ebenfalls vor dem Lockdown bereits bei Faktor 1. Was das RKI bestätigt. Ein weiterer Aspekt für die vollkommene Unsinnigkeit, eine hochentwickelte Volkswirtschaft und die dazugehörige Gesellschaft in´ s Nirwana zu schicken.

Zum Schluss gestatte man mir noch einen Hinweis zur Mundschutzpflicht, welche den normalen Umgang der Menschen untereinander, der das Verhalten der Menschen in Kaufhäusern, in der Gastronomie usw. sehr negativ beeinflusst. Ich bin zwar weder Mediziner, noch Virologe, sondern ein Bürger mit gesundem Menschenverstand, und einem guten Verständnis von Zahlen und Relationen und der es nach wie vor vermag 1 und 1 zusammenzuzählen.

Und daher meine ich: Im Fachbuch Molekulare Virologie/Viren: Definition, Aufbau, Einteilung heißt es unmissverständlich: Viren sind infektiöse Einheiten mit Durchmessern von etwa 16 nm (Circoviren) bis über 300 nm (Pockenviren; Tabelle 2.1). Ihre geringe Größe macht sie ultrafiltrierbar, das heißt, sie werden durch bakteriendichte Filter nicht zurückgehalten. […] Das bedeutet nichts anderes, als dass irgendwelche handelsüblichen Masken, selbstgebastelter „Schutz“ aus Stofflappen und ähnliches vollkommen unsinnig, weil komplett wirkungslos sind. Die Maskenpflicht entpuppt sich als reine Disziplinierungsmaßnahme, die dem Bürger wenig verklausuliert signalisiert, dass er den Mund zu halten hat.

Update vom 13.6.20

Grafik Mathias Seifert: Daten Stat. Bundesamt

Kommentar Seifert:

Wem der Begriff „kumulativer gleitender Mittelwert“ nichts sagt:

Das ist der Mittelwert über alle Einzelwerte jeweils bis zum betreffenden Zeitpunkt. Also der Wert für den 11.03. ist der Mittelwert aller Einzelwerte vom 01.01. bis 11.03. und der Wert für den 12.03. ist der Mittelwert aller Einzelwerte vom 01.01. bis 12.03., usw. Am Ende des Jahres erreicht dieser Graph exakt den Wert der durchschnittlich pro Tag Verstorbenen.

Man sieht nun endlich auf einen Blick: Bis auf die erste Woche lagen der Mittelwert für den jeweils betrachteten Zeitraum unter dem Mittelwert des gleichen Zeitraums der Jahre 2016-2019. Das bedeutet im Umkehrschluss: Zu jedem Zeitpunkt (außer der ersten Woche) starben im bis dahin vergangenen Teil des Jahres 2020 weniger Menschen, als im gleichen Zeitraum der Jahre 2016-2019.

Bemerkenswert ist auch diesmal wieder die Interpretation dieser Zahlen durch das Statistische Bundesamt selbst:

https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/Sterbefaelle-Lebenserwartung/sterbefallzahlen.html




§ 53: Die Corona-Pandemie endet, wenn ein Impfstoff für die Bevölkerung zur Verfügung steht.(*)

Selten war eine Überschrift über einen Beschluss des Koalitionsausschusses (2020-06-03-eckpunktepapier Kopie 2) irreführender, ja zynischer, als bei dem, der am 3.6.20 zur Bewältigung der – zuvor von derselben Regierung bewusst herbeigeführten- extrem schädlichen wirtschaftlichen Folgen der Corona-Panik Beschlüsse veröffentlicht wurde.

Denn weder werden damit die Corona-Folgen bekämpft, das tun Ärzte und Pflegepersonal in bewunderungswürdiger Aufopferung, noch wird der Wohlstand gesichert und erst recht nicht die Zukunftsfähigkeit gestärkt.

Das absolute Gegenteil ist richtig.

Der Dank tlw. bewusst geschürter Coronapanik beschlossene „Lockdown“, obwohl die Covid-19 Welle, nach den Zahlen des RKI, schon um den 20. März ihren Höhepunkt überschritten hatte, ist allein die Ursache der unermesslichen negativen wirtschaftlichen und sozialen Folgen, die den Wohlstand einer ganzen Generation vernichten werden. Die zur „Bekämpfung“ – richtiger müsste es heißen: zur Verzögerung der wirtschaftlichen und sozialen Schäden- eingesetzten, hunderte von Milliarden €  sind aber nur die Schulden der nächsten Generation, deren wirtschaftliche Basis gerade, wie bei einer Springflut, weggespült wird. Und jetzt folgt noch eine „Konjunkturpaket mit schlappen 130 Milliarden  Umfang.

Auf 15 Seiten  und in 57 Punkten oder Paragraphen wird minutiös festgelegt, welchen Milliardensegen, die jeweilige Interessengruppe erwarten kann. Vom Tierwohl (§ 55) mit 0,3 Milliarden, über Künstliche Intelligenz (echte natürliche Intelligenz würde eigentlich schon reichen) im § 43 mit 2 Milliarden €, Schlagwort Techniken wie Quantentechnologien im § 44 dürfen auch nicht fehlen, mit 2 Milliarden €, dem Gesundheitswesen, wo man eben noch 50 % der Krankenhäuser schließen wollte, mit knapp 9 Milliarden, bis zu jungen Menschen und Familien und die Ausbildung ihrer Kinder, die mit insgesamt 9 Milliarden € „gefördert“ werden sollen.

Und als ob das nicht genug ist, werden darin die Mittel für „Klimaschutz“ fördernde Maßnahmen mit über 36 Milliarden komplett fehl investiert, weil dank der Ideologie des menschgemachten Klimawandels – Stichwort „große Transformation“ – ausschließlich Projekte gefördert werden sollen, die niemals gewinnbringend sein werden, und dazu noch zu einem großen Teil ins Ausland auf Nimmerwiedersehen abfließen sollen. Dazu gehören beispielhaft die weitere Schwächung der deutschen Kfz Industrie, nicht nur durch die weitere Erhöhung der Kfz Steuer für Fahrzeuge mit mehr als 95 g/100 km CO2 Ausstoß, also für fast alle Verbrenner getriebenen Fahrzeuge, sondern auch noch die Erweiterung der Förderung von E-Luxus-Mobilen als Luxus-Kutschen für Zweit-, Dritt- Fahrzeug Besitzer bzw. Dienstwagenzuschüsse und Steuerermäßigungen für Behördenfahrzeuge, ebenso wie der Aufbau eine nutzlosen E-Infrastruktur, deren Speisung wegen Abschaltung der Grundlastkraftwerke völlig ungesichert ist, wie auch deren Nutzung mangels Nachfrage.

Es gehört ebenso dazu die Festschreibung  der „Wasserstoffstrategie“ und deren Förderung mit Milliarden Summen, vorzugsweise in Ländern Afrikas mit hochkorrupten Regierungen und starken Rebellengruppen, deren technische Nutzlosigkeit, aufgrund der unveränderbaren Eigenschaften des extrem flüchtigen und hoch gefährlichen Wasserstoffes seit vielen Jahrzehnten und immer wieder bestätigt, eindeutig bekannt ist (Details dazu z.B. hier). trotzdem verkünden die Minister Altmeier, Müller und Karliczek vollmundig das sich Deutschland die „Globale Führungsrolle bei Wasserstofftechnologien sichern will und die Bundesregierung verabschiedet dazu die Nationale Wasserstoffstrategie und beruft einen Nationalen Wasserstoffrat. Wer denkt da nicht automatisch an die Führungsrolle bei der Photovoltaik mit Milliardengräbern – Solarvalley lässt grüßen, oder an „Desertec“ Strom aus der Wüste, über den inzwischen der Mantel des Vergessens gelegt wurde, oder an die 1 Million E-Mobile die in diesem Jahr auf unseren Straßen hätten rollen sollen. Oder, oder, oder.

Von Einstein stammt die Formulierung: Eine Definition von Wahnsinn ist, immer dasselbe zu versuchen und andere Ergebnisse zu erwarten. Ich überlasse die Meinung darüber, ob das auch auf unsere Regierung zutrifft, gern dem geehrteren Leser.

Die Krönung dieses Geldverbrennungsprogrammes ist jedoch die tlw. Umschichtung der Zwangsabgaben für die EEG Umlage auf den Steuerzahler, der zusätzlich zu den schon hohen Steuern auch noch den CO2 Preis berappen soll, um optisch die Erhöhung dieser Zwangs-EEG Umlage zugunsten Wohlhabender EEG Besitzer, nicht so sichtbar werden zu lassen. Nicht nur die stromintensiven Unternehmen werden dank dieser Mogelpackung  Deutschland in Scharen verlassen – Stichwort aus dem Programm: klimafreundlicher Stahl- sondern auch mehr und mehr fleißige Leistungsträger und Selbständige, und damit die Menschen, die den bisherigen  Wohlstand erst erzeugen halfen. Rette sich wer kann, heißt von jetzt an die Devise.

Mein Fazit:

Die Bundesregierung hat durch die von ihr miterzeugte Coronapanik, und den daraufhin verkündeten Lockdown, erst die immensen, noch nie, außer in Kriegszeiten, dagewesenen Schäden, erzeugt, die sie nun vorgibt mit einem neuen Multimilliarden Schulden finanzierten Programm bekämpfen zu wollen. Seine Ausrichtung auf „klimafreundliche“ Projekte und Maßnahmen zeigt eindeutig, dass das Ziel ist, die „große Transformation“ wie im Januar d.J. in Davos von der Kanzlerin angedroht, weiter voran zu treiben.

(*) Ach ja, ganz versteckt am Ende unter Punkt 53 wird dann noch nebenbei verkündet wie lange die strengen Lockdownregelungen – wenn es nach der Bundesregierung gehen sollte- noch andauern werden.

Die Corona-Pandemie endet, wenn ein Impfstoff für die Bevölkerung zur Verfügung steht.

Das sind bei methodischer, den Regeln der Medizin und Ethik folgenden Arbeitsweise und Fürsorge für die betroffene Bevölkerung, in aller Regel 5 – 7 Jahre.

Übrigens soll dieser Impfstoff lt. Dr. Wodarg tief ins menschliche Genom eingebracht werden.

Auszug aus seiner Webseite

Rekombination: Geplante Impfungen verändern uns genetisch

Unter den zwölf bereits in klinischer Prüfung befindlichen Covid-19 Impfstoffen enthalten-  nach Auskunft der WHO vom 9. Juni – vier Kandidaten rekombinante RNA und drei Kandidaten DNA. Dabei werden unterschiedliche Technologien zur Einbringung des rekombinanten genetischen Materials in die menschlichen Zellen angegeben. (Stand 9.6.2020)

er fordert daher

Solche genetischen Manipulationen am Menschen sind sträflich und dürfen nicht an Millionen (Bill Gates sagt an 7 Milliarden) Menschen zugelassen werden. Die klinischen Studien hierzu sind unverzüglich abzubrechen!

(Details dazu hier)

Ob die Menschen sich das gefallen lassen werden? Wir werden sehen.

 




Der Bundestag als Bühne des politischen Theaters

Pandemiebedingt war am 25. Mai die Öffentlichkeit nur über einen Livestream beteiligt. Es wurde ein großer Anhörungssaal gewählt, um genug Platz für Teilnehmer und Sicherheitsabstände zu haben. Der Saal befindet sich im Marie-Elisabeth-Lüders-Haus. Wir erinnern uns: Das Haus wurde 2003 fertiggestellt und seit 2010 arbeitet man an einem Erweiterungsbau, der wohl 2021 in Benutzung gehen kann. Mehrfache Verzögerungen durch Baumängel wie eine undichte Bodenplatte und eine Kostensteigerung auf fast 250 Millionen Euro verschaffen auch dem Regierungsviertel ein BER1-Feeling. Nun müssen auch bereits installierte Teile des Blockheizkraftwerks wieder verschrottet werden, da sie den inzwischen verschärften Umweltschutzauflagen nicht mehr genügen. Es bleibt dabei: Wenn Politiker als Bauherren auftreten, geraten die Projekte oft zum großen Fass ohne Boden.

Politiker sind auch die Bauherren der deutschen Energiewende, wobei man davon ausgehen kann, dass der komplette und unterbrechungsfreie Umbau des Energieversorgungssystems ein wenig komplizierter sein dürfte als ein Anbau an ein Gebäude des Bundestages.

Zur Aufführung stand die Anhörung des künftigen 26. Gesetzes an, das auf die BMWi-Gesetzeskarte des Energieversorgungssystems geschrieben werden wird. Das Strukturstärkungsgesetz für die betroffenen Regionen, das gleichzeitig beschlossen werden soll, trägt dann die Nummer 27. Zu diesen Gesetzen gesellen sich 33 Verordnungen sowie 25 EU-Richtlinien, -Verordnungen und -Leitlinien hinzu, wohlgemerkt nur für das Energieversorgungssystem. Diese Ansammlung Tausender von Paragrafen offenbart zwei Besonderheiten der Energiewende. Erstens gibt es kein Leitgesetz und keinen Masterplan, der alle wesentlichen Rahmenbedingungen setzt, stattdessen werden die verschiedenen Sektoren und Maßnahmen in einem großen Konvolut von Regularien abgebildet. Zweitens zeigt die hohe Regelungsdichte, dass Marktmechanismen, die zu einer wenigstens teilweisen Selbstregelung hätten führen können, nicht mehr wirken. Planwirtschaftliches Vorgehen erfordert kleinteilige Vorgaben und auch kleinteilige Koordinierung der Umsetzung – woran es sichtbar mangelt.

Gesetz von gestern

Zudem hätte vorher mindestens ein anderes Gesetz, das Erneuerbare-Energien-Gesetz (EEG), neu gestaltet werden müssen. Es ist ein kaum reformierbares Monster, wohl der größte und teuerste Irrtum unserer Gesetzgebung. Das im Paragrafen 1 formulierte Ziel des „stetigen, kosteneffizienten und netzverträglichen Ausbaus“ der Erneuerbaren wird so krachend verfehlt, dass man sich nur wundern kann, dass es infolge seiner reaktionär zu nennenden Wirkung nicht schon längst abgeschafft oder wenigstens kräftig novelliert wurde. Den Hardcore-Paragrafen-Liebhabern unter den Lesern empfehle ich die Lektüre meines Lieblingsparagrafen 36h. Bitte konzentriert lesen und es danach einem Normalbürger erklären. Wer sich in weitere Einzelheiten vertiefen möchte, dem sei die Anlage zum EEG, die 2020er Umlage- und Vergütungskategorientabelle, empfohlen. Mehr als 5.400 Vergütungstatbestände und –höhen sind hier zu besichtigen.

An Vorschlägen zu Änderungen herrscht kein Mangel. Selbst einer der Erst-Autoren aus dem Jahr 2000, Hans-Josef Fell von den Grünen, machte inzwischen einen beachtenswerten Vorschlag, der das Grundsatzproblem der Entkopplung von Stromproduktion und –bedarf wenigstens teilweise entschärfen könnte. Amtierende Politiker wie Altmaier und Söder sprechen sich zumindest für die Senkung der EEG-Umlage aus. Carsten Linnemann, Chef der CDU-Mittelstandsvereinigung, warnt allerdings im Welt-Interview vom 29. Mai davor, dazu Steuergeld zu verwenden: „Einfach Steuergelder in ein überholtes System wie das EEG zu pumpen, wäre definitiv falsch. Es wäre gut, die Stromsteuer zu senken und gleichzeitig das EEG auslaufen zu lassen.“ IG-BCE-Chef Michael Vassiliadis fordert, die EEG-Umlage als Teil des Corona-Konjunkturpakets ganz abzuschaffen und die Kosten der Energiewende über den Bundeshaushalt zu finanzieren: „Nie war das notwendiger als heute.“ Die Streichung der Umlage „hätte eine weitaus sozialere Wirkung als etwa eine Steuerentlastung“. In seiner Wirkung ist das EEG heute nur noch ein Gesetz zur Gewinnsicherung der EE-Anlagenbetreiber und der sie umgebenden Branche. Mit dem Konjunkturpaket des Koalitionsausschusses – Deckelung der Umlage in den Jahren 21 und 22 – wird nun halbherzig ein viel zu kleines Pflaster auf das große Problem geklebt und ein wesentlicher Grund für das absehbare Scheitern der Energiewende weiter zementiert.

Warum wurde nicht schon längst Hand beziehungsweise Stift an dieses überkommene Gesetz gelegt? Die Lobby ist Dank jährlich umgewälzter Milliardensummen äußerst wirkmächtig und vergrünte Politiker sind inzwischen in allen anderen Parteien gut vertreten, sehen wir mal von der AfD ab.

Vorhang auf

Was gibt es nun von dem Stück auf der kreisrunden Bühne des Anhörungssaals zu berichten? Eingeladen waren als Sachverständige Vertreter der Wirtschaft wie zum Beispiel der Stadtwerke München, der Wirtschaftsvereinigung Metalle und der Aurubis, von Verbänden wie dem DIHK, dem Verband Kommunaler Unternehmen, sowie dem DGB. Vertreter und -innen einschlägiger Thinktanks wie Aurora und des Öko-Instituts gesellten sich hinzu. Dazu kam ich als gewöhnlicher treusteuerzahlender Bürger und wohl der Einzige von persönlichen, geschäftlichen, politischen und Lobbyinteressen weitgehend befreiter Teilnehmer.

Die Fraktionen luden natürlich vorrangig jene Sachverständigen ein, die ihre eigene politische Position unterstützen und begründen sollten. Vorher waren Stellungnahmen eingereicht worden, so dass die Ausführungen im Wesentlichen absehbar waren. Oft wurden sehr kleinteilig Details der Formulierungen im Gesetzentwurf bemängelt. In meiner vorab eingereichten Einschätzung ging es eher um die große Perspektive, da ich den eingeschlagenen energiepolitischen Weg grundsätzlich für falsch halte. Dementsprechend blieben auch meine Ausführungen ohne direktes Echo. Als von der AfD Eingeladener genießt man ohnehin einen nicht positiv konnotierten Exoten-Status.Eine der Grundfähigkeiten von Politikern besteht im Unterschied zu Schauspielern darin, unter allen Bedingungen Emotionen verbergen zu können und Pokerface zu zeigen. So blieben die vielen, teils sehr konträren Aussagen ohne erkennbares emotionales Echo. Die Atmosphäre war ruhig und sachlich wie beim nüchternen Sprechtheater. Unruhe kam auf, als ich eine ehemalige energiepolitische Sprecherin der Grünen zitierte, die unter anderem gesagt hatte: „Der Staat muss sich darauf konzentrieren, Rahmenbedingungen zu schaffen, die die Kräfte des Marktes in die richtige Richtung lenken.“ So sprach Michaele Hustedt im Jahr 1999 und es liest sich wie ein Dokument aus der Wirtschaftswunderzeit. Es ist aber nur ungefähr so lange her, wie der Abschluss des Kohleausstiegs noch vor uns liegt. Bis dahin werden noch fünf Bundesregierungen ins Amt kommen und man kann nie wissen, ob deren Qualitäten nicht vielleicht besser sind als die der jetzigen.

Vom Schauspiel zum Drama

Beeindruckend gestalteten sich die Auftritte der Wirtschaftsvertreter, die sachlich und eindringlich die Nöte ihrer Branchen darlegten. Dass die Stromkosten für die Kupferindustrie in Amerika nur halb so hoch sind wie bei uns, dass sich die Preise global bilden, weswegen wir einen im internationalen Wettbewerb wettbewerbsfähigen Strompreis bräuchten. Die Belastungsbegrenzungen für deutsche Aktivitäten zum Klimaschutz seien überlebenswichtig, da andere Regionen der Welt davon weniger oder nicht betroffen sind. Es werde „dem Klima nicht geholfen, wenn hierzulande die Industrie geschwächt und dann Metalle aus Ländern importiert werden, in denen der Klimaschutz keine oder keine vergleichbare Rolle spielt“. Auch die Tatsache, in einem hochentwickelten Industrieland wie Deutschland das Thema Versorgungssicherheit überhaupt ansprechen zu müssen, sei bemerkenswert.

Der Vertreter der STEAG wies auf die Kapitalvernichtung hin, die die zum Teil ausländischen Investoren zu tragen haben und auf nicht konsistente Entscheidungen der Politik innerhalb weniger Jahre. Seiner Stellungnahme hatte er Worte der Kanzlerin aus dem Jahr 2008 vorangestellt, die sie anlässlich der Grundsteinlegung des Steinkohlekraftwerks Westfalen sprach:

„Wenn wir als Industriestandort unsere Eigenversorgung mit Strom erhalten wollen, dann brauchen wir neue, leistungsfähige Kraftwerke in Deutschland. Dazu gehören effiziente, moderne Kohlekraftwerke. […] Ich sage ausdrücklich: Ich möchte nicht, dass ein Industriestandort wie Deutschland von ausländischen Stromlieferungen abhängig wird. […] Deshalb ist die Ablehnung neuer Kraftwerksbauten nicht nur wirtschaftspolitisch kontraproduktiv, sondern sie ist auch umwelt- und klimapolitisch kontraproduktiv.“

Nun sind wir von ausländischen Stromlieferungen abhängig, eindrucksvoll zeigen die Kurven an vielen Tagen, wie der deutsche Stromexport mit dem Sonnenuntergang gleitend in den Import wechselt. Nichts ist falscher als das Narrativ, die Kanzlerin würde die Sachen vom Ende her denken. Das Gegenteil ist der Fall. Dadurch verhinderte sie auch die Option, die CCS2-Technologie voranzutreiben und durch Technologieexport eventuell einen globalen Beitrag zur Schaffung negativer Emissionen leisten zu können. Laut IPCC ist dies heute eine maßgebliche Technologie, um die Pariser Klimaziele überhaupt erreichen zu können. Unmut wurde auch zum Gesetzgebungsverfahren deutlich. Ein solches „Jahrhundertgesetz“ mit einem so mangelhaften Entwurf so vergleichsweise schnell durchwinken zu wollen, ohne die umfangreichen Gegenargumente selbst des Bundesrates entsprechend zu würdigen, sei nicht angemessen.

Die nachdenkliche Stimmung des ernsten Sprechtheaters ging zuweilen über in eine Tragikomödie, wenn beispielsweise ein Linken-Politiker behauptete, ohne Fridays for Future und deren Einsatz für „Klimagerechtigkeit“ hätte es den Gesetzentwurf nicht gegeben, der Ausstieg 2038 sei sowieso zu spät und die Frage stellte, welche Wirkung das Gesetz auf das 1,5-Grad- oder 2-Grad-Ziel habe. Letztere Frage ließe sich ganz schnell beantworten („keine“), aber in entsprechenden Kreisen stehen nicht realistisch zu erreichende Ergebnisse zur Debatte, sondern Symbolik und der schnellstmögliche Kohleausstieg. Für den zu vereinbarenden Weg dahin dürfe es auch keinen Vertrauensschutz geben, ergo keine Planungssicherheit für Energieunternehmen und Industrie, außerdem seien Entschädigungen für den Kohleausstieg unnötig.

Offenes Ende

Fakten und belastbare Zukunftsaussichten erhoffte man sich vom Auftritt der Hauptgeschäftsführerin des BDEW (Bundesverband der Energie- und Wasserwirtschaft). Bis 2030 bräuchten wir 17.000 Megawatt Neuinstallation an Gaskraftwerken, der realisierte Zubau betrug 2017 432 MW, 2018 dann 231 MW. Das sei nicht das, „wohin wir eigentlich in Zubauschritten kommen müssen“, aber wie man nun dahin kommt, das führte sie nicht aus. Helfen sollen Erneuerbare Wärme, grünes Gas (wozu man Strom braucht) und Wärmepumpen (die auch Strom brauchen). Die Frage nach Ersatzinvestitionen für die entfallende gesicherte Leistung beantwortete sie als gelernte Grüne mit dem Hinweis auf den aufgehobenen Solardeckel und die neuen Abstandsregeln bei der Windenergie, auf Sektorkopplung und den schon erwähnten grünen Wasserstoff. Wann welche Gaskraftwerke in Betrieb gehen, ist offensichtlich unklar. Sehr klar dagegen ist, wann welches Kohlekraftwerk abgeschaltet werden soll.

Viel Kleinteiliges wurde vorgetragen: Zum Südbonus, zur KWK-Regelung, zum Kohleersatzbonus, zur Regelbasierung, zu Beihilferecht, H2-Readyness und Altersreihung und weiterem. Aber noch so fein ziselierte Regelungen en Detail werden den verfehlten Ansatz nicht heilen können.

Immer wieder beziehen sich Aussagen der Stilllegungsambitionierten auf den Abschlussbericht der KWSB (Kommission für Wirtschaft, Strukturwandel und Beschäftigung, umgangssprachlich Kohlekommission), so als würde mit diesem ein als heilig anzusehendes Dokument vorliegen. Wiederholt wurde in Medien behauptet, in der Kommission hätte sich der Querschnitt der Gesellschaft abgebildet. Das kann man so sehen, allerdings war es kein repräsentativer Querschnitt, sondern eine Zusammenstellung von Menschen, die der Regierung eine gewünschte Entscheidung begründen sollten.In einer CO2-zentrierten Weltsicht haben andere Aspekte als die Senkung von Emissionen keinen Platz. Aus der Perspektive des Hammers sehen alle Probleme wie Nägel aus. Zu groß ist der Druck von Grünen und Roten, endlich Abschalttermine festzunageln und zu groß das willfährige Entgegenkommen der CDU und deren Orientierungslosigkeit im Geflecht wirtschaftlicher Komplexität und politischer Abhängigkeiten.

Dann fiel der Vorhang. Dass die vielen vorgebrachten Informationen, Argumente, Forderungen und Wünsche einen Niederschlag in Form einer geänderten Gesetzesvorlage finden werden, ist nur in geringem Umfang zu vermuten. Das 181-seitige Papier liegt schon in Brüssel zur Begutachtung vor.
So führt der Weg der abtretenden Mitwirkenden aus dem Marie-Elisabeth-Lüders-Haus an einer Baustelle vorbei, die den Abstieg deutscher Infrastrukturpolitik symbolisiert. Immerhin ist der BER bald fertig.


Hier finden sich die Unterlagen zur Veranstaltung
(BT-Drucksachen, Sachverständigenliste, Stellungnahmen, Video 2:57 h,
in Kürze auch das Protokoll).

1 – BER: Flughafen Berlin-Brandenburg „Willy Brandt“ in Schönefeld,
immer noch nur auf dem Landweg erreichbar, dafür emissionsarm.
2 – CCS: Carbon Capture and Storage – Abtrennung von CO2 aus
Rauchgasen und Speicherung

Der Beitrag erschien zuerst bei TE hier




Bericht zur Coronalage 10.6.2020 – rückwärts nimmer

In meinem letzten Bericht zur Coronalage erklärte ich, warum die Infektionswelle bei uns schon lange vorbei ist. Dies führte erwartbar zu kontroversen Reaktionen. Ein Beitrag auf ScienceFiles beschuldigt mich gar, Fake News zu verbreiten. Seitdem werde ich täglich mit der Bitte um Richtigstellung darauf angesprochen. Streitereien zwischen Autoren haben schnell etwas Rechthaberisches, und eigentlich wollte ich die Achgut.com-Leser damit nicht langweilen. Aus welchen Gründen auch immer, wurde meine Erwiderung auf ScienceFiles nicht veröffentlicht, deshalb wähle ich diesen Weg. Da die Vorwürfe des ScienceFiles-Autors einen ganz wesentlichen Punkt betreffen, der uns immer noch unter Zwang davon abhält, ein normales Leben zu führen und die katastrophalen Schulschließungen endlich zu beenden, möchte ich nun auf Achgut die Dinge klarstellen.

Sciencefiles.org wird laut Wikipedia von Großbritannien aus betrieben, und dort wurde schon zu einem Zeitpunkt vor einer neuen Epidemie, die sich von China aus nach Europa verbreitet, gewarnt, als das RKI die Infektion noch verharmloste. Das war durchaus verdienstvoll. Als zu den Bildern aus Wuhan die aus Bergamo dazukamen, wurde die zuvor als „rechts“ stigmatisierte Epidemie-Warnung in einem rasanten Schwenk plötzlich zur Mainstreammeinung. Doch spätestens ab Mitte März wurde sehr deutlich, dass sich die Hotspots eben nicht ausbreiten, die Sterblichkeit viel geringer ist als angenommen und sich die Todesfälle allermeist auf sehr alte, vorerkrankte Menschen beschränken.

Dies nahm man auf ScienceFiles aber nicht zum Anlass, die Berichterstattung der neuen Lage entsprechend anzupassen, also auch die verheerenden Nebenwirkungen der Schutzmaßnahmen zu berücksichtigen. Man verrennt sich in eine extrem einseitige Sicht auf die Gefahrenlage und grenzt meiner Meinung nach die wahren Verhältnisse aus. Anders kann ich die dort hastig dahingeschluderte Behauptung nicht erklären, ich würde Fake News verbreiten.

Die Kritik übersieht einen ganz wesentlichen Faktor

Neben vielen Ungenauigkeiten wird beispielsweise behauptet, ich würde meinen Lesern eine wichtige Quelle verschweigen. Zitat: „warum Frank seinen Lesern nicht erzählt, dass die Ergebnisse, die er berichtet, aus einem INSTAND-Ringversuch stammen, …“ Ich habe jedoch in besagtem Coronabeitrag explizit erläutert, dass ich mich auf den Ringversuch von INSTAND beziehe und die entsprechende Arbeit ja genau deswegen verlinkt. Weiter wird mir vorgeworfen, die positiven Coronatests, die es nach wie vor gibt, zu diskreditieren und zwar mit Taschenspielertricks.

Es geht um die Deutung der 425.842 Coronatests in KW 20, von denen 7.060 (1,7%) positiv waren. Nun bin ich kein ausgewiesener Statistikexperte, aber ich traue mir zu, das wirklich Relevante einer medizinischen Statistik zu erkennen. Genau zu dieser Thematik habe ich mit anderen ein Symposium an der Universität Heidelberg veranstaltet. Die Kritik auf ScienceFiles übersieht einen ganz wesentlichen Faktor. Der Autor berücksichtigt nicht den Bezug zum Gesamtergebnis.

Ich versuche dies nochmal so einfach als möglich zu erklären. Jede Virus-Nachweisprobe zeigt zu einem gewissen Prozentsatz ein positives Ergebnis an, obwohl kein Virus in der Probe ist, dass nennt man falsch positives Ergebnis. Genauso wie ein Test immer auch ein negatives Ergebnis anzeigen kann, obwohl die Probe das Virus enthält. Das nennt man falsch negativ. Diese Fehlerraten kann man nicht verhindern, nur minimieren. Die Coronatests haben derzeit eine hohe falsch negative Rate, man schätzt bis zu 30 Prozent und eine niedrige falsch positive Rate, gut gemessen in dem verlinkten INSTAND Ringversuch. In diesem Ringversuch wurden an verschiedene Labore insgesamt 983 Proben ohne Virus verschickt und zurück kamen 969 richtig negative und 14 falsch positive Ergebnisse, das entspricht 1,4 Prozent. Das bedeutet, bei allen ohne Virus eingeschickten Proben haben die Labore insgesamt bei 1,4 Prozent der Fälle trotzdem ein (falsch) positives Ergebnis angezeigt.

Kein Taschenspielertrick, sondern pure Logik

Nun das ganz Entscheidende: Ob die falsch negativen oder die falsch positiven Ergebnisse das Gesamtergebnis verfälschen, hängt vom Prozentsatz der tatsächlich infizierten Proben ab (Prävalenz). Haben sehr viele Proben das Virus, ist die Rate an falsch negativen die Hauptfehlerquelle. Ist der Prozentsatz sehr niedrig, ist es die Rate an falsch positiven Ergebnissen. Stellen Sie sich vor, alle Proben enthalten das Virus, dann sollte das Gesamtergebnis eigentlich 100 Prozent sein. Aber dies verhindert die Rate an falsch negativen Ergebnissen.

Gehen wir dabei wie oben von 30% aus, würden, obwohl alle Tests coronainfiziert sind, das Gesamtergebnis nur 70% betragen. Das Gesamtergebnis wird dadurch stark verfälscht und die Infektionsrate unterschätzt. Die niedrige Rate an falsch positiven Testergebnissen würde das Ergebnis jedoch so gut wie nicht verfälschen. Ganz anders, wenn keine der Proben infiziert wäre. Das Gesamtergebnis müsste dann 0% lauten. Die hohe Rate an falsch negativen Testergebnissen käme überhaupt nicht zum Tragen, da alle Proben auch richtig negativ sind. Aber jetzt spielt die Rate an falsch positiven die Hauptrolle. Ist sie, wie INSTAND gemessen hat, 1,4%, dann würde das Gesamtergebnis lauten: 1,4% der eingeschickten Proben sind infiziert, obwohl keine Probe das Virus enthält.

Was bedeutet das nun für das besagte Gesamtergebnis in KW 20 von 1,7% positiver und 98,3% negativer Testergebnisse? Laut ScienceFiles beziehen sich die 1,4% falsch positiver Rate lediglich auf diese 1,7%, also 1,4% von 1,7%. Doch tatsächlich beziehen sich die 1,4% auf alle Proben, die kein Virus enthalten und deshalb alle potenziell falsch positiv sein können. Die genaue Zahl weiß man nicht, aber sie wird in dieser Testreihe annähernd 100% gewesen sein. Deshalb wird der Anteil an falsch positiven Testergebnissen bei diesen 425.842 Proben in KW 20 auch insgesamt annähernd 1,4% betragen haben. Dies ist der Grund, warum man, auch aufgrund weiterer Fehlerquellen, davon ausgehen sollte, dass das Ergebnis von 1,7% positiven Tests weitgehend auf falsch positiven Ergebnissen beruht und somit so gut wie niemand infiziert ist. Die Rate der falsch negativen spielt keine Rolle, weil ja kaum eine Probe richtig positiv ist. Im Klartest: Die derzeitigen Massentestungen werden immer und zu jeder Zeit um die 1% positive Ergebnisse anzeigen, auch wenn niemand das Virus in sich trägt. Von den 1,7% ist so gut wie niemand wirklich mehr infiziert. Das ist kein Taschenspielertrick, sondern pure Logik. Die derzeitigen Massentestungen sind reiner Unfug. Wenn überhaupt, macht es derzeit nur Sinn, zu testen, wenn Symptome auftauchen.

Es bleibt dabei: die Infektionswelle ist vorbei – schon lange

Außerdem heißt es in der SF-Kritik, ich würde ein Ende der Infektion behaupten, weil ich Corona mit der saisonalen Grippe vergleiche und das, obwohl die Zahlen steigen. Originalzitat:

„ … die SARS-CoV-2 Pandemie ist mitnichten zuende, wie Frank behauptet. Im Gegenteil, die Anzahl der Infizierten ist weltweit in den letzten Wochen stetig gestiegen“

Der Autor bezieht sich dabei vor allem auf Brasilien, wo derzeit im brasilianischen Vorwinter die Infektionszahlen steigen. Was nicht erwähnt ist, dass sich meine Aussage vor allem auf die gut gesicherte Beobachtung bezieht, dass sich in allen Ländern eine etwa 40-tägige Phase der Verbreitung der Coronainfektionen und ein danach einsetzendes Absinken beobachten lässt.

In Brasilen steigen die Zahlen lediglich mit einer Verzögerung von 4 Wochen an. Bei uns in Europa ist die Infektionswelle schon lange durch. In ihrem Verlauf entspricht sie genau den üblichen Winter-Virusinfektionen, die immer eine Übersterblichkeit vor allem unter alten Menschen verursachen. Dazu nochmal die Grafiken von Euromomo. Und auch hier der Hinweis, nicht nur auf die Höhe der Kurve, sondern auch auf deren Breite zu achten. Berücksichtigen Sie bitte auch, dass es bereits Publikationen gibt, die die Ursache eines großen Teils der 2020 Übersterblichkeit in den Schutzmaßnahmen selbst vermuten.

Mutierende Viren sind nichts anderes als die pure Normalität

Darüber hinaus ist mir kein Fall eines schwer an Covid-19 Erkrankten bekannt, der nach Genesung wieder an Covid-19 erkrankte. Daraus folgt, dass es eine aktuelle Immunität gibt, die aber wiederum nicht vor einem mutierten Virus im nächsten Herbst schützen muss. Da das Virus ständig mutiert, ist auch eine gewisse Unsicherheit bezüglich der Öffnung der Grenzen immer da. Aber auch ein Impfstoff wird diese ständige Mutation nicht gänzlich abdecken können. Aber was bitteschön ist daran erschreckend? Covid-19 besaß zu keinem Zeitpunkt das Potenzial, die Gesellschaft insgesamt zu bedrohen.

Auch weiß man inzwischen, wie man diese Krankheit so behandelt, dass sie auch bei den seltenen schweren Verläufen, bis auf schwerste Vorerkrankte, fast immer gut überlebt wird. Wir können damit als Gesellschaft ganz normal leben. So, wie es einige schwere Verkehrsopfer auch weiterhin geben wird, und wir dennoch angstfrei (und hoffentlich angeschnallt) Auto fahren und es nicht verbieten, so werden einige schwer an Covid-20, -21 oder -22 erkranken, wie auch an anderen Krankheiten.

Wir kennen dieses Problem bei Influenza ja sehr gut und leben damit seit Jahren ohne Panik. Dies alles liegt im Grundrisiko der menschlichen Existenz. Wer sich dem nicht stellt, kann sich zuhause einschließen und bricht sich dennoch potenziell das Genick beim Gardinenaufhängen. Insofern möchte ich mich der Forderung von Herrn Professor Gerd Gigerenzer anschließen, der in den Schulen das Fach Risikokompetenz fordert. Schüler müssen lernen, um den ständigen Panikmeldungen nicht schutzlos ausgesetzt zu sein, Zahlen anhand ihres tatsächlichen Risikopotenzials vernünftig einzuordnen.

Gesichtswahrung ohne Rücksicht auf Verluste

Die Infektion ist vorbei! Doch das können viele nicht akzeptieren, weil sie sich sonst eingestehen müssten, maßlos übertrieben zu haben. Aber diese Erkenntnis ist unausweichlich, und es wird spannend sein, zu sehen, mit welchen Absurditäten versucht wird, die Erzählung von der andauernden gesellschaftsbedrohenden Pandemie und des unausweichlichen Lockdowns mit aller Gewalt aufrechtzuerhalten. Etwa das RKI, welches unter besonderem Wohlwollen des bayrischen Ministerpräsidenten verkündet, dass wir erst mit einem Impfstoff zur Normalität zurückkehren können. Keiner dieser Panikmacher interessiert sich jedoch für die menschlichen Folgen ihrer völlig haltlosen Angstmacherei. Auch nicht der für Krisenmanagement zuständige Innenminister, wenn ein Mitarbeiter seines Ministeriums in bewundernswerter Eigenengagement eine mehr als beeindruckende Einordnung dieser Schäden vorlegt.

Stattdessen wird mit der seelischen Gesundheit der Menschen gespielt, nur um nicht das Gesicht zu verlieren. Kinder und Eltern werden weiter im Ungewissen gelassen, ob es wenigstens nach den Sommerferien in den normalen Schulbetrieb geht. In den nächsten Jahren wird es unzählige Untersuchungen dazu geben, welche psychischen Schäden eine solche verantwortungslose Angstmache auslöst. Wird man auch fragen, wer die Verantwortung dafür trägt? Im Moment sieht es nicht danach aus. Alles wird getan, um eine mehr als notwendige Reflektion, wie es zu diesem globalen Wahn kommen konnte, zu verhindern.

In den Vordergrund der medialen Berichterstattung werden bald in ihrem Spekulationsgehalt schwer als Nichtlüge zu bezeichnende Veröffentlichungen in den Vordergrund rücken, die den Nutzen des Lockdowns „wissenschaftlich“ beweisen werden. Jüngstes Beispiel eine Modellrechnung, ausgerechnet aus dem Imperial College, aus dem die unselige und hochangreifbare Fergunson’sche Modellrechnung, Stichwort „flattening the curve“, stammt, die ganz maßgeblich zur Panikreaktion des Lockdowns geführt hat. In dieser neuen Modellrechnung wird nun behauptet, dass die Corona-Schutzmaßnahmen allein in elf europäischen Ländern etwa 3,1 Millionen Todesfälle verhindert hätten.

In einer anderen Arbeit wird behauptet, bis zum 6. April hätten die Maßnahmen rund 530 Millionen Infektionen allein in sechs Ländern verhindert. Der Studienleiter, Solomon Hsiang von der UC Berkeley (USA), wird nun weltweit zitiert werden mit der Aussage: „Ich denke, kein anderes menschliches Unterfangen hat jemals in so kurzer Zeit so viele Leben gerettet“.

Wie ich gelernt habe, gilt unter Programmierern bei derartigen Modellrechnungen das „shit-in-shit-out“ Prinzip. Der Fehler liegt meist in den Grundannahmen. Dazu bitte den Nachtrag von Daniel Hirsch vom 20. Mai am Ende dieses Beitrages vergleichen.

Das Märchen von der unzureichenden Entscheidungsgrundlage

Auch wird behauptet werden, die Regierungen hätten aufgrund ungenügender Informationen entscheiden müssen und seien deswegen nicht zu kritisieren. Schließlich könne keiner sicher sagen, ob die Alternativen besser gewesen wären. Wenn jedoch Experten der geschliffenen Worte so etwas behaupten, zeigen sie lediglich, dass sie keine Ahnung von evidenzgestützten Analysen haben und von dem, was der Psychologe Julius Kuhl als Voraussetzung guter Entscheidungen erforscht und Rationale Intuition nennt. Diese fußt auf einer reflektierten Persönlichkeit, die gut beobachtet und sich dabei auch unangenehmen Erkenntnissen nicht verschließt. Eine solche an der Wirklichkeit erprobte Intuition ist in komplexen Situationen Gold wert. Wer jedoch Unangenehmes ausblendet, wie beispielsweise das gesamte Bundesinnenministerium im Falle der Warnungen des Oberregierungsrates Stephan Kohns, der kann diese Fähigkeit nicht entwickeln.

Auch werden wir nun öfters hören, hinterher sei man immer schlauer. In der österreichischen Servus-TV-Gesprächsrunde „Talk im Hangar 7“ vom 4. Juni meinte die als Lockdownverteidigerin geladene Intensivmedizinerin ganz zum Schluss zu mir, man müsste schon hellseherische Fähigkeiten beisitzen, um vorher zu wissen, was letztlich das richtige gewesen wäre. Hier ab 01:04:15.

Doch seltsamerweise haben immer die gleichen Leute genau das vorausgesagt, was dann stets auch eingetreten ist. Und so wird es auch Ende dieses Coronajahres sein, wenn es um zweite Wellen oder die Sinnhaftigkeit von Schul- oder Grenzöffnungen gehen wird. Zufall oder gar tatsächlich hellseherische Fähigkeiten? Ganz bestimmt nicht. Der Schlüssel in unsicheren Situationen, dennoch gute Entscheidungen treffen zu können, ist ein interdisziplinäres Netzwerk von Fachexperten mit reflektierten Persönlichkeiten, die gut moderiert sich genau zu ihrem Fachgebiet äußern, dabei auf den aktuellen Erkenntnisstand achten und ihre eigenen Grenzen gut kennen.

Aufgrund meiner Arbeit bin ich in ein solches Netzwerk eingebunden. Und deswegen weiß jeder gut informierte und reflektierte Mediziner, dass folgende Beobachtungen sehr früh den Spielraum ermöglichten, eine ganz andere Strategie zu wählen, die erstens zu weniger Todesopfern geführt hätte und zweites die nun immer deutlicher werdenden Kollateralschäden erst gar nicht hätten entstehen lassen:

  • die Nichtweiterverbreitung aus den Hotspots (hat nichts mit dem Lockdown zu tun),
  • die schon früh deutlich werdende, viel geringere Letalität,
  • sowie die klar einzugrenzende Risikogruppe der schwer vorerkrankten, meist alten Menschen.

Der einzig logische Schluss lautete sehr früh: professioneller und konsequenter Schutz der Risikogruppen bei Offenhalten der Gesellschaft. Doch in so gut wie ein keinem Land geschah dies (zu Asien habe ich dazu keine Kenntnisse). Es spricht Bände für die Reflexionsfähigkeit der tonangebenden Wissenschaftler, wenn lediglich der schwedische Epidemiologe Tegnell als Einziger hier Versäumnisse zugibt. Natürlich wird dies nun instrumentalisiert und als Selbstkritik bezüglich des nicht durchgeführten Lockdowns fehlgedeutet. Das grenzt jedoch schon an Böswilligkeit und zeigt nur die fehlende eigene Fähigkeit zur Selbstkritik. Wer diese frühzeitig mögliche Analyse nicht glaubt, lese bitte meine Beiträge ab Mitte März auf Achgut.com. Auch wenn der Druck, den Lockdown zu verhängen, für die Regierung hoch war, er hätte spätestens ab Ostern wieder verlassen werden müssen. Dass man zusätzlich versäumte, repräsentative Stichproben dauerhaft zu beobachten, ist ebenfalls ein Versäumnis erster Güte, denn dies hätte den Spielraum der Entscheidungen sehr schnell weiter vergrößert.

Der Lockdown ist herzlos und mörderisch

Als Hausarzt habe ich viele, meist ältere Menschen beim Sterben begleitet. Manche unter Schmerzen, viele schläfrig, manche viel zu früh und andere auf gepackten Koffern für die letzte Reise. Niemand unterstelle mir Herzlosigkeit. Wenn wir jedoch über eine Pandemie und die richtige Strategie diskutieren, darf man nicht von Einzelfällen ausgehen, sondern muss sich den Gesamtzahlen stellen. Ja, eine Coronainfektion kann zu der schweren Covid-19-Erkrankung führen, an der viele, meist ältere Vorerkrankte sterben. Es gilt, diese Erkrankung besser zu verstehen und zu behandeln, das scheint inzwischen gut zu gelingen.

Zurzeit werden auf Worldometer über 400.000 Todesfälle dieser Erkrankung zugerechnet. Wir werden sehen, ob sich dadurch die jährliche Gesamtzahl an Toten durch Atemwegsinfektionen (über 3 Millionen ohne Tuberkulose) insgesamt erhöhen wird. Doch die Corona-Maßnahmen selbst kosten ebenfalls viele andere Todesopfer. Um dies Zahl zu schätzen, darum hat sich bisher umfassend nur ein einziger Mitarbeiter der gesamten Ministerialbürokratie sowie aller staatlichen Institutionen gekümmert, BMI Oberregierungsrat Stephan Kohn. Dieses Desinteresse an den Opfern der Schutzmaßnahmen macht fassungslos und ist nichts anderes als herzlos und unethisch. Zählen nur die richtigen Opfer, die die Regierungsmaßnahmen rechtfertigen, und nicht die falschen Opfer, die diese Maßnahmen infrage stellen?

Doch wer redet eigentlich über die Opfer, die der Lockdown in den Schwellen- und Entwicklungsländern verursachen wird. Pro Tag sterben auf der Welt, vor allen in diesen Ländern, mindestens 150.000 Menschen, 350.000 werden neu geboren. Hier als Beispiel die Zahlen der Corona zugeordneten Todesopfer in Indien, Stand 9. Juni: 7.481, und im Vergleich dazu die tägliche allgemeine Todeszahl in Indien: annähernd 30.000. Während wir unsere Todesfälle der fast sechsmonatigen Coronakrise ausgiebig thematisieren und nicht müde werden Solidarität und Ethik einzufordern, interessiert sich niemand dafür, was unsere Corona-Politik dort anrichtet.

Sowohl als Folge des Handelsausfalls als auch als falsche Handlungsvorgabe. Es braucht wirklich nicht viel Fantasie, um sich vorzustellen – und spätere Untersuchungen werden es zeigen –, dass wegen des Zusammenbruchs des Handels, der Arbeitsplätze des Tourismus, des Gesundheitssystems und den eh schon kaum vorhandenen sozialen Absicherungen viele Millionen In Afrika, Indonesien oder Indien vor dem Nichts stehen. Unzählige Menschen, ganz besonders die Schwachen oder die Neugeborenen, werden unsere Unfähigkeit, verantwortungsethisch zu handeln, mit ihrem Leben bezahlen. Vielleicht muss man es einmal so formulieren, um diejenigen in den westlichen Ländern aufzuwecken, die im wohlfeilen Wettbewerb um die größten Schuldkomplexe immer vorne dabei sein möchten: Der hysterische Lockdown ist das Egozentrischste, Folgenschwerste und Mörderischste, was die reichen Ländern den ärmeren seit langem angetan haben.

Aktueller Nachtrag:

Und jetzt zum Schluss ein richtiger Hammer, ganz frisch von der WHO. Die schreibt auf englisch: „Detailed contact tracing from Taiwan as well as the first European transmission chain in Germany suggested that true asymptomatics rarely transmit“.

Das heißt im Klartext auf deutsch: Asymptomatische Coronainfizierte, also Infizierte, die keine Krankheitssysmptome entwickeln, stecken andere nur selten an. Schätzungen nach gibt es asymptomatische Virusträger 10- bis 50-mal häufiger als diejenigen, die Symptome entwickeln (und für ein paar Tage, wie asymptomatisch Infizierte wirken). Dies ist ein weiteres Argument hinsichtlich der Sinnlosigkeit der Schulschließungen und des Lockdowns allgemein.

Der Beitrag erschien zuerst bei ACHGUT hier

Anmerkung der Redaktion

Zum Grad der Durchseuchung und der möglichen Genauigkeit der PCR Test: https://www.youtube.com/watch?v=st0SyD-VyjM

und dann hier

Ergebnis. Unbrauchbar! Für schwerwiegende politische Entscheidung ungeeignet.




Wissenschaftsskandal ersten Ranges: Die manipulierten Hydroxychloroquin-Studien

Ein Medikament sorgte in der Corona-Pandemie für Aufsehen: Hydroxychloroquin. Kein Impfstoff, sondern ein Medikament, das vor allem seit 70 Jahren aus der Malariabehandlung gut in seinen Wirkungen und Nebenwirkungen bekannt ist. Und: Es ist preiswert und bietet damit keine beeindruckenden Gewinnmöglichkeiten für den mächtigen Pharmasektor.

Eine gängige Methode in der Medizin bei neuen Erkrankungen ist der Blick in die Apotheke. Welche Mittel sind bereits vorhanden, auch in ihren Nebenwirkungen bekannt und könnten wirken. So konnte in Zellkulturen auch eine Wirkung von Hydroxychloroquin gegen SARS-CoV-2-Viren gezeigt werden. Von Ärzten in China wird berichtet, dass sie auf das Mittel zurückgreifen.

In die Nachrichten schaffte es die Substanz, weil US-Präsident Donald Trump nach Empfehlung seiner Experten dies Mittel anpries und sich – wie könnte es anders sein – heftige Kritik einhandelte. Auch Elon Musk übrigens hob das Mittel hervor.

In Marseille entwickelte der Virologe Professor Didier Raoult vom Institut Hospitalo-Universitaire (IHU) Méditerranée Infection eine Behandlungsmethode mit einer Kombination von Hydroxychloroquin und Azithromycin, einem Antibiotikum, das auch gegen Infektionen der unteren und oberen Atemwege wirkt. Für ihn entscheidend: ein frühes Behandlungsstadium und nicht zu hohe Dosen der Medikamente. Eine erste Studie von ihm lieferte überzeugende Ergebnisse, Raoults Name ging um die Welt, in Frankreich erreichte er so etwas wie Kultstatus, wozu ihm vermutlich auch sein Äußeres verhalf.Der deutsche Virologe Prof. Christian Drosten kritisierte rasch, die Studie Raoults lasse keine Rückschlüsse auf die tatsächliche Wirksamkeit zu; Hydroxychloroquin sei kein »Hoffungsträger«.

Das Mittel geriet langsam ins Zwielicht. Die renommierte Fachzeitschrift Lancet veröffentlichte die entscheidende Studie, die dem Mittel den »Todesstoß« versetzte, wie später der brasilianische Wissenschaftler Marcos Nogueira Erbelin einschätzte. Deren Ergebnis: Hydroxychloroquin könne sogar die Todesrate bei COVID-19 Patienten erhöhen. Auch deutsche Fachzeitungen wie die Deutsche Apothekerzeitung (DAZ)berichtete über die »Entzauberung der Malariamittel«.

Diese Veröffentlichung hatte Folgen. Die Weltgesundheitsorganisation WHO in Genf stoppte ihre Forschungsreihe mit mehr als 3.500 Patienten in 35 Ländern. Mit der sollte untersucht werden, welche bekannten Medikamente möglicherweise gegen COVID-19 wirken könnten. Das Bundesgesundheitsministerium gab gespendete Chloroquin Tabletten »aufgrund aktueller Erkenntnisse« an die Firma Bayer zurück.

Besonders extrem handelte in Frankreich Gesundheitsminister Olivier Veran. Er verbot per Erlass die Behandlung von COVID-19 Erkrankten mit dem Malariamittel.
Doch trotz des Verbotes aus Paris berief sich der mutige Professor Didier in Marseille auf seine ärztlichen Pflichten und behandelte Patienten mit seiner Methode weiter und erzielt damit eindrucksvolle Erfolge.

Professor Didier Raoul veröffentlichte seine Ergebnisse:

»Durch die Untersuchung von 101.522 Proben mittels Polymerase-Kettenreaktion (PCR) von 65.993 Personen diagnostizierten wir 6.836 Patienten (10,4%), darunter 3.737 aus unserer Kohorte. Das Durchschnittsalter betrug 45 Jahre, 45% waren männlich, und die Sterblichkeitsrate betrug 0,9%. Wir führten 2.065 Niedrigdosis-Computertomographien durch, die bei 581 der 933 (62%) Patienten mit minimalen klinischen Symptomen Lungenläsionen aufzeigten. Es wurde eine Diskrepanz zwischen spontaner Dyspnoe, Hypoxämie und Lungenläsionen beobachtet.
Klinische Faktoren (Alter, Komorbiditäten, NEWS-2-Score), biologische Faktoren (Lymphopenie, Eosinopenie, Abnahme des Zinkgehalts im Blut und Zunahme von D-Dimeren, Laktatdehydrogenase (LDH), Kreatininphosphokinase (CPK) und c-reaktivem Protein (CRP)) sowie mittelschwere und schwere Läsionen, die in niedrig dosierten CT-Scans festgestellt wurden, waren mit einem schlechten klinischen Ergebnis assoziiert. Die Behandlung mit HCQ-AZ war mit einem verringerten Risiko der Verlegung auf die Intensivstation oder des Todes (HR 0,19 0,12-0,29), einem verringerten Risiko eines Krankenhausaufenthalts ≥10 Tage (Odds Ratios 95% CI 0,37 0,26-0,51) und einer kürzeren Dauer der Virusabgabe (Zeit bis zur negativen PCR: HR 1,27 1,16-1,39) assoziiert.

Bei 25 Patienten (0,67%) wurde eine QTc-Verlängerung (>60 ms) beobachtet, die in 3 Fällen zum Abbruch der Behandlung führte. Es wurden keine Fälle von abnorm beschleunigtem Puls oder plötzlichem Tod beobachtet.«

Genau einen plötzlichen Tod aufgrund von Herzarrhythmien hatte die im Lancet veröffentlichte Studie behauptet.

Didiers Schlussfolgerung:
»Frühzeitige Diagnose, frühe Isolierung und frühe Behandlung mit mindestens 3 Tagen HCQ-AZ führen bei Patienten mit COVID-19 zu einem signifikant besseren klinischen Ergebnis und einer besseren Ansteckungsfähigkeit als andere Behandlungen. Die nächste Herausforderung bei der Behandlung von COVID-19 wird die langfristige Nachbeobachtung des Fibrose-Screenings sein.«

Ein Beispiel für die weltweiten Verwerfungen, die die Lancet-Veröffentlichung auslöste, zeigte sich in Marokko. Dort geriet die marokkanische Gesundheitspolitik in Bedrängnis. Bereits recht früh, am 20. März, hatte das Land offiziell eine Behandlung von COVID-19 Erkrankten nach den Vorgaben des Professors Raoult eingeführt und damit sehr gute Behandlungserfolge erzielt.

Doch dort sah man recht klar die Fehler der Studie. So gab Prof. Jaafar Heikel, ein marokkanischer Epidemiologe und Spezialist für Infektionskrankheiten, auf eine Anfrage des marokkanischen Wirtschaftsportals Media24 eine ausführliche Erklärung ab: »Es handelt sich hier nicht um eine klinische Studie, sondern um eine Analyse von Datenregistern aus verschiedenen Krankenhäusern und Ländern!«

Ihm kam auch die Finanzierung dieser Studie verdächtig vor, und er kritisierte die Autoren, »deren Hauptautor zugibt, von Laboratorien oder anderen Unternehmen bezahlt zu werden oder Gelder oder Vergütungen zu erhalten.«

Heikel verwies auf seine Ergebnisse: »Ehrlich gesagt kann ich nur aus meiner Erfahrung mit 3.200 Patienten in der Region Casablanca in Koordination mit dem regionalen Gesundheitsamt von Casa Settat sprechen. Wir haben 94,3 Prozent geheilt, 5,7 Prozent schwere Fälle, 2,8 Prozent davon waren tödlich. Auf der anderen Seite 0,8 Prozent der schweren und 12 Prozent der leichten Nebenwirkungen.«
»Dies sind die Fakten, obwohl unsere Patienten offensichtlich im Durchschnitt jünger sind (45 Jahre alt) und wir jeden positiven Fall, der erkannt wurde, auch behandeln.«Er beobachte weiterhin genau die Entwicklung und werde Anpassungen vornehmen, sollte sich herausstellen, dass diese Behandlungsmethode nachteilig sei. Eine schwierige Situation für die Medizin, die in einer sehr unübersichtlichen Situation entscheiden müsse: »Wir müssen Polemiken vermeiden und nach Fakten urteilen und korrigieren, wenn wir uns geirrt haben, aber im Moment ist das nicht der Fall. Marokko hat bisher in Bezug auf Politik, Kontrollmaßnahmen und therapeutische Strategie gut abgeschnitten. Wir können die Aspekte über die Ausweitung der Quarantäne diskutieren, wenn Sie wollen, aber was das Patientenmanagement betrifft, so müssen wir anerkennen, dass wir die Dinge im Lichte des Wissens, das wir haben, gut gemacht haben.«

Jetzt stellt es sich heraus: Die Studie ist falsch. Am Donnerstag zogen die Autoren die Studie zurück. Auf der Seite des Fachzeitschrift Lancet prangt jetzt über dem Artikel fett rot: RETRACTED.

Ein Wissenschaftsskandal ersten Ranges mit tödlichen Folgen für die betroffenen Patienten.

Die Daten lieferte eine Firma Surgisphere aus Chicago. Die gab an, Daten über die Behandlungs- und Gesundheitsergebnisse von 96.032 Patienten aus 671 Krankenhäusern auf allen Kontinenten auswerten zu können. Reichlich viel Daten, von denen das Unternehmen nicht erklären konnte, wie sie zustande gekommen sind. Auch benannte sie nicht die Krankenhäuser, von denen die Daten stammen sollten.

Dies rief neben anderen den australischen Statistiker und Datenwissenschaftler Peter Ellis auf den Plan, der sich das merkwürdige Unternehmen einmal genauer ansah: »Ich bin bei weitem nicht der Erste, der nach mehr Informationen über diese erstaunliche neue Datenbank fragt, von der noch niemand etwas gehört hat, und sie hatten eine Woche Zeit, es zu erklären. Das haben sie sich ausgedacht.«

Man sollte erwarten, meinte Ellis süffisant, dass ein Unternehmen, das im Bereich der Gesundheitsdaten weltweit tätig ist und Software mit sicherheitskritischen elektronischen Patientendatensystemen in 671 Krankenhäusern unterstützt, mindestens Manager und Koordinatoren dieses globalen Netzwerkes, ein Team für die Krankenhausbetreuung, Unterstützungspersonal sowie Ausbilder und Entwickler von Schulungsmaterial und Forscher beschäftigt. Nicht zuletzt sollte sich ein Rechtsteam mit Datenschutz und Vertragsfragen im Umgang mit über 670 Krankenhäusern befassen.Ellis fand bei seiner Untersuchung des Unternehmens niemanden dergleichen. Sein Resultat: »Surgisphere hat keine dieser Personen, mit Ausnahme von Sapan S. Desai, der gleichzeitig Geschäftsführer und medizinischer Forscher ist (ein guter Hinweis auf die Größe der Firma). Seinem LinkedIn-Profil nach zu urteilen besteht sein Team aus drei Verkaufsleitern und zwei Wissenschaftsredakteuren.«

Ellis nimmt kunstgerecht die wesentlichen Behauptungen des Unternehmens auseinander und entlarvt die Auszeichnungen, mit denen Surgisphere hausieren geht, als Übertreibungen. Sein Resümee: »Es ist schrecklich zu glauben, dass die wahrscheinlichste Erklärung für das, was wir sehen, einfach darin besteht, dass die Daten gefälscht sind, in einer möglicherweise kriminellen Verschwörung, und dass der wissenschaftliche Publikationsprozess unterbrochen ist.«

Francesoir, die Online Ausgabe der früheren großen französischen Tageszeitung France Soir, veröffentlichte ein exklusives Interview mit Marcos Erbelin, Professor für Chemie. Er ist Mitglied der Brasilianischen Akademie der Wissenschaften und hat an der Universität von Campinas in Chemie promoviert.

Erbelin wunderte sich: »Die Studie mit 96.000 Patienten, von der noch niemand etwas gehört hat und die in einer der renommiertesten medizinischen Publikationen veröffentlicht wird.« Er vertritt eine Gruppe von 300 Wissenschaftlern. Sie beschreiben den Fall in einem offenen Brief und schilderte den einzigen Zweck der in der Lancet veröffentlichten Studie, Hydroxychloroquin als Behandlung gegen das Coronavirus zu diskreditieren.

Zwei Gruppen machten sich an die Arbeit und überprüfen diese Studie. Eine Gruppe arbeitete in Frankreich, wo der Gesundheitsminister das Verfahren mit dem Hydroxychloroquin brutal zu unterdrücken versuchte. Die andere Gruppe sitzt auf der anderen Seite der Erde in Brasilien. Das Land ist ebenfalls von der Pandemie stark betroffen, Präsident Jair Bolsonaro entschied sich in Absprache mit seinen Experten für die Verwendung von Hydroxychloroquin und wird gleich heftig niedergemacht.»Wir hatten Chemiker, Biologen, Statistiker, Virologen, die alle versuchten, die Auswirkungen von Covid 19, die Behandlungen, einschließlich Hydroxychloroquin, und die Eindämmung zu verstehen.« Geholfen hat der Arbeitsgruppe Erfahrungen mit Infektionen durch den Zika-Virus und die Arbeit in multidisziplinären Arbeitsgruppen.

Erbelin: »Was Hydroxychloroquin betrifft, so waren wir alle schockiert über den Widerstand, den es in Frankreich hervorrief, obwohl dort einer der besten Experten der Welt in Virologie und Epidemiologie tätig ist. Wir haben uns auch angesehen, was in den Vereinigten Staaten geschah.« Die politischen Gegner kontrollierten die Medien (Globo) und wollten Hydroxychloroquin disqualifizieren«, so Erbelin. Die Wissenschaftler benötigten einige Zeit, um sich mit der Studie zu beschäftigen, sie zu verstehen und zu dem Ergebnis zu kommen: Diese Studie ist getürkt.

Mit zu besonderer Vorsicht und Gründlichkeit beigetragen hat, dass diese Studie im renommierten Lancet erschienen ist, ansonsten eine seriöse und zuverlässige Publikation. Das ließ die Gruppe an Wissenschaftlern nicht unbeeindruckt. Doch sehr bald erkannte das Kollektiv nach den Worten von Erbelin den »Versuch, das Hydroxychloroquin schließlich als duale medikamentöse Therapie zu diskreditieren.«
Erbelin: »Wir analysierten alles, mit 300 war es ziemlich schnell, wir teilten die Arbeit. Aber alles schien fragwürdig: die Methodik, die Stichprobenziehung, die verwendeten statistischen Methoden.« Er und seine Gruppe sind entgeistert: »Das ist keine Wissenschaft, das ist eine Instrumentalisierung der Wissenschaft. Wir waren alle schockiert, denn das ist es, was den Ruf der Wissenschaft zerstört.«

In Frankreich sitzen, so Erbelin, die Gegner der Behandlung mit Hydroxychloroquin in Regierung und elitären Kreisen: »In Brasilien ist es wirklich anders, es gibt eine direkte Korrelation zwischen den Gegnern von Hydroxychloroquin und den Gegnern der an der Macht befindlichen Regierung. Über den politischen Teil hinaus konnten wir diese Studie auch mit großen pharmazeutischen Labors in Verbindung bringen.«

Der Skandal um die gefälschten Studien schlägt hohe Wellen. Die WHO hat verkündet, ihre Studie wieder fortzusetzen. Währenddessen eskaliert die Lage um Surgisphere. Elsevier, der Eigentümer der Fachzeitschrift Lancet, erklärte mittlerweile gegenüber der Financial Times, ungefähr 20 Originalartikel zu überprüfen, die Daten von Surgisphere enthalten. Auf Twitter werden Forderungen laut, Lancet und das New England Journal sollten sich sofort einer unabhängigen Untersuchung über den Standard ihrer Redaktions- und internen Überprüfungsverfahren unterziehen.

In Frankreich rollt eine Klagelawine auf die Regierung zu. Tausende von Medizinern und Angehörige von Verstorbenen wollen Klagen einreichen. Angesichts der Tragweite des Skandals dürfte auch der milliardenschwere Pharmasektor unter Beschuss geraten, dem offenbar das preiswerte Malariamittel das Geschäft mit einem möglichen neuen Impfstoff zu verhageln drohte. Nicht überschaubar sind die Verwerfungen, die der Skandal in der französischen Politik hinterlassen wird.

Der Beitrag erschien zuerst bei TE hier




EEG-Umlage: Strompreise werden weiter steigen

Das Desaster wird immer dramatischer: Viel Wind und Sonne in diesem Jahr treiben die Strompreise immer drastischer in die Höhe. Die Preise für Strom kennen nur eine Richtung: steil nach oben. Deutschland hat Energiewende und deshalb mittlerweile die höchsten Strompreise Europas. Jetzt kommt heraus: Sie werden noch weiter steigen. Schuld daran ist ausgerechnet Strom aus Windmühlen und Photozellen. Der ist nämlich nicht kostenlos, sondern schickt eine saftige Rechnung.

Gerade hat auch das Energiewirtschaftliche Institut (EWI) an der Universität Köln die Politik aufgeschreckt. Im kommenden Jahr könnte, so die EWI-Prognose, die EEG-Umlage um sage und schreibe bis zu 25 Prozent teuer werden. Schon vor kurzem hatte Eon-Chef Johannes Teyssen vorausgesagt, dass die »Strompreise durch die Decke schießen« und Verbraucher und kleinere und mittlere Unternehmen schwer belasten werden.

Zur Zeit müssen Stromverbraucher in Deutschland 6,756 Cent pro Kilowattstunde als Umlage bezahlen. Das reicht nicht aus, um die exorbitant teuren Windräder und Sonnenzellen zu bezahlen. Dazu wäre im kommenden Jahr eine Umlage 8,44 Cent pro Kilowattstunde notwendig, haben jetzt die Experten am Kölner Institut berechnet. Die sind in der Vergangenheit nicht durch Alarmismus aufgefallen, sondern eher durch zurückhaltende Bewertungen.

Ein durchschnittlicher Haushalt würde pro Jahr dann nicht mehr 281,39 Euro sondern 350 Euro allein dafür bezahlen, dass Betreiber von Windmühlen und Photozellen einen hohen garantierten Preis für ihren Strom bekommen – unabhängig vom Marktpreis und davon, ob dieser Strom gerade benötigt wird oder nicht.

Das Paradox der Energiewende besteht gerade darin, dass viel Sonne und Wind relativ viel Strom liefern auch dann, wenn keine Abnehmer vorhanden sind. Die Betreiber der Übertragungsnetze müssen dann zusehen, wohin mit diesem Strom. Wenn niemand ihn will, versuchen sie ihn ins Ausland zu schicken – im Zweifel verbunden mit einer kräftigen Mitgift, damit ihn überhaupt jemand abnimmt. Er muss schließlich genau in dem Augenblick, in dem er erzeugt wird, irgendwohin und kann nicht gespeichert werden. Der Stromverbraucher muss die exorbitant steigenden Stromkosten letztlich bezahlen.Die grünen Konstrukteure des EEG haben eben gerade keinen Markt installiert, wie sie seinerzeit so laut behaupteten. Dann bekämen die Betreiber der Anlagen bei einem Überangebot an Solar- und Windstrom und geringer Nachfrage fast kaum etwas für ihren Strom. Es ist eben kein Bedarf vorhanden.

Damit aber – auch das war den Konstrukteuren klar – lohnte kein einziges Windrad. Nur mit dem Versprechen auf garantierte Preise kommt jemand auf die Idee, die Landschaft mit Windmühlen zuzubauen. Die muss man schon mit fetten garantierten Gewinnen auf Kosten der Stromverbraucher locken.

Der Irrsinn Energiewende tritt also immer deutlicher zutage. Schon längst fürchtet die Politik in Berlin den Tag der Abrechnung, wenn die anfängliche Begeisterung ob der ach so umweltfreundlichen Stromerzeugung mit Windmühle und Solarzelle in blanke Wut umschlägt, weil die Energiewende die Kosten ins Absurde treibt.

Die Politik sucht daher krampfhaft nach Wegen, mehr Geld für den Ausstoß von   CO2 einzutreiben, um im Gegenzug die EEG-Umlage absenken zu können. Rechtlich ist dies bisher nicht möglich. Daher will die Bundesregierung jetzt mit einer »Verordnung zur Änderung der Erneuerbare-Energien-Verordnung« erreichen, dass Haushaltsmittel zur Absenkung der EEG-Umlage verwendet werden dürfen.

Reine Kosmetik – das Geld soll über den Namen CO2 vulgo Klimaschutz von den Verbrauchern eingetrieben und den Windmühlenbetreibern zugeschustert werden. Als »technische Anpassungen in der Erneuerbare-Energien-Verordnung« wird diese Kosmetik bezeichnet und ist doch nichts anderes als eine Täuschung der Verbraucher, denen ein niedrigerer Strompreis vorgespiegelt wird, der dafür aber höhere Preise für Benzin, Diesel und Heizöl bezahlen muss.Die vier Übertragungsnetzbetreiber müssen diesen neuen »Einnahmentatbestand für Haushaltsmittel« dann bei der Ermittlung der EEG-Umlage berücksichtigen. Dieser weitere Schwindel offenbart, was die Spatzen von Berliner Dächern pfeifen: Die Energiewende ist krachend gescheitert. Nur: Wie raus aus der Nummer?

Immer mehr entpuppt sich auch die vollmundige Lüge des einstigen Jürgen Trittin mit seinen Kosten für »Erneuerbare« in Höhe von einer Kugel Eis und auch die des Predigers der »solaren Weltrevolution« Franz Alt, der »Die Sonne schickt keine Rechnung« in die Welt gesetzt hat.

Es ist eben sehr teuer, die sehr unregelmäßigen und verhältnismäßig geringen Leistungen von Sonne und Wind in elektrische Energien für ein Industrieland umzuwandeln. Zusätzlich muss ein Kraftwerkspark vorgehalten und bezahlt werden, der dann einspringt, wenn Flaute oder Nacht herrschen.

So kommen in Süddeutschland die Photovoltaikanlagen lediglich auf ungefähr 1.000, in Norddeutschland nur auf 800 Volllast-Benutzungsstunden, der Wind in Süddeutschland nur auf 1.600-1.800, in Norddeutschland immerhin auf 2.000-4.000 Volllast-Betriebsstunden.

Sogar europaweit liefern die sehr volatilen Wind- und Sonnenenergien gleichzeitig sehr hohe Strommengen. Ursprünglich dachten die Planer, die Volatilität würde sich europaweit ausgleichen. Ein Irrtum. Der weitere Ausbau mit Windrädern in Europa führt also dazu, dass zeitweilig noch mehr Strom »zur Unzeit« produziert wird, also dann, wenn ihn niemand gebrauchen kann. Speichern kann man solche Menge an elektrischer Energie nicht, das gelang bisher nur der grünen Vorsitzenden Annalena Baerbock. Die Folgen der Energiewende verschärfen sich, das Desaster wird größer.

Der Beitrag erschien zuerst bei TE hier




Sekundäre Folgen der Corona-Lockdowns Hören Sie den Ärzten zu, beenden Sie die Sperren!

Sechshundert Ärzte unterzeichneten kürzlich einen Brief an Präsident Trump, in dem sie ein Ende der Coronavirus-Sperren forderten. Die Ärzte schrieben, dass die Lockdowns weit davon entfernt seien, die öffentliche Gesundheit zu schützen, und dass sie für Millionen von Amerikanern „exponentiell wachsende negative Gesundheitsfolgen“ hätten.Seit Beginn der Lockdowns haben Alkoholismus, Drogenmissbrauch und häusliche Gewalt zugenommen. Es kam auch zu einer Zunahme der Anrufe bei Selbstmord-Hotlines. Dies ist eine direkte Folge der Massenarbeitslosigkeit und der durch die Lockdowns bedingten Einschränkung der Aktivitäten der Menschen. Solange Millionen von Amerikanern zu Hause sitzen und sich fragen, wie sie überleben können, bis die Regierung ihnen sagt, dass sie wieder arbeiten gehen können – vorausgesetzt, die Shutdowns haben ihre Arbeitgeber nicht aus dem Geschäft gedrängt –, wird es mehr Drogenmissbrauch und Selbstmorde geben.Zu Beginn der Lockdowns wurde Amerikanern gesagt, sie sollten sich von Notaufnahmen und Arztpraxen fernhalten, um sich nicht dem Coronavirus auszusetzen. Dies hat dazu geführt, dass Amerikaner ihre Gesundheit vernachlässigten. In den US-Krankenhäusern ist die Zahl der wegen schwerer Herzinfarkte eingewiesenen Patienten seit März um 40 Prozent zurückgegangen. Glaubt etwa jemand, dass die Coronavirus-Panik zufällig mit einem wundersamen Rückgang der Herzinfarkte zusammenfiel?Auch bei vielen Schlaganfallopfern, die durch die Coronavirus-Sperre davon abgehalten wurden, medizinische Hilfe in Anspruch zu nehmen, sahen sich Ärzte nicht mehr in der Lage, ihnen zu helfen.

Zu Beginn der Coronavirus-Panik wurden die Krankenhäuser angewiesen, wahlweise Eingriffe abzusagen, um sicherzustellen, dass genug Platz für die erwartete Welle von Coronavirus-Patienten zur Verfügung steht. Doch die Krankenhäuser wurden nicht von Coronavirus-Patienten gestürmt. Betten und andere Ressourcen blieben ungenutzt.

Nach Angaben der American Hospital Association hat dies den Gesundheitsdienstleistern Einnahmeverluste in zweistelliger Milliardenhöhe beschert. Innerstädtische und ländliche Krankenhäuser, die bereits bisher mit geringen Gewinnspannen arbeiteten, sind von den finanziellen Auswirkungen der Sperren besonders hart betroffen. Diese Krankenhäuser müssen künftig möglicherweise ihre Leistungen einschränken. Einige werden sogar schließen müssen. Dadurch wird es Amerikanern auf dem Land und in der Stadt noch weiter erschwert, eine qualitativ hochwertige und erschwingliche Gesundheitsversorgung zu erhalten.

Die Verschiebung notwendiger Operationen wird schwerwiegende Folgen haben. Viele Patienten, deren Operationen verschoben wurden, werden feststellen, dass ihre einst leicht zu behandelnden Leiden jetzt eine intensive und teure Behandlung erfordern.
Einige Menschen verzichten auf Krankheits-Management und Kontrolluntersuchungen, die dabei helfen könnten zu vermeiden, ernsthaftere Probleme zu entwickeln. Die Coronavirus-Lockdowns haben sogar dazu geführt, dass Chemotherapien abgesagt wurden.

Dem Brief der Ärzte an Präsident Trump zufolge verhindern die Coronavirus-Sperren, dass 150.000 Amerikaner pro Monat erfahren, dass sie Krebs haben. Das Überspringen von Routine-Krebsvorsorgeuntersuchungen bedeutet, dass Krebs nicht in einem frühen Stadium, in dem er am leichtesten zu behandeln ist, erkannt wird.

Die Coronavirus-Lockdowns haben das Leben der Amerikaner auf den Kopf gestellt, um sie vor einem Virus mit einer Sterblichkeitsrate von 0,2 Prozent zu „schützen“, wobei die meisten dieser Todesfälle Menschen in Pflegeheimen und solche mit chronischen Gesundheitsproblemen betreffen. Stattdessen wäre die rationale Antwort, die Schwachen zu schützen und den Rest der Menschen ihr Leben leben zu lassen. Aber Politiker und von der Regierung ernannte „Experten“ reagieren nicht rational auf eine „Krise“, insbesondere dann nicht, wenn eine panische Reaktion ihre Macht und ihr Ansehen steigern kann.

Die Lehre aus den unnötigen Lockdowns ist klar: Regierungsbürokraten und Politiker, selbst der von den Medien geliebte Dr. Fauci, müssen daran gehindert werden, weiter unsere Freiheit und unseren Wohlstand zu beeinträchtigen.

Dieser Artikel erschien zuerst auf der Seite des Ron Paul Institute for Peace and Prosperity und wurde von Axel B. C. Krauss exklusiv für eigentümlich frei ins Deutsche übersetzt.

übernommen von ef-Magazin hier




Lisa Badum Grüne – „Aus der Grünen Bundestagsfraktion werden Sie keine Antwort auf die 16 Klimafragen bekommen“

Ende Januar 2020 reichte die Gruppe Klimafragen.org an alle im Bundestag vertretenen Parteien ihre sechzehn Klimafragen ein und bat um zeitnahe Beantwortung. Dieser Bitte kamen nur die AfD und die FDP nach. Von den anderen Parteien kam – nichts.

Nach Erinnerung durch einen der Initiatoren vom 25.Mai 2020 – Dr. Titus Gebel – bequemte sich aber die Sprecherin für Klimapolitik der Fraktion Bündnis 90/Die Grünen Frau Lisa Badum zu einer Antwort. Wir bringen sie – mit Erlaubnis der Initiatoren- in voller Länge und Schönheit, ebenso wie die umgehende Antwort von Klimafragen.org Herrn Gebel.

Am 27. Mai 2020 15:04, „Badum Lisa“ <lisa.badum@bundestag.de> schrieb:

Sehr geehrter Herr Gebel,

vielen Dank für Ihre Anfrage. Bitte haben Sie Verständnis, dass es derzeit aufgrund der Coronakrise zu Verzögerungen bei der Beantwortung von Anfragen kommt.

Aus der Grünen Bundestagsfraktion werden Sie keine Antwort auf die 16 Klimafragen bekommen, ich erkläre Ihnen auch gerne, warum.

Bei den Initiator*innen der „16 Klimafragen“ handelt es sich keineswegs um einen Zusammenschluss besorgter Bürgerinnen und Bürger, wie die Initiator*innen die interessierte Leserschaft glauben machen wollen. Unter den Erstunterzeichner*innen des Aufrufs finden sich zahlreiche bekannte Namen aus der Szene der Klimawandelleugner. In der Presse gab es in den vergangenen Wochen dazu entsprechend kritische Berichte, insbesondere zu den Hintergründen sowie Finanzquellen und Unterstützern aus der fossilen Energiewirtschaft. Ebenso gab es von Seiten der Klimawissenschaft zu den von den Initiator*innen herangezogenen Beispiele und Behauptungen entsprechende Gegendarstellungen.

Unsere Grüne Politik orientiert sich am anerkannten Stand der Wissenschaft. Diese vorliegenden wissenschaftlichen Fakten und Daten geben keinen Anlass, am fortschreitenden, vom Menschen verursachten Klimawandel und dessen Auswirkungen zu zweifeln. Der Weltklimarat hat dies in seinem letzten Sachstandsbericht von 2014 erneut klar bestätigt. Für diesen IPCC-Bericht haben 600 Autor*innen aus 32 Ländern insgesamt über 9.200 relevante wissenschaftliche Publikationen aus dem Bereich der Klimawissenschaft der letzten Jahre zusammengestellt, die den aktuellen Wissensstand wiedergeben. 209 Leitautor*innen und 50 Gutachten aus 39 Ländern sollen darüber hinaus die wissenschaftliche Qualität der Berichte sichern. Dieser aktuelle wissenschaftliche Erkenntnisstand ist die Grundlage unseres politischen Handelns, alles andere wäre unverantwortlich.

Mit freundlichen Grüßen

Lisa Badum

**********************

Lisa Badum MdB

Sprecherin für Klimapolitik

Fraktion Bündnis 90/Die Grünen

Deutscher Bundestag

Platz der Republik 1

11011 Berlin

 

Von: „Initiative | Klimafragen.org“ <mail@klimafragen.org>
An: „Badum Lisa“ <lisa.badum@bundestag.de>
Gesendet: 1. Juni 2020 10:09
Betreff: Re: AW: AW: Klimafragen

Sehr geehrte Frau Badum,

vielen Dank, dass Sie und die Grüne Bundestagsfraktion sich auf diese Art offenbaren. Gestatten Sie mir eine Erwiderung.

Wir wollten mit Ihnen durch Stellung der 16 Klimafragen auf der Sachebene diskutieren, aber sie lehnen dies ab, weil zu den Erstunterzeichnern „Klimawandelleugner“ gehörten. Allein die Verwendung dieses Begriffes in einer Sachfrage ist einer demokratischen Partei zutiefst unwürdig. Er ist auch sachlich falsch, denn meines Wissens bestreitet keiner der 32 Erstunterzeichner den Klimawandel als solchen. Und selbst wenn, was würde dies ändern? Haben Menschen, die eine abweichende Ansicht vertreten, keine Bürgerrechte bzw. kein Recht, besorgt zu sein und den Abgeordneten Fragen zu stellen?

Sie lehnen es ab, mit Menschen zu diskutieren, bloß weil diese in einer wissenschaftlichen Frage eine andere Meinung als Sie vertreten. Sie diffamieren diese mit einem Schmähbegriff und finden eine Meinungsvielfalt in dieser Frage offensichtlich nicht akzeptabel.

Die Grünen sind also gar nicht inklusiv. Die Grünen sind also gar nicht tolerant. Die Grünen sind also gar nicht divers.

Weiter führen sie als Grund für Ihre Dialogverweigerung aus, kritische Journalisten hätten Verbindungen von klimafragen.org zur fossilen Energiewirtschaft und entsprechende „Hintergründe“ zu Unterstützern und Finanzquellen von dort herausgefunden. Sie scheinen ernsthaft der Auffassung zu sein, hier liege eine von außen bezahlte und gesteuerte Aktion vor. Dazu kann ich nur sagen: Sie leben offenbar in einer Traumwelt.

In der realen Welt verhält es sich wie folgt: der einzige Bezug zur fossilen Rohstoffindustrie bin ich selbst, arbeite dort aber bereits seit fünf Jahren nicht mehr. Jeder kann dies durch einen einfachen Einblick ins elektronische Handelsregister herausfinden. Ich und meine Mitstreiter stellen die Klimafragen ausschließlich auf eigene Initiative und in eigenem Namen.

Hinsichtlich der „Finanzquellen“ weiß ich nicht, welche Verschwörungstheorie Sie und Ihre Pressefreunde sich da zusammenreimen. Sie haben ja keine Fundstelle genannt. Die bisher einzige Finanzquelle ist mein Privatkonto. Ich schätze den bisherigen Gesamtaufwand für Webseite, Newsletter, Abwehr von Hackerangriffen, Fahrtkosten etc. auf unter fünftausend Euro. Dafür braucht es ehrlich gesagt keine verborgenen Zuwendungen aus Geheimkassen der Erdölindustrie.

Niemand von uns erhält für seine Aktivitäten irgendeine Vergütung. Alle helfen ehrenamtlich.

Sie können sich offenbar schwer vorstellen, dass es außerhalb Ihres politischen Lagers Menschen gibt, die etwas aus Idealismus tun. Aber genauso ist es. Gegen das Establishment zu argumentieren, bringt uns weder Geld, Vergünstigungen noch Sozialprestige ein. Es ist im Gegenteil anstrengend und nervenaufreibend, der Politik die Fragen zu stellen, welche die Presse eigentlich stellen müsste, in Ihrer Kontrollfunktion der Mächtigen aber seit Jahren völlig versagt.

Was uns umtreibt und motiviert, ist die Sorge, dass hier ohne wirkliche Not, nur aufgrund der Hypothese einer angeblich drohenden Klimakatastrophe, die Grundlagen unseres Wohlstandes zerstört werden. Und dass, obwohl seit 1988, dem Jahr der IPCC-Gründung, die Menschheit gewachsen, das Pflanzenwachstum gestiegen, dadurch der Hunger zurückgedrängt wurde und auch die Opfer von Naturkatastrophen weniger geworden sind. Über 33.000 Bürger sehen das offenbar ähnlich. Denen ist es übrigens völlig schnurz, welches Etikett Sie uns Fragesteller anheften. Bisher sind die Grünen immer damit durchgekommen, dass sie bei Kritik nicht auf die Sache eingegangen sind, sondern die jeweiligen Kritiker diffamiert haben. Aber diese Zeiten sind zum Glück vorbei.

Am Ende bringen Sie doch noch ein Sachargument, nämlich dass praktisch alle Wissenschaftler sich einig seien über den menschgemachten Klimawandel und dessen Auswirkungen, eine weitere Debatte daher entbehrlich sei. Hätten Sie unsere Klimafragen wenigstens gelesen, dann wüssten Sie, dass wir mit Ihnen gar nicht über die Frage der Kausalität der Erwärmung sprechen wollen oder den Klimawandel abstreiten.

Sehr geehrte Frau Badum, es stehen bei der Klimadiskussion fünf Bereich zur Debatte: Erwärmung, Ursachen, Folgen, Geeignetheit und Verhältnismäßigkeit der Gegenmaßnahmen. Jeder, der nur ein bisschen Lebens- und Wissenschaftserfahrung hat, wird sofort erkennen, dass es vollkommen ausgeschlossen ist, dass in allen fünf genannten Bereichen eine allgemeine Übereinstimmung herrscht. Das gilt insbesondere im Hinblick auf die Frage nach der Verhältnismäßigkeit der Maßnahmen: denn das ist ein rein politischer Abwägungsvorgang und keine Frage, die durch “die Wissenschaft” entschieden werden kann.

Eine solche Abwägung zu treffen, ist Ihre Aufgabe als Abgeordnete und deshalb wollen wir die Fragen auch von Ihnen beantwortet haben. Zu den Fragen etwa, wie Sie beabsichtigen, nach Abschaltung der Kernkraftwerke und der Kohlekraftwerke den Strombedarf in der Grundlast zu erfüllen, oder warum Sie neue, CO2-freie, inhärent sichere Kernkrafttechnologien für alle Zeiten ablehnen, steht im IPCC-Bericht nämlich nichts.

Diese Fragen müssen Sie schon selbst beantworten. Sie könnten sich ein Beispiel an demokratischen Parteien nehmen, die haben unsere Fragen nämlich beantwortet. Stattdessen verweigern Sie den Diskurs. Dabei hätten Sie die Gelegenheit nutzen können, um es den Klima-Dissidenten einmal öffentlich so richtig zu zeigen. Aber Ihre Argumente sind offensichtlich zu schwach dafür.

Sie zerstören gerade die sichere und bezahlbare Energieversorgung eines Industrielandes. Ohne dass es messbare Auswirkungen aufs Weltklima hätte. Irgendwann werden sich die Abgeordneten dem Souverän dafür verantworten müssen.

Mit freundlichen Grüßen

Titus Gebel

Dr. Titus Gebel
c/o RA Carlos A. Gebauer
Königsallee 30, 40212 Düsseldorf

Update vom 2.6.20

Von Leser R bekamen wir die folgende Ergänzung

..auf die „16 Klimafragen“ der Initiative „klimafragen.org“ haben – als Fraktionen – nur die FDP und die AfD geantwortet.
Weitere Antworten liegen vor von
» Hans-Peter Willsch (CDU) «
» Andreas Mucke (OB Wuppertal) «
» EU-Kommission «
» Annalena Baerbock (Grüne) «
» Klima-Konsortium «
» Gerhard Zickenheiner (Grüne) «
» Torbjörn Kartes (CDU) «
» Angela Merkel (CDU) «
» Winfried Kretschmann (Grüne) «

Fazit:

Bis auf die EU-Kommission verweigern alle die Beantwortung der 16 Fragen und stellen stattdessen zum Teil abenteuerliche Behauptungen auf.

Erbärmlich, wenn auch erwartbar!




Corona entlarvt die Feinstaub-Legende

Diesel-Fahrzeuge sind es ganz offensichtlich nicht, die in der Stadt für Feinstaub und überhöhte NO2-Werte sorgen. Der Straßenverkehr trägt deutlich weniger zur Luftsituation in den Städten bei, als dies der Abmahnverein »Deutsche Umwelthilfe e.V.« und das Umweltbundesamt behaupten.

Corona entlarvt eine ganze Menge. Die Diesel-Fahrzeuge sind es nicht, die in der Stadt für Feinstaub und überhöhte NO2-Werte sorgen. Kaum Autos in der Stadt – dennoch ähnliche Werte wie zuvor bei vollem Verkehr. Keine Frage: Da stimmt vieles nicht von dem, was Umweltbundesamt und Bundesumweltministerium seit langem immer erzählen und damit die gigantischen Schäden bei Autofahrern und in der Autoindustrie rechtfertigen.

Kaum Autoverkehr, die Fabriken standen großteils still, die Städte »dicht«, es floss kaum Verkehr. Und dennoch zeigte sich zum Beispiel an Deutschlands berühmtester Messstelle am Neckartor in der Stuttgarter Innenstadt keine Verminderung der NO2-Werte, wie man sie eigentlich nach einem solch kompletten Shutdown erwarten müsste. Noch dazu ist diese Station entgegen der EU-Vorschriften so manipulativ dicht an der Straße in einer Hausecke aufgestellt, dass sie wie ein Spiegel die Luftmassen konzentriert und besonders hohe Werte produziert. Umso stärker also müssten die Werte zurückgehen.

Doch das tun sie nicht!

Ingenieur Martin Schraag, der sich seit langem mit den Verkehrsmessungen befasst, sagt: »Die berühmte Stuttgarter Messstation Am Neckartor und die Messstation an der Hohenheimer Straße sind Verkehrsmessstationen. Sie müssten also besonders empfindlich einem fallenden Verkehrsaufkommen folgen. Das aber ist im Frühjahr 2020 nicht passiert.«

Schraag weiter: »Die NOx-Emissionen der Haushalte und Wärmekraftwerke überwiegen inzwischen die des Straßenverkehrs – auch wenn die Umweltbehörde LUBW mit veralteten Daten anderes behauptet – und treiben die NO2-Konzentrationen auch in Bad Cannstatt schon mal auf über 100 μg/m³ hohe Stundenwerte. Dies passiert gerade im Winter, wenn die Emissionen der Heizanlagen maximal sind.«Martin Schraag weist auf einen weiteren Zusammenhang hin: »In den letzten 20 Jahren ist der Mittelwert um ca. 7 μg/m³ auf nunmehr knapp 25 μg/m³ NO2 gefallen. Den Hauptbeitrag dazu haben verbesserte Abgaswerte des Straßenverkehrs erbracht, dessen NOx-Eintrag nach Daten des Umweltbundesamts um über 50 % gefallen sind. Von den 7 μg/m³ dürften ungefähr 5 μg/m³ auf den Straßenverkehr entfallen. Das heißt, der restliche Beitrag des Straßenverkehrs an der heutigen Exposition der allgemeinen Bevölkerung ist 20 %.«

Dies bedeutet, dass der Straßenverkehr deutlich weniger zur Luftsituation in den Städten beiträgt, als dies der Abmahnverein »Deutsche Umwelthilfe e.V.« und Umweltbundesamt behaupten. Auch kein Wunder, denn die Autos sind seit den achtziger Jahren sauber gemacht geworden. Eine teure, aufwendige und übrigens auch fehleranfällige Abgasreinigungstechnologie hat die Autos umweltfreundlich gemacht. Aus einem modernen Diesel kommen kein Feinstaub und keine NOx mehr heraus.

Diese Entwicklung war den treibenden Kräften der Fraktion ‚Das Auto muss verschwinden‘ natürlich klar. Deshalb setzten sie als letztes Mittel im Kampf gegen die individuelle Mobilität jenen Stoff ein, der heute zur Allzweckwaffe im Kampf gegen alles geworden ist: Kohlendioxid, CO2. Dieser wichtige Stoff für das Wachstum der Pflanzen und Bäume entsteht bei jeder Verbrennung, in jeder Biogasanlage, auch beim Atmen. Deswegen wurden über die EU die Grenzwerte für den CO2-Ausstoß soweit heruntergesetzt, dass sie beim Fahrzeugen mit Motorentechnik nicht mehr erreichbar ist. CO2 als Mittel, um dem Auto den Garaus zu machen. Ab dem kommenden Jahr sollen die neuen Grenzwerte gelten, übrigens auch für Hausbrand.Ein Blick in Städte wie Ulm zeigt, dass dort sogar die Stadt jetzt befindet: Die Luft ist so gut, dass die Messungen eingestellt werden können. Das liege nicht an Corona, sondern – natürlich – an »den ergriffenen Maßnahmen«, wie es im schönsten Bürokratendeutsch heißt: »Die Belastung durch Feinstaub und andere Schadstoffe konnte durch die in den letzten Jahren ergriffenen Maßnahmen signifikant und dauerhaft unter die Grenzwerte gesenkt werden.«

Ulm hatte es auch nicht so auf maximale Messwerte abgesehen wie zum Beispiel das grüne Stuttgart, sondern die Messtationen wurden in der Karl- und in der Zinglerstraße aufgestellt, die selbst an wichtigen Innenstadtstraßen selten Messwerte über den Grenzwerten lieferten. Die Messstelle Karlstraße lieferte aufgrund einer Baustelle eine Zeitlang keine Werte, ehe sie dann 2018 wieder aufgenommen wurden. Dann ergab sie Werte für Stickstoffdioxid NO2, die deutlich unter den 40 µg/m3 Luft lagen. Die Messstelle wurde wieder abgebaut. Auch die letzten Messstellen werden voraussichtlich ab 2021 nicht mehr weiter betrieben.

Wenn schon »Luftalarm«, dann müsste er nicht für die Straßen unserer Städte, sondern für Küchen und Wohnungen geschlagen werden. 40 unterschiedlich große Wohnungen in Leipzig und Berlin wurden eine Woche lang zu unterschiedlichen Jahreszeiten auf die Luftwerte hin untersucht. Denn Backen, Toasten und Kerzen brennen lassen sind große Feinstaubquellen im Haushalt, wie das gerade Leipziger Forscher in einer Langzeituntersuchung zum Feinstaub in Innenräumen vom Leipziger Leibniz-Institut Tropos im Auftrag des Umweltbundesamtes festgestellt haben.

Mehr als 10.000 Messstunden investierten sie in das breit angelegte Programm zur Ermittlung der Luftschadstoffe in Küche, Bad und Wohnzimmer. Aus dem geht hervor, dass Braten und Kochen im Mittelfeld der Belastung in einer Wohnung liege. Doch bereits eine Kerze in der Wohnung, der Kuchen im Backherd, erhöhten die ultrafeinen Teilchen in der Luft auf das 50-Fache, bei einigen Messungen auch auf das 100-Fache.Doch während im Straßenverkehr der Feinstaub mit Gesetzen stark limitiert wird, sei in Wohnungen jeder für sich selbst verantwortlich, sagte Alfred Wiedensohler der Sächsischen Zeitung zum Ergebnis der Studie: »Das ist eine Belastung, höher als an einer stark befahrenen Straße.« Die Werte haben selbst ihn in seiner Wohnung überrascht. »Man sieht am Gerät, wie schnell Unmengen an Partikeln produziert sind, die man danach stundenlang noch einatmet.«

Wenn man nichts dagegen unternimmt, dauert es eben Stunden, bis sich diese Nano-Teilchen auf Oberflächen abgesetzt haben. Anders als Staub wirbeln die dann auch nicht mehr auf, sondern haften aufgrund ihrer Winzigkeit. Nur Abwischen würde sie dort fortbringen. Über Nacht wäre jedenfalls der Normalwert wieder erreicht. Es sei denn, dann wird morgens der Toaster angeworfen. Wiedensohler kann trösten: Grenzwerte werde es vom Umweltbundesamt nicht geben, aber künftig klare Empfehlungen, daher wurde diese Untersuchung gemacht. Glücklicherweise wird es also kein Kuchenbackverbot in der Küche geben. Eigentlich helfe nur eins, meinte er: Lüften, lüften, lüften, das geht ebenfalls aus der Studie hervor.

Das erstaunt: Mit der angeblich so schlechten Luft in den Städten soll die schlechte Luft in Wohnungen und Küchen durch Lüften verbessert werden? Aufgrund der Daten müsste also gelten: Besser Diesel fahren als Kuchen zu backen oder gar Brot zu toasten – und natürlich auf das Zigarettenrauchen verzichten – aus Gründen der Feinstaubvermeidung.

Der Beitrag erschien zuerst bei TE hier




NACHRUF AUF PHILIPPSBURG

Ist Strahlung gefährlich?

Es ist keine Frage, dass radioaktive / ionisierende Strahlung auf die menschliche Gesundheit folgenschwere Auswirkungen haben kann. (sieh auch https://think-again.org/die-angst-vor-dem-atom/). Diese unbestreitbare Tatsache wird mit großem Erfolg als Totschlagargument gegen die Kernenergie eingesetzt.

Es gibt aber auch noch andere unbestreitbare Tatsache: Seit seiner Entstehung wird das irdische Leben auf natürliche Weise radioaktiv bestrahlt. Offensichtlich haben unsere Vorfahren und die meisten von uns selbst das doch gut überlebt.

Also was ist los: Ist Strahlung jetzt gefährlich oder nicht? Ja oder Nein?

 

Nicht unumstritten

In der Erde lagern seit ihrer Erschaffung radioaktive Materialien, zwar in winziger Konzentration, so doch in riesigen Massen. Die geben genug Strahlung und Hitze ab, um das Innere unseres Planeten flüssig zu halten. Da kocht also ein permanenter, nuklearer „Meltdown“.

In Artikeln zu dem Thema werden Sie vielleicht den Hinweis finden, diese Behauptung sei „umstritten“. Lassen Sie uns das genauer betrachten. Umstritten ist kein Begriff aus der Wissenschaft sondern aus der Politik. Eine Behauptung ist umstritten, wenn sie einerseits nicht ins Narrativ passt und andererseits nicht widerlegt werden kann. Deren Klassifizierung beginnt dann mit „wenig hilfreich“, dann kommt „nicht unumstritten“, dann „umstritten“, schließlich wird der Autor der Aussage selbst als „umstritten“ hingestellt.

Ein umstrittener Experte kann immer noch in Talkshows eingeladen werden, aber eben mit offiziellem Label „umstritten“. Dadurch wird dem Publikum im Studio signalisiert, nicht zu klatschen, wenn der Betreffende etwas sagt. Und die Zuschauer zu Hause wissen, dass der Mann in der Garderobe noch einen Aluhut hängen hat. Falls Sie in letzter Zeit Sendungen zum Thema Corona gesehen haben, dann wissen Sie, was gemeint ist.

 

Der ewige Meltdown

Fakt ist jedenfalls, dass die Erde fortlaufend 47 Terawatt an Wärme aus eigener Produktion in den Weltraum abstrahlt; das entspricht übrigens 0,1% der Leistung, die sie von der Sonne empfängt. Von diesen 47 TW stammen ein bis zwei Drittel aus radioaktivem Zerfall von Thorium 232, Uran 238 und Kalium 40. Diese radioaktive Hölle im Erdinneren soll aber möglichst unerwähnt bleiben, damit die Einmaligkeit der Gefahr durch Atomkraft nicht geschmälert wird. Deswegen ist das ein „umstrittenes“ Thema.

Der Rest der 47 TW Wärme kommt aus Deformationen der Erde. Die Anziehungskraft des Mondes, kombiniert mit der Erddrehung, erzeugt nämlich nicht nur Gezeiten auf den Ozeanen, sondern sie verformt die gesamte Erdkugel ein kleines bisschen. Das erzeugt Reibungswärme, ähnlich wie ein schwach aufgepumpter Autoreifen beim Rollen heiß wird.

Dazu kommt noch, dass Glut aus den Tagen der Schöpfung unseres Planeten übrig geblieben ist, als es damals sehr heiß zuging. Der Löwenanteil der Hitze aber stammt von der natürlichen Radioaktivität.

 

Radioaktivität

Entdeckt wurde Radioaktivität vor 120 Jahren, von französischen Forschern. Vielleicht ein Grund, warum unsere charmanten Nachbarn jenseits des Rheins eine entspanntere Haltung zur Kernkraft haben.

Um zu beurteilen, ob Strahlung aus Atomkraft eine realistische Gefahr darstellt, ja oder nein, muss man das Ganze quantitativ betrachten. Manchmal ist da von Becquerel (Bq) die Rede – benannt nach dem anderen Entdecker der Radioaktivität, neben Marie Curie. Bq ist die Einheit, mit der die Anzahl radioaktiver Zerfälle pro Sekunde gemessen wird; das ist allerdings kein geeignetes Maß, um eventuelle Gefährdung für Lebewesen zu beschreiben.

Die Wirkung ionisierender Strahlung auf unseren Körper wird „Dosis“ genannt und sie wird in der Einheit mSv (Milli-Sievert) gemessen. Es wäre nun wichtig zu wissen, ab wieviel mSv die Sache gefährlich wird.

Eines ist schon mal sicher: Die natürliche Dosis, die wir permanent abbekommen, kann nicht gefährlich sein. Wieviel ist das? In Deutschland sind das 2,0 mSv pro Jahr, der Durchschnitt weltweit liegt bei 2,4 mSv. Es gibt auch Gegenden mit wesentlich höheren Werten. Champion ist Ramsar im Iran mit 250 mSv jährlich, also hundert-mal mehr! Und all das kommt von Mutter Natur. Und nur zum Vergleich: Neben dem „neuen sicheren Einschluss“ der Reaktorruine in Tschernobyl werden jetzt 8,0 mSv gemessen. Das kommt allerdings nicht nur von Mutter Natur.

 

Was ist das Limit?

Gesetzliche Limits zum Schutz der Bevölkerung vor ionisierender Strahlung sind extrem konservativ. Über die natürliche Dosis von ca. 2 mSv  hinaus soll man nicht mehr als ein weiteres mSv pro Jahr abbekommen. Personen, die aus beruflichen Gründen ionisierender Strahlung ausgesetzt sind, wird aber bis zu 100 mSv zusätzlich zugemutet. Ist das nicht menschenverachtend?

Wir hatten ja gesehen, dass in Ramsar – aber nicht nur dort – die Menschen bei dreistelligen Dosiswerten ein glückliches und langes Leben führen. Angeblich soll an dem Ort, seit Langem als Heilbad beliebt, die Häufigkeit von Lungenkrebs unter dem globalen Durchschnitt liegen.

Ein Thema soll aber nicht unerwähnt bleiben: Uran verbirgt sich nicht immer tief im Inneren der Erde, sondern lagert manchmal nah an der Erdoberfläche. Der Stoff wäre an sich harmlos, würde er nicht zu Radium zerfallen, welches wiederum ein radioaktives Gas von sich gibt, genannt Radon. Es liefert den Hauptanteil an natürlicher Radioaktivität, der wir ausgesetzt sind. Das Zeug ist harmlos, solange es nicht seinen Weg durch Erdspalten in die Keller von Häusern findet und in die Atemluft.

Häuslebauer können sich diesbezüglich beraten lassen, oder aber dafür sorgen, dass Schlaf- und Wohnzimmer immer gut gelüftet sind – auch ohne Radon eine gute Idee.

 

Zahnarzt und Röntgen

Der Segen kommt aber nicht nur von unten, auch von oben werden wir bestrahlt. Aus dem All kommt die kosmische Strahlung, vor der uns zwar die Atmosphäre schützt, aber 0,3 mSv jährlich kommen noch durch. Diese Dosis steigt mit der Höhe rapide an, auf Jet-Niveau ist sie 30 mal so hoch; das ist ein Thema für Airline-Crews und, noch mehr, für Astronauten. All das beschert uns die Natur, ohne Atombombe und ohne Tschernobyl.

Welche Dosis bekommen wir aber von Menschenhand verpasst? Die altmodischen Röntgenapparate und die Computertomographie tragen zur Dosis bei. Ein volles Körper-CT bringt uns ca. 10 mSv ein, das wäre wie 14 Tage Urlaub in Ramsar, ein Brustbild bringt 0,1 mSv, und was der Zahnarzt macht, das können wir total vergessen.  Die Kernspintomographie – auch MRT genannt – trägt übrigens nichts zur Dosis bei, trotz des gefährlichen Namens. Das war mal eine vernünftige Erfindung der alten weißen Männer.

Und noch eine gute Nachricht: Strahlungen von Mikrowelle, TV oder Smartphone ionisieren nicht. Sie sind harmlos. Und auch das KKW nebenan liefert uns keine Dosis.

 

Die Welt, in der wir leben

Das also ist die Welt, in der wir leben:

Einerseits ist da die konstante, natürliche Radioaktivität im Hintergrund und andererseits gibt es lokale Quellen menschengemachter Strahlung, welcher die meisten von uns nur beim „Röntgen“ ausgesetzt sind.

Einerseits quillt da seit Äonen kontinuierlich das radioaktive Radon aus der Erde, andererseits wird behauptet, man könne Kindern und Kindeskindern keinen Planeten hinterlassen, wo in alten Salzstöcken radioaktiver Müll vergraben ist. Hallo, aufwachen! Man müsste unendlich viele Endlager mit radioaktivem Abfall füllen, wollte man dem natürlichen Radon Konkurrenz machen!

Kernkraft ist sicher und es ist die umweltfreundlichste Form der Stromerzeugung. Es gibt derzeit weltweit 440 KKWs, die Elektrizität ins Netz speisen, 55 weitere sind im Bau, 329 sind geplant. Es sieht nicht so aus, als hätte Deutschlands Kindergarten-Motto „Einer muss ja mal anfangen“ den Rest der Welt vom Atomausstieg überzeugt.

Es lohnt sich durch diese Liste zu scrollen; Sie werden sich vorkommen, wie einer der Insassen, die durch das vergitterte Fenster der Anstalt schauen und die sich gegenseitig bestätigen, dass da draußen alle verrückt sind.

Die Gefahr geht nicht vom Atom aus, sondern von einer Ideologie, die sich jeglicher Logik verschließt. Diese Ideologie beschallt uns mit dem idiotischen Schlachtruf „Jedes Becquerel mehr ist eine Becquerel zu viel“. Tatsächlich? In Oberbayern haben Sie ein paar Tausend Becquerel mehr als an der Nordsee. Warum hat man Tegernsee nicht längst evakuiert und die Bewohner in Bremen untergebracht?

 

Ideologie statt Logik

In was für eine Lage ist das Land manövriert worden! Die Tragödie ist nicht, dass es Aktivisten gibt, die mit griffigen Sprüchen die Bevölkerung ködern. Die Tragödie ist, dass Wissenschaft und Industrie kampflos zusahen, als besagte Aktivisten die totale ideologische Lufthoheit über Deutschland eroberten, und dass in der Folge dieses ideologischen Sieges das Land seither von einer Politik beherrscht wird, welche ihre Bürger mit Sprache und Logik auf Kindergarten-Niveau ruhig stellt, um im Hintergrund Entscheidungen zu treffen, die dem Land und damit allen Bürgern, großen Schaden zufügen.

Am 14. Mai 2020 wurden die Kühltürme des Atomkraftwerks Philippsburg gesprengt . In Sekunden waren damit die Quelle eines Drittels des Baden-Württembergischen Strombedarfs für immer zerstört und industrielle Werte in Milliardenhöhe vernichtet.Und so manch einer, der die Rechnung durch überhöhte Strompreise und extreme Steuern demnächst bezahlen muss, hat dabei laut oder im Stillen gejubelt.

Dieser Artikel erschien zuerst bei www.think-again.orgund im Buch „Grün und Dumm“




Klima: Die gekaufte Rebellion

Vom Milliardär oder Finanzdienstleister bis zum Internationalsozialisten, selbsternannten „Weltverbesserer“, Neue-Weltordnungs-Propagandist oder aufgehetzten „Rebell“ – eine unheilvolle Allianz hat zusammengefunden.

Immer deutlicher tritt bei den Klima-Protesten der Wunsch nach notfalls auch gewaltsamer Überwindung der marktwirtschaftlichen Ordnung und des Systems im allgemeinen hervor. Dabei sind es ausgerechnet „Erzkapitalisten“ aus der Finanzindustrie und Multi-Milliardäre, die die Klimabewegungen organisatorisch und finanziell unterstützen. Siehe zum Beispiel Gretas Milliardäre, die Extinction Rebellion mitfinanzieren.

Zu diesem Umfeld gehören auch die privaten Organisationen Climate Bonds Initiative und Climate Policy Initiative, die im Hintergrund wirken und die Grundlagen für den aktuellen Klima-Hype mitgeschaffen haben. Über sie sowie den zwischenstaatlichen Green Climate Fund soll nachfolgend berichtet werden.

Vermutlich interessiert es die Mitläufer bei den Klima-Protesten wenig, welche Interessen hinter dem Klima-Hype stehen, der langfristig vorbereitet und kurzfristig entfacht worden ist, und für wen sie auf die Straße gehen. Doch auch diejenigen, die da nicht mitmachen, aber dafür bitter werden bezahlen müssen (nicht nur finanziell), sind im allgemeinen nicht informiert. Denn die Rolle solcher Organisationen wird in der Presse kaum thematisiert.

Dazu passend eine Zwischenbemerkung aus aktuellem Anlass zu Extinction Rebellion (XR): Der Großteil der 2019 bisher an XR gezahlten Gelder stammt vom Milliardärs-Club Climate Emergency Fund, von der Stiftung des englischen Hedgefonds The Childrens Investment Fund und dessen Gründer Christopher Hohn sowie von der Band Radiohead, deren Frontmann Thom Yorke zwar kein Milliardär ist, aber ein geschätztes Vermögen von immerhin 215 Millionen Pfund besitzt (siehe XR-Spenderliste). Davon finanziert XR unter anderem ein Heer von Mitarbeitern. Laut dieser XR-Grafik sind für diese von März bis September 2019 Kosten von 355.000 Pfund als „volunteer living expenses“ angefallen und laut XR-Empfängerlisten244.000 Pfund ausbezahlt worden, natürlich ohne Lohnsteuern und Sozialversicherungsabgaben abzuführen (das müssen dagegen die Müllmänner und Putzfrauen machen, die nach Protestaktionen sauber machen).

1) Climate Bonds Initiative – 10 Billionen Dollar Klima-Anleihen

Nicht um solche Peanuts geht es bei der Climate Bonds Initiative. 10.000 Milliarden Dollar (= 10 Billionen bzw. im englischen Text 10 Trillions) – das ist das Volumen, das die Climate Bonds Initiative allein an Anleihe-Kapital für Klima-Investments innerhalb von zehn Jahren ab 2020 mobilisieren will. Sie denkt damit deutlich großzügiger als das Klimakabinett der deutschen Bundesregierung mit seinem Klimapaket von etwa 50 Milliarden Euro.

Ins Leben gerufen wurde die Climate Bonds Initiative bereits im Dezember 2009 auf der Klima-Konferenz in Kopenhagen. Finanziers sind unter anderem die Rockefeller Foundation (Stichwort: Club of Rome), die Bank of America, die Bloomberg Philantropies Foundation und die Moore Foundation des Intel-Mitbegründers.

Die Initiative richtet sich an Finanzinvestoren und Kapitalanleger und propagiert umfangreiche Investitionen in eine kohlenstoffarme Wirtschaft. Das (behauptete) Ziel: die Erderwärmung auf 2 Grad Celsius zu begrenzen. Konkret geht es dabei um Klima-Anleihen, also festverzinsliche Wertpapiere, deren Ausgabe es sowohl Regierungen als auch dem Privatsektor ermöglichen soll, Investitionen in Klimaschutz, erneuerbare Energieerzeugung, Energieeffizienz und Infrastrukturanpassungen zu tätigen.

Angemessene und sichere Renditen verspricht sich die Initiative von diesen Klima-Anleihen, die attraktiver sein sollen als normale Anleihen. Die besondere Attraktivität wird wodurch erreicht? – durch staatliche Garantien und politische Risikoversicherungen für diese Anleihen. Diese seien – so die Initiative in ihrem 10-Punkte-Papier – aufgrund der Neuartigkeit und des großen Umfangs der erforderlichen Anleihe-Emissionen unerlässlich. Im Klartext: Da aufgrund des wirtschaftlichen Risikos die Bereitschaft gering wäre, direkt in Klimaschutz-Projekte bzw. in solche Projekte betreibende Unternehmen zu investieren, soll der Staat Rückzahlung und Rendite garantieren. Gleichsam die Neuauflage des Prinzips „Gewinne privatisieren – Risiken/Verluste sozialisieren“.

Gewinne privatisieren – Risiken sozialisieren

Wie die Partnerliste der Initiative zeigt, will (fast) jeder dabei sein beim großen Geldverdienen mit staatlicher Bevorzugung. Circa 100 (Investment)banken, Investmentfondsanbieter und Vermögensverwaltungsinstitute sind als Partner gelistet, unter anderem Allianz und BlackRock, Deka (Sparkasse) und Goldman Sachs, Deutsche Börseund Barclays. Aber auch einige Sonstige wie das französische Umweltministerium und die Schweizer Eidgenossenschaft sind aufgeführt.

Die Lobbyarbeit der Climate Bonds Initiative beginnt sich auszuzahlen. Vor allem auch in Deutschland. Ganz im Sinne der Initiative und der verpartnerten Finanzindustrie fordern die eher antikapitalistisch ausgerichteten deutschen Umweltverbände (Greenpeace, BUND, Naturschutzbund, Deutsche Umwelthilfe und einige anderen) in einem gemeinsamen Papier unter anderem staatliche Klima-Fonds mit Kreditermächtigung und öffentliche „grüne“ Schatzbriefe. Auch der jüngste Vorschlag der CSU, eine staatliche Klima-Anleihe mit 2 % Verzinsung auszugeben, geht in diese Richtung. Sicher ist der CSU-Vorschlag noch nicht im Sinne der Finanzindustrie, da nur für Kleinanleger vorgesehen. Aber da die Rettung vor dem drohenden Weltuntergang naturgemäß weit größere Investitionen erfordert als ein solcher Fonds für Kleinanleger aufzubringen vermag, sind entsprechende Fonds auch für institutionelle Finanzinvestoren nur eine Frage der Zeit.

2) Climate Policy Initiative – der politische Überbau

Etwa zwei Monate vor Gründung der Climate Bonds Initiative entstand im Oktober 2009 – auch in Kopenhagen – eine weitere Initiative, die Climate Policy Initiative. Ihr Gründer: der Multimilliardär George Soros. Er stattete die Initiative mit 100 Millionen Dollar Startkapital aus. Zugleich kündigte er an, eine Milliarde Dollar in „grüne“ Energien zu investieren, und machte sich für eine CO2-Steuer stark (siehe hier).

Die Climate Policy Initiative ist gewissermaßen die politische Schwester der Climate Bonds Initiative und sozusagen für den ideologischen Überbau zuständig. Ihr Zweck ist es, die Wirksamkeit von Energie- und Klimaschutzvorschriften zu beurteilen und zu untersuchen, wie diese Vorschriften die Finanzströme und das Klima-Investitionskapital beeinflussen. Die Initiative will diese Erkenntnisse nutzen, um Regierungen, Unternehmen und Finanzinstitute bei der Umgestaltung der Wirtschaft hin zu einer klimaneutralen zu unterstützen.

Eine der ersten Amtshandlungen der neuen Initiative, nur einen Monat nach Gründung, war die Eröffnung eines Klimaforschungszentrums in dem Land, das als Paradies für Klima-Hysteriker und -Gewinnler gelten kann. In Deutschland wurde das neue Zentrum angesiedelt, und zwar beim (zu 2/3 staatsfinanzierten) Deutschen Institut für Wirtschaftsforschung (DIW). 2011 setzte das DIW dessen Tätigkeit in Eigenregie fort und übernahm den Zentrumsleiter, der seitdem beim DIW der Abteilung für Klimapolitik vorsteht. Nicht überraschend also, dass das DIW seither für eine CO2-Steuer wirbt und kürzlich im Auftrag des Bundesumweltministeriums ein Gutachten erstellte, das die Einführung einer solchen Steuer als notwendige, wenn auch allein nicht ausreichende Maßnahme im Kampf gegen den Klimawandel befürwortete.

Auch die Climate Policy Initiative hat zahlreiche Finanziers und Partner. Zu den Finanziers gehören unter anderem wieder die Rockefeller Foundation und die Bloomberg Stiftung sowie diverse weitere Milliardärsstiftungen, aber auch das Bundesumweltministerium. Partner sind wiederum zahlreiche Finanzinstitute wie beispielsweise die Allianz, Deutsche Bank, BlackRock und die Weltbank.

Climate Bonds Initiative und Climate Policy Initiative – unter der Wahrnehmbarkeitsschwelle

Die Liste der Finanziers und Partner beider Initiativen deutet es an: sie sind Non-Profit-Organisationen, die der Allgemeinheit verpflichtet sind (Ironie off). Mit engen Verbindungen auch zur EU. In deren Auftrag erstellten die beiden Initiativen 2016 einen Strategie-Leitfaden für politische Entscheidungsträger von Städten in Entwicklungsländern. Er soll den dortigen Politikern helfen, Zugang zum Markt für sogenannte grüne Anleihen zu erhalten und diesen als Finanzierungsquelle für kohlenstoffarme Infrastrukturen zu erschließen. Auftraggeber war die Climate-KIC des EIT (zugleich einer der Finanziers der Climate Bonds Initiative). [Anmerkung: Das EIT (Europäische Innovations- und Technologieinstitut) ist eine Einrichtung der EU, die europaweite Partnerschaften zwischen führenden Unternehmen, Bildungs- und Forschungseinrichtungen und sogenannten Nichtregierungsorganisationen unterstützt. Climate-KIC (Klima-Wissens- und Innovationsgemeinschaft) ist die größte öffentlich-private-Partnerschaft der EU zur Bekämpfung des Klimawandels mit mehr als 370 Universitäten, Unternehmen und Städten als Partnern (siehe hier).]

Bemerkenswert ist, dass trotz (oder wegen?) der Bedeutung beider Organisationen und ihrer Verflechtungen mit Finanzindustrie und Regierungsinstitutionen keine Presseberichte über sie auffindbar sind, weder in der deutschen noch internationalen Presse. In Wikipedia gibt es für die Climate Bonds Initiative gar keinen Eintrag, auch keinen englischsprachigen, für die Climate Policy Initiative nur einen äußerst mickrigen. Die beiden Organisationen agieren quasi unter der öffentlichen Wahrnehmbarkeitsschwelle.

3) Green Climate Fund – multilaterales Umverteilungsinstrument

Der Green Climate Fund ist keine private Organisation, sondern eine zwischenstaatliche Einrichtung der Klimarahmenkonferenz der Vereinten Nationen (UNFCCC). Er wurde 2010 wurde gegründet, nachdem er auf der Kopenhagener Klimakonferenz 2009 angekündigt worden war. Auf ihr hatten sich die Industriestaaten verpflichtet, ab 2020 jährlich 100 Milliarden Dollar (mit Erhöhung ab 2025) für Maßnahmen zur Emissionsminderung und zur Anpassung an den Klimawandel in den Entwicklungsländern bereitzustellen.

Der Green Climate Fund dient der Umsetzung dieses 100 Milliarden-Ziels mittels Vergabe von Krediten und Zuschüssen für entsprechende Projekte. Er ist von der Bundesregierung als das zentrale multilaterale Instrument der internationalen Klimafinanzierung bezeichnet. Man kann ihn also als Einstieg in eine weltweite Umverteilung von Steuermitteln unter UN-Hoheit interpretieren.

Geplant wurde der Klima-Fonds von einem 20köpfigen Beratergremium, das beim UNO-Generalsekretär angesiedelt war. Zu dem Gremium gehörten ein UN-Vertreter, 13 hochrangige Staatsvertreter (zumeist Minister, Präsidenten), der von US-Präsident Obama berufene Direktor des National Economic Council, ein Vertreter der Weltbank, der Klimaalarmist Nicholas Stern (Stern-Report), ein Vertreter der Afrikanischen Entwicklungsbank, ein Vertreter der Deutschen Bank namens Caio Koch-Weser (der zuvor von 1999 bis 2005 Finanzstaatssekretär der deutschen Bundesregierung war) und ein Vertreter von was auch immer namens George Soros.

In seinem Abschlußbericht forderte das Beratergremium eine grundlegende Änderung der Weltwirtschaft und schlägt zur Erreichung des 100 Milliarden-Ziels folgende Maßnahmen vor:

1. Steuern (auf CO2), 2. Steuern (auf Finanztransaktionen), 3. Steuern (auf internationale Luft- und Schifffahrt), 4. Steuern (auf Stromerzeugung – wire tax for producing electricity), 5. Subventionen für erneuerbare Energien.

Allerdings läuft es mit dem Klima-Fonds nicht so rund wie geplant. Das 100 Milliarden-Ziel scheint in weiter Ferne. Es gibt Unstimmigkeiten unter den Staaten, was auch zu Rücktritten in der Fondsleitung geführt hat. Für die Anlaufphase des Fonds ab 2014 wurden von den Staaten 10,3 Milliarden Dollar zugesagt, die allermeisten haben ihre Zusage auch eingehalten, die USA haben aber statt drei nur eine Milliarde eingezahlt (siehe hier). Die weitere Finanzierung ist noch ungeklärt.

Für Projekte wurden bislang „nur“ 4,6 Milliarden Dollar bewilligt (siehe hier), mit den übrigen Milliarden haben sich also offenbar auch etliche andere als die Projektbeteiligten eine goldene Nase verdient.

Während Deutschland zu den fünf größten Einzahlern gehört und auch bei der aktuell laufenden Wiederauffüllungsrunde ganz vorne mit dabei ist, greifen auch China und das Öl-Emirat Bahrain Gelder aus dem Fonds ab (siehe hier). Einer der ersten Profiteure der Finanzindustrie war übrigens die Deutsche Bank, die vom Green Climate Fonds das Startkapital für einen Afrika-Fonds mit einem Volumen bis zu 3,5 Milliarden Dollar erhielt (siehe hier).

Klimaschutz ist nur der Aufhänger für die nützlichen Idioten

Was sich auch an den in diesem Artikel beschriebenen Organisationen zeigt: Klimaschutz ist ein langfristiges Elitenprojekt, das der Durchsetzung weitergehender Macht- und Profitinteressen dient. Gegen Geschäftemacherei wäre dabei noch am wenigsten einzuwenden, würde sie nicht unter unzulässiger Einflussnahme auf die Politik und Ausschaltung marktwirtschaftlicher Prinzipien betrieben. Doch es geht um mehr, weniger allerdings ums Klima.

Stuart Basden, Mitbegründer von Extinction Rebellion (XR), formuliert es so (siehe hier): „XR isn’t about the Climate.” XR sei keine Klimabewegung, sondern eine Rebellion gegen ein toxisches System von Wahnvorstellungen, das die Euro-Amerikaner über die ganze Welt verbreitet hätten.

Etwas „geschmeidiger“ beschrieb die damalige UNFCCC-Generalsekretärin Christiana Figueres [übrigens Tochter eines reichen Kaffeepflanzers und mehrfachen Präsidenten von Costa Rica und Schwester eines weiteren Präsidenten sowie Mitglied des Economic Council der Rockefeller Foundation] das Ziel auf einer Pressekonferenz 2015: „Dies ist das erste Mal in der Geschichte der Menschheit, dass wir es uns absichtlich zur Aufgabe gemacht haben, innerhalb einer festgelegten Zeitspanne das seit der industriellen Revolution für mindestens 150 Jahre vorherrschende Leitbild zur wirtschaftlichen Entwicklung zu ändern.“ Und schon 2010 sagte Ottmar Edenhofer, der Leiter des Potsdam Institut für Klimafolgenforschung (PIK) in einem Interview: „Man muss sich von der Illusion freimachen, internationale Klimapolitik sei Umweltpolitik. Wir verteilen durch die Klimapolitik das Weltvermögen um.“

„Wir“ – das sind nicht die Bürger. Das sind Akteure mit zutiefst antiliberalen und antidemokratischen Vorstellungen, die sich anmaßen zu erklären, was für die Menschheit gut sei. Die ihre Finanz- und vor allem Machtinteressen von oben nach unten durchdrücken wollen. Wozu eines weltweiten Anliegens bedarf, so stumpfsinnig es auch sein mag – des Klimaschutzes. Er ist der Aufhänger für die nützlichen Idioten auf den Straßen und in den Medien.

Kriegswirtschaft mit massiven Eingriffen ab 2020

Und die liefern wie gewünscht und verhelfen der zuvor nur mäßig beachteten Endzeit-Klimapanik zum Durchbruch. Ab 2020 sei Klimaschutz, wenn er bis dahin vertagt werde, nur noch „im Rahmen einer Kriegswirtschaft [!] zu leisten mit massiven staatlichen Eingriffen“, sagte bereits 2009 Hans Joachim Schellnhuber, der langjährige Leiter des PIK und Berater der Bundesregierung (siehe hier). Und 2017 schrieben derselbe und Frau Figueres in einem Artikel, es blieben nur noch drei (!) Jahre für die Klimarettung, die Welt brauche Hochgeschwindigkeitshandeln; technologisch und politisch sei der Punkt erreicht, der den Beginn der Großen Transformation ermögliche, 2020 sei auch deshalb wichtig, weil dann die USA aus dem Pariser Klimaabkommen von 2015 rechtlich aussteigen können. Angesichts dieser Interessenlage auch in zeitlicher Hinsicht erscheint der gegenwärtige Klima-Alarmismus gar nicht mehr so überraschend (und die Ablenkung von wichtigen Themen wie der Zuwanderung eher als ein sehr willkommenes Nebenprodukt).

Ob nun Milliardär, Finanzdienstleister, Internationalsozialist, selbsternannter „Weltverbesserer“, Neue-Weltordnungs-Propagandist oder aufgehetzter „Rebell“ – gemeinsam scheint dieser Allianz das Agieren zu Lasten des von ihnen verachteten (Normal-)Bürgers zu sein. Dieser soll den Klimarettungs-Größenwahn bezahlen und seinen Lebensstandard einschränken, er soll sein Verhalten ändern und die Beschneidung seiner Freiheit durch Vorschriften aller Art und erforderlichenfalls gar eine Klima-Kriegswirtschaft hinnehmen.

Der Beitrag erschien am 24. Oktober 2019 zuerst bei TE hier




Propagandisten oder Journalisten – 4 Interviewer zu Gast bei EIKE VP Michael Limburg

Der Vizepräsident von EIKE, Michael Limburg, im Interview mit EIKE-Journalist AR Göhring über die Praktiken von TV Journalisten bei Intervieanfragen und Interviews sowie deren Auswertung.

Verwendet wurden folgende Interviews vor Ort:

für rbb Kontraste, Pohl am 29.11.2017

NDR („Lügenmacher“ von Svea Eckert ) am 9. Mai 2018, gesendet am 23.7.2018

ORF („Gretas Feinde“) 26.9.2019, gesendet am 7.11.2019 („Dok1“)

SpiegelTV (von Adrian Altmayer) 18.2.2020, gesendet 4.3.2020

Der Zusammenschnitt ab 4:05 des Interviews im November 2017 von Markus Pohl wurde von EIKE-Gründungsmitglied R. Hoffmann in Abstimmung mit Herrn Limburg erstellt. Der Kanal FMD hatte damals den Zusammenschnitt schon auf Youtube veröffentlicht.

 

Ob die zitierten Journalisten die Standards ihres Berufes selbst einhielten, beurteilen Sie bitte selbst.

Aus den SPIEGEL Standards

„Die Geschichte muss stimmen. Verantwortlich dafür ist die Redaktion. Stimmen heißt nicht nur, dass die Fakten richtig sind, dass es die Personen gibt, dass die Orte authentisch sind. Stimmen heißt, dass der Text in seiner Dramaturgie und seinem Ablauf die Wirklichkeit wiedergibt. Folgt die Recherche einer These, ist nicht nur nach Belegen für, sondern auch nach Belegen gegen diese These zu suchen. Jede Recherche erfolgt ergebnisoffen.“

Der (verstorbene) Journalistenlegende und Tagesschau Moderator  H.J. Friedrich mahnte seine Kollegen  folgendes immer zu beachten.  Zitat (von H.J. Friedrich von einem UK Kollegen übernommen):

„Ein Journalist mache sich mit keiner Sache gemein, auch nicht mit einer guten“

Richard Horton, editor-in-chief of The Lancet, has stated that

peer review to the public is portrayed as a quasisacred process that helps to make science our most objective truth teller, but we know that the system of peer review is biased, unjust, unaccountable, incomplete, easily fixed, often insulting, usually ignorant, occasionally foolish, and frequently wrong’. Year 2000

Mehr Details; Journal Development

von Ashok Yakkaldevi hier

Nach der Ausstrahlung des (unfreiwillig auf die Macher zutreffenden) Titels „Die Lügenmacher“, erlaubte sich Herr Limburg, Frau Svea Eckert die untenstehende Mail (vom 23.7.18) zu schicken.

Liebe Frau Eckert,

danke für diese tolle Reklame (http://www.daserste.de/information/reportage-dokumentation/dokus/videos/exclusiv-im-ersten-fake-science-die-luegenmacher-video-102.html) , auch wenn Ihre Absichten dahinter eher schändlich sind.
Etwas anderes – z.B. eine faire Beschäftigung mit der Sache- hatte ich eigentlich auch nicht erwartet.
Ich habe mir daher erlaubt sie hier etwas „einzuordnen“
Ihre Motive, die EIKE Leute und die AfD mit in diese Lügengeschichten einzubinden und damit auf sie abzufärben, bleiben mir ein Rätsel. Von der Sache haben Sie und Ihre Kollegen zwar keine Ahnung, aber von Propaganda hingegen viel. Sie befolgen die alte politisch publizistische Weisheit: Werfe mit Dreck, es wird immer etwas hängen bleiben.
Anders kann ich Ihre Arbeitsweise nicht beschreiben. Sie erweisen Ihrer Zunft damit einen Bärendienst. Das ist die eine gute Nachricht, die andere: Es nützt in jedem Fall unserem Anliegen.
Ich verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
http://www.eike-klima-energie.eu/



Bericht zur Coronalage 28.05.2020

Im aktuellen Epidemiologischen Bulletin des Robert-Koch-Instituts vom 20.5.2020 findet sich auf Seite 7 eine Tabelle  (Tabelle 1/ Anzahl der SARS-CoV-2-Testungen in Deutschland / 19.5.2020, 12.00 Uhr / runterscrollen). Hier kann man von der 11. bis zur 20. Kalenderwoche die Zahl der Testungen und den Anteil der positiven Ergebnisse ablesen. In der Kalenderwoche 14 beispielsweise wurden 408.348 Tests auf Sars-CoV-2 durchgeführt, davon positiv 36.885, das entspricht 9 Prozent als bisher höchster Prozentwert. Danach sind die Werte abfallend bis zur 20. Kalenderwoche (11.–17. Mai) mit 425.842 Tests und einem Anteil positiver Ergebnisse von 7.060. Das entspricht 1,7 Prozent.

Bevor wir diese 1,7 Prozent bewerten, schauen wir dazu eine Veröffentlichung der Deutschen Akkreditierungsstelle GmbH (DAkkS) an, die laut Wikipedia eine privatwirtschaftliche Organisation ist, die die Funktion der nationalen Akkreditierungsstelle der Bundesrepublik Deutschland wahrnimmt. Diese Veröffentlichung beinhaltet die Ergebnisse eines Ringversuchs zum Corona PCR-Test (Polymerase-Kettenreaktion). Dazu hat die DAkkS die Gesellschaft zur Förderung der Qualitätssicherung in medizinischen Laboratorien e.V. (INSTAND) beauftragt. Sie testete neben echten SARS-Cov-2 Proben in verschiedenen Verdünnungen auch Proben von zwei harmlosen Corona-Viren und Placebo-Proben in Laboren.

Die Veröffentlichung stammt vom 2.5.2020. Darin lesen wir tabellarisch auf den Seiten 12–13 (Sie müssen dazu die hohe Prozentzahl der negativ getesteten Proben (richtig-negativ) von 100 Prozent abziehen)

  • Probe 340062: falsch-positiv Raten von 1,4% bei Vorliegen keines Virus – S. 12
  • Probe 340060 HCoV OC43: falsch-positiv Raten von 2,2 % (harmloser Erkältung-Corona-Virus) – S. 12
  • Probe 340065 HCoV 229E:  falsch-positiv Raten von 7,6% bei Vorliegen (harmloser Erkältung-Corona-Virus) – S. 13

Das bedeutet, 1,4 Prozent der SARS-CoV-2 Tests schlagen positiv an, obwohl die Probe gar kein Virus enthält. 9,8 Prozent bei Vorliegen eines von zwei anderen, harmloseren Coronavirus-Varianten (wie viele andere, eher harmlose Coronaviren es gibt, die ebenfalls falsch positiv anschlagen könnten, ist mir nicht bekannt). Die unterschiedlichen Tests verschiedener Hersteller messen dabei unterschiedlich genau. Die Autoren gehen auch davon aus, dass die hohen falsch positiven Ergebnisse aufgrund der zwei harmloseren Coronoviren auch aufgrund von Verwechslungen zustande kamen. Wie auch immer, es sind Ergebnisse meist universitärer Labore und dürften die Realität hinter den Zahlen des RKI bzgl. positiver Testergebnisse darstellen.

Nehmen wir nun die 1,7 Prozent positiver Testergebnisse aus der Kalenderwoche 20. Das Problem ist die niedrige Zahl, denn von diesen 1,7 Prozent müssen nach dem obigen INSTAND Ringversuch 1,4 Prozent abgezogen werden, denn jede Probe ohne SARS-CoV-2 springt zu 1,4 Prozent falsch positiv an. In dem Artikel des Robert-Koch-Institutes (RKI) ist dazu kein Hinweis zu finden. Nun sind 1,4 falsch positive „Placebo“ Ergebnisse für einen solchen Virustest gar nicht schlecht und spielten auch kaum eine Rolle, wäre der Anteil der positiven Tests in der Größenordnung von 20 oder 30 Prozent. Aber bei lediglich 1,7 Prozent haben 1,4 Prozent falsch positive Fälle eine große Relevanz.

Bleiben demnach 0,3 Prozent übrig, die nicht nur Luft gemessen haben. Wenn man nun die mindestens 9,8 Prozent falsch positiven Ergebnisse bei anderen harmlosen Coronaviren mit oder ohne Vorhandensein von SARS-CoV-2 berücksichtigt, ob vertauscht oder nicht, dann erscheint es plausibel, dass überhaupt keine Infektion mit SARS-CoV-2 mehr gemessen wurde. Auch die 9 Prozent in der Kalenderwoche 14, der höchste Anteil an positiver Testergebnissen, relativiert sich dadurch, ganz zu schweigen davon, was diese geringen Zahlen für die solide Berechnung eines R-Wertes bedeuten.

Die Infektionswelle ist vorbei – schon lange

In diesem Zusammenhang darf ich auf meinen Bericht zur Coronalage vom 22.4.2020 verweisen. Dort ging es um die Studie von Professor Yitzhak Ben-Israel von der Universität Tel Aviv. Er hat sich den Verlauf der gemeldeten Covid-19-Fälle in verschiedenen Ländern vorgenommen. Er konnte zeigen, dass die Erkrankungszahl in jedem Land stark bis zum 40. Tag ansteigt, um dann steil abzufallen. Nach 8 Wochen ist sie dann am Abklingen, völlig unabhängig von den getroffenen Schutzmaßnahmen. Das entspricht auch den vorliegenden Untersuchungen der ETH Zürich, von JP Morgan und sogar des RKI selbst, die genau zeigen, dass die Infektion in Europa ab der 3. Märzwoche am Abklingen ist, also vor dem Lockdown (Epidemiologisches Bulletin 16. am 16. April 2020)

Gerade die neusten Zahlen bestätigen ziemlich eindeutig die These, dass wir es auch in diesem Jahr mit einer Winterepidemie zu tun hatten, die im April ausläuft. In einigen Ländern hat sie mehr Opfer gefordert als die Influenza 2018 und in anderen weniger, wie in Deutschland. So wie es auch 2018 Länder gab mit besonders vielen Opfern wie seinerzeit in Deutschland oder weniger in anderen.

Die Spekulation auf eine zweite Welle halte ich wie schon bei der Schweinegrippe eindeutig für hysterisch oder rein ökonomisch oder politisch motiviert.

Denn ob das Virus inzwischen zu einer ungefährlicheren Variante mutiert ist, ob es aufgrund höherer Temperaturen verschwindet oder ob die Gesellschaft sich durchseucht hat und die Länder mit strenger Quarantäne noch etwas länger dafür brauchen, das alles wird in der Gesamtstatistik kaum merkbar ins Gewicht fallen.

Auch die oben zitierten Daten von JP Morgan konnten keine Hinweise auf eine nennenswerte zweite Welle in den bereits geöffneten asiatischen Ländern finden.

Den in seiner Intention leicht durchschaubaren und damit peinlichen Versuch des statistischen Bundesamtes, eine deutsche Übersterblichkeit in den Coronamonaten zu konstruieren, haben schon Ansgar Neuhof und Professor Walter Krämer an dieser Stelle richtiggestellt. Wer die Sterbedaten solide bewertet, kann keine deutsche Übersterblichkeit im Frühjahr feststellen. Ob dies die Kollateralschäden der Schutzmaßnahmen bewirken, werden wir im Laufe des Jahres feststellen können.

Auch in Gesamteuropa wird es keine im Vergleich zu 2018 bedeutende Übersterblichkeit im Frühjahr geben, wenn überhaupt. Meist werden als Beleg für eine europäische Übersterblichkeit die Zahlen von Euromomo genutzt. Doch sollte man nicht nur auf die Höhe des Ausschlages 2020 achten, sondern auch auf die Breite, also den zeitlichen Verlauf. Die Phase der Übersterblichkeit im Frühjahr 2018 dauert doppelt so lange wie 2020.

Doch ganz egal, ob man auf Deutschland, die USA oder das Land mit den prozentual höchsten Totenzahlen, Belgien, schaut, am Ende des Jahres werden in keinem Land die Covid-19 zugerechneten Toten einen vorderen Rang in der Todesursachenstatistik einnehmen. Diese Gefahr bestand zu keinem Zeitpunkt.

Patienten mitten hinein in die Risikogruppen verlegt

Es wird in Zukunft unzählige Studien geben, die versuchen, die 2020er Infektionswelle genauer zu erforschen und auch Gründe für die Unterschiede in einzelnen Regionen zu finden. Zum Beispiel spielte sicher die niedrige Zahl der Krankenhausbetten pro Kopf eine Rolle, weil dies manche Politiker im Panikmodus zu fatalen Entscheidungen nötigte. So wurden offensichtlich in der Lombardei und in New York, um die Krankenhäuser zu entlasten, gerade aus der Intensivabteilung entlassene und damit noch infektiöse Patienten in Altenpflegeheime verlegt – und damit mitten hinein in die Risikogruppen. Kein Wunder, dass in diesen Regionen massenweise Heimbewohner starben. In Venetien hat man dies anscheinend vermieden und verzeichnete auch deshalb weit weniger Todesopfer.

Ob nun wirklich das SARS-CoV-2 Virus für die zahlreichen Covid-Todesopfer verantwortlich ist, ob dabei Vorerkrankungen, Viruspneumonien, Thrombosen oder die vielen tragisch unnötigen Intubationen eine Hauptrolle spielen oder vielleicht doch bisher nicht erkannte Influenzaviren, hier werden zukünftige Untersuchungen sicher Licht ins Dunkel bringen. Auch bei den Folgeschäden wird man differenzieren müssen. Einige Zeitungen berichten derzeit über Corona-Folgeschäden und fokussieren dabei auf Schäden der Lunge insbesondere nach einer Überdruckbeatmung.

Was sie dabei außer Acht lassen ist, dass diese Folgeschäden mit der Covid-Erkrankung direkt nichts zu tun haben. Es ist die typische Nebenwirkung von Überdruckbeatmungen insbesondere bei Lungenentzündung. Und da dies bekanntlich leider oft völlig unnötig geschah, kann man diese Schäden nicht Corona zuordnen, sondern einer ärztlichen Fehlbehandlung. Interessant wird sein, ob es zu neurologischen Folgeschäden kommen wird, das werden die nächsten Monate erweisen.

Der globale Panikmodus

Bei einer Sache bin ich mir jedoch ebenso sicher wie der Nobelpreisträger Michael Levitt von der Stanford University: Der Lockdown war die grundfalsche Strategie. Er wird deutlich mehr Schaden anrichten, als es jemals im Potenzial von Covid lag. Zu keinem Zeitpunkt war es gerechtfertigt, von hunderttausenden oder Millionen Todesopfern in Deutschland zu sprechen. Jeder, der dies tat, muss sich unwissenschaftliche Panikmache vorwerfen lassen, mit deren Folge wir nun leben müssen.

Von Anfang an war stattdessen gut erkennbar, dass der professionelle Schutz der Risikogruppen am schonendsten und effektivsten gewesen wäre. Der Rest der Gesellschaft hätte sich ohne wesentliche Gefahr für die Allgemeinheit dann durchseuchen können.

Hätte man dies gemacht, wären sogar auch in Deutschland geringere Covid-Opferzahlen zu verzeichnen gewesen. Aber genau dieser professionelle Schutz, der zu einem Bruchteil der jetzigen Finanzhilfen sehr gut umsetzbar gewesen wäre, ist auch in Deutschland einfach nicht passiert. Nirgends in Europa oder Amerika, und wenn, dann viel zu spät und inkonsequent. Berichte aus Asien kenne ich dazu leider nicht. Falls Sie Personen kennen, die in Pflegeheimen arbeiten, fragen Sie sie einmal, was sie in den letzten Monaten so erlebt haben.

Zurück zu den Tests. Was wir derzeit messen, ist nichts anderes als das Grundschwirren eines jeden Virustests zu jeder Zeit. Und wenn es vereinzelt noch tatsächlich SARS-CoV-2 Ansteckungen gibt, ist dies epidemiologisch unbedeutend. Es sind maximal kleine Nachwehen mit Lockdown-Verzögerung, wenn überhaupt. Die Epidemie ist vorbei – schon lange. In diesem Zusammenhang bitte ich zu unterscheiden zwischen Logik und Verschwörungstheorien. Das eine bekämpft Inkompetenz, und das andere entsteht, wenn man zu faul ist, komplex zu denken.

 

Dr. med. Gunter Frank, geb. 1963 in Buchen im Odenwald, ist niedergelassener Allgemeinarzt in Heidelberg und Dozent an der Business School St. Gallen.

Einen Ausschnitt aus der bisherigen Corona-Berichterstattung von Achgut.com finden Sie in unsererer Corona-Chronik

Der Beitrag erschien zuerst bei ACHGUT hier