1

Covid-19 und die Illusion von der Wissensgesellschaft

Yogeshwar wollte damit wohl sagen, dass die Menschen, von wochenlanger Einschränkung ihrer Freiheitsrechte frustriert und ermüdet, es nun wieder vorzogen, sicheres wissenschaftliches Wissen zu verdrängen, um zum gewohnten Trott ihres Alltagslebens zurückkehren zu können und sich dabei wieder von ihrem eigenen Hausverstand leiten zu lassen. Wie Massendemonstrationen gegen die „Hygiene-Diktatur“ in etlichen deutschen Großstädten zeigen, entwickelte sich bei einem Teil der Bevölkerung Widerstandsgeist. Der Wissenschaftsjournalist sieht seine Aufgabe offenbar darin, das lesende und fernsehende Publikum wieder zum rechten Glauben an die Leistungsfähigkeit der wissenschaftlichen Methode zurückzuführen.

Hinter dieser Einschätzung versteckt sich meines Erachtens aber ein grundsätzlicher Irrtum, der auf der Verwechslung von wissenschaftlichem Wissen und szientistischer Ideologie beruht. Zwar glaubt heute kaum noch jemand, die wissenschaftliche Forschung könne durch zähe Anstrengung irgendwann zum gottgleichen Allwissen beziehungsweise ganzheitlichen Verständnis natürlicher und/oder gesellschaftlicher Prozesse gelangen. Doch vermuten wohl immer noch viel zu viele, man könne sich der Wahrheit zumindest bis auf 90 Prozent annähern. Oft fehlen uns für das umfassende Verständnis komplexer Sachverhalte aber über 90 Prozent der nötigen Informationen. Das gilt nach Aussage der darauf spezialisierten Biologen schon für einzellige Organismen und noch in weit größerem Maße für ganze Ökosysteme und für menschliche Individuen und ganze Gesellschaften. Dennoch trauen gerade Menschen mit formal höherer Bildung den zumeist staatlich besoldeten Wissenschaftlern zu, mithilfe deterministischer Computersimulationsmodelle, d.h. mit dem Durchrechnen von Differential- bzw. Differenzengleichungen die wesentlichen Ursachen der Entwicklung komplexer Systeme ausmachen zu können. Nur wer glaubt, bereits die wesentlichen Faktoren und Zusammenhänge verstanden zu haben, kann von Computersimulationen realistische Prognosen erwarten. Es handelt sich dabei aber, wie leicht gezeigt werden kann, um nichts anderes als um das, was Wirtschafts-Nobelpreisträger Friedrich A. Hayek „Anmaßung von Wissen“ genannt hat.

Ich hatte selbst in Sachen Modellierung ein Schlüsselerlebnis. Als ich vor Jahren beim deutschen Magazin „Bild der Wissenschaft“ einen Übersichtsartikel über das Pro und Contra von Tierversuchen  einreichte, wollte der zuständige Redakteur nicht verstehen, warum man Chemikalientests an Tieren nicht vollständig durch Tests an Zellkulturen und durch Computersimulationen ersetzen kann. Er ging offenbar davon aus, dass solche Modelle alle wesentlichen Zusammenhänge abbilden konnten. Um ihn vom Umfang unseres Nichtwissens zu überzeugen, argumentierte ich mit Karl R. Popper und anderen Wissenschaftsphilosophen. Danach können Forscher aufgrund von Beobachtung und Experiment nur zu mehr oder weniger vorläufigen Hypothesen, aber nicht zu definitiven Erklärungen von Naturzusammenhängen gelangen. Aber den Namen Popper hatte der junge Mann noch nie vernommen. Mein Artikel wurde schließlich zwar veröffentlicht, aber vom Cover genommen und ins Innere des Heftes verbannt, obwohl er vom Umfang her der Hauptartikel der Ausgabe war.

Die Anmaßung von Wissen in Form mathematischer Modelle zeigte sich bislang hauptsächlich in den vergleichsweise primitiven Computersimulationen auf malthusianistischer Grundlage, die der 1972 erschienen Studie „Die Grenzen des Wachstums“ zugrunde liegen, die vom „Club of Rome“ in Auftrag gegeben worden war. Danach sollte die Weltwirtschaft schon um die Jahrtausendwende wegen der Erschöpfung von Ressourcen zusammengebrochen sein. Die aktuelle Ölschwemme auf dem Weltmarkt zeigt, wie weit von der Realität diese Modelle entfernt waren. Weniger augenfällig ist das bei den scheinbar erheblich komplexeren Klimamodellen, mit denen die so genannte Klimapolitik zur Abwendung einer der Menschheit angeblich drohenden „Klimakatastrophe“ begründet wird. Das Vertrauen in diese Modelle ist inzwischen so groß, dass ihnen widersprechende Messdaten und Alltagserfahrungen bei maßgeblichen Massenmedien und den ihnen ausgelieferten Bevölkerungsteilen der selektiven Wahrnehmung zum Opfer fallen. Kaum jemand wagt es noch zu bezweifeln, dass die Freisetzung von Kohlenstoffdioxid durch menschliche Aktivitäten die Hauptursache der Erderwärmung ist. Dabei gibt es für die monokausale Argumentation und daher nur scheinbar komplexe Struktur dieser Modelle keine empirischen Belege. Das unrühmliche Ende des Biosphere-II-Experiments in Arizona (hier) hätte schon in den 1990er Jahren zeigen können, dass die Natur nicht so funktioniert, wie die Grünen sich das vorstellen. Doch wer sich heute die akademische Freiheit nimmt, die Erzählung vom schädlichen Einfluss der industriellen Revolution auf Umwelt und Klima durch Hinweis auf eigene Beobachtungen kritisch zu hinterfragen, der riskiert, wie das Beispiel der Auseinandersetzung des australischen Meeresforschers Peter Ridd zeigt, inzwischen seine berufliche Zukunft.

Nur auf dem Hintergrund der verbreiteten Modell-Gläubigkeit bei den Regierenden und den ihnen nahe stehenden Medien wird verständlich, wie es unter Hinweis auf „die“ Wissenschaft zur politischen Entscheidung kam, der Ausbreitung des neuen Virus SARS-CoV-2 mit der dümmsten aller denkbaren Strategien, nämlich dem kompletten Lockdown des Kultur- und Wirtschaftslebens zu begegnen, anstatt lediglich die an Covid-19 Erkrankten zu isolieren und empfindliche Bevölkerungsgruppen besonders zu schützen. Eine zentrale Rolle spielte dabei das epidemiologische Modell des Teams um Neil Ferguson vom renommierten Londoner Imperial College. Dieses prognostizierte im März 2020, die Covid-19-Epidemie würde in Großbritannien höchstwahrscheinlich eine halbe Million und in Amerika über zwei Millionen Todesopfer  fordern. Wörtlich schrieb die New York Times: „With ties to the World Health Organization and a team of 50 scientists, led by a prominent epidemiologist, Neil Ferguson, Imperial is treated as a sort of gold standard, its mathematical models feeding directly into government policies.“ Der britische Premierminister Boris Johnson revidierte daraufhin die von ihm ursprünglich favorisierte Option einer kontrollierten Durchseuchung der Bevölkerung zugunsten eines strengen Lockdowns nach chinesischem Vorbild – mit unabsehbaren wirtschaftlichen und sozialen Folgekosten. Die meisten anderen europäischen Regierungen, mit Ausnahme der schwedischen, taten es ihm gleich – soweit sie nicht ohnehin bereits von sich aus dem Beispiel der chinesischen Diktatur gefolgt waren.

Ausschlaggebend für die Angst erzeugenden Projektionen des Ferguson-Modells war die Annahme einer unrealistisch hohen Infektionsrate von 80 Prozent und dessen deterministische Struktur, die keinen Platz ließ für intelligente Anpassungsmaßnahmen der von der Epidemie bedrohten Menschen. Obendrein verwendete das Team von Neil Ferguson ein total veraltetes Computerprogramm.

Das hielt die „New York Times“ nicht davon ab, es zum „gold standard“ der epidemiologischen Modellierung zu erklären. Dabei hatte Ferguson bereits eine lange Liste von haarsträubenden Fehlprognosen auf seinem Register: Im Jahre 2001 wurden auf seinen Rat hin in England vorsorglich sechs Millionen Schafe gekeult, um die Ausbreitung der Maul- und Klauenseuche zu stoppen. Kostenpunkt: Sechs Milliarden Pfund Sterling. Ein Jahr später sagte Ferguson den Tod von 150.000 Personen durch BSE (Creutzfeldt-Jacob-Krankheit) voraus. Es starben aber in GB gerade einmal 177 Menschen daran. Im Jahre 2005 prognostizierte Ferguson sage und schreibe 200 Millionen Todesopfer durch die Vogelgrippe. Es starben aber weltweit nur 282 Personen. Und im Jahre 2009 sagte er den Tod von 65.000 Briten durch die Schweinegrippe voraus. Es starben nur 457 Personen. Am Ende verlor Ferguson seinen Job nicht wegen seiner betrügerischen Fehlprognosen, sondern weil er während der von ihm selbst propagierten Kontaktsperre mit seiner Geliebten, einer verheirateten Frau mit zwei Kindern, erwischt wurde.

Auf die herrschende szientistische Ideologie ist auch der bislang wohl größte Wissenschaftsskandal der herbeigeredeten Coronakrise zurückzuführen. Es handelt sich dabei um die offenbar orchestrierte Lobby-Kampagne großer Pharma-Konzerne gegen den Einsatz des seit über sieben Jahrzehnten bewährten und obendrein sehr preiswerten Anti-Malaria- und Anti-Rheuma-Mittels Chloroquin (CQ) beziehungsweise dessen verträglichere Abkömmlinge Hydroxychloroquin (HCQ) und Chloroquinphosphat in Kombination mit dem ebenfalls zum Klassiker gewordenen Antibiotikum Azithromycin (AZ). In Frankreich verordnete Prof. Didier Raoult seinen positiv auf Covid-19 getesteten Patienten im Marseiller Hospital „La Timone“ in der Anfangsphase der Krankheit diese beiden Medikamente. Er hat nie behauptet, dass diese für ganz andere Anwendungen gedachten Medikamente allein in der Lage sind, die bereits fortgeschrittene Erkrankung zu stoppen. Vielmehr sollten sie einer Verschlimmerung der Virusinfektion vorbeugen, gehören also eher in die Kategorie Prophylaxe. Er berief sich dabei auf die guten Erfahrungen seines chinesischen Kollegen Zhong Nanshan und auf den Hippokratischen Eid, der ihm gebiete, Patienten beim Fehlen einer anerkannten Therapie auch mit unkonventionellen Methoden zu helfen. Raoult konnte sich mit seinem empirischen, vom gesunden Menschenverstand geleiteten Vorgehen auf seine Jahrzehnte lange Erfahrung als Infektiologe und seine weltweite Anerkennung als führender Mikrobiologe (dessen Namen einige bekannte Krankheitserreger tragen) berufen, was sich nicht zuletzt im Science Citations-Index niederschlug. Die zunächst bei über 1.000  und schließlich bei fast 4.000 Patienten erzielten Resultate  gaben Didier Raoult am Ende recht. Kaum irgendwo starben so wenige Patienten an Covid-19 wie in Marseille (0,9 Prozent). Nur bei 25 Patienten (0,67 Prozent) wurde die befürchtete Herzrhythmus-Störung (Verlängerung des Q-T-Intervalls) festgestellt. Nur in drei Fällen führte diese zum Abbruch der Behandlung.

Doch damit fand er bei den Mandarinen des staatlichen französischen Gesundheitswesens keine Anerkennung. Im Gegenteil: Sie mokierten sich darüber, dass Raoult in Südfrankreich vom einfachen Volk inzwischen wie ein Messias verehrt wird, und warfen ihm vor, sein Vorgehen entspreche nicht dem „Gold Standard“ klinischer Studien. Als solcher gelten angeblich nur randomisierte Doppel-Blind-Studien, bei denen ein Teil der Probanden ohne ihr Wissen nur mit Placebos behandelt wird. Bei potenziell lebensbedrohenden Erkrankungen wie Covid-19 sei es aber ethisch nicht vertretbar, Patienten mit Placebos abzuspeisen, entgegnete Didier Raoult. Medizin erschöpft sich eben nicht in der Anwendung starrer von „der“ Wissenschaft abgeleiteter Regeln, sondern ist bekanntlich auch eine Kunst, die sich auf jahrzehntelange Erfahrung und Intuition stützt. Sie hat es also weniger mit Gewissheit, sondern mehr mit Wahrscheinlichkeiten zu tun. Didier Raoult kann sich damit immerhin auf Paul Feyerabends Polemik wider den Methodenzwang  berufen.

Diese vom gesunden Menschenverstand inspirierte Haltung stieß offenbar in der französischen Gesundheitsbürokratie auf Missfallen. Yves Lévy, der Mann der früheren Gesundheitsministerin Agnès Buzyn, versuchte als Direktor des nationalen medizinischen Forschungs-Netzwerks INSERM Didier Raoult und seinem Institut Hospitalier Universitaire (IHU) Méditerranée das Leben schwer zu machen, indem er es nicht anerkannte. Seine Frau ließ zu Beginn dieses Jahres HCQ als gefährliche Substanz und damit verschreibungspflichtig einstufen, nachdem das Medikament, trotz einiger problematischer Nebenwirkungen bei Herz-Patienten, vor allem in warmen Ländern Jahrzehnte lang ohne Beanstandung in großen Mengen als Malaria-Prophylaktikum eingenommen worden war. Buzyns Amtsnachfolger Olivier Véran versuchte schließlich sogar in mehreren Anläufen, HCQ für die Behandlung von Covid-19-Patienten ganz zu verbieten.

Da kam die Veröffentlichung einer internationalen Metastudie im renommierten Magazin „The Lancet“ unter dem Titel „Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: A multinational registry analysis“  am 22. Mai 2020 offenbar wie gerufen. In dieser von Prof. Mandeep Mehra MD, Sapan S. Desai MD, Prof. Frank Ruschitzka MD und Amit N. Patel MD gezeichneten Publikation, die inzwischen zurückgezogen werden musste, geht es um die Analyse von anscheinend überwiegend aus Amerika, aber auch von anderen Kontinenten stammenden Patientendaten aus insgesamt 671 Kliniken, die nach Angaben von Sapan Desai elektronisch an das von ihm geleitete Chicagoer Start-up-Unternehmen Surgisphere übermittelt worden waren. So hätten die Heilungserfolge von fast 15.000 mit CQ oder HCQ behandelten Patienten mit Daten von 81.000 Patienten verglichen werden können, die anders behandelt wurden. Im Ergebnis Im Vergleich zur Kontrollgruppe wurde danach bei den mit HCQ (18 %), HCQ plus Makrolid-Antibiotikum (23,8 %), Chloroquin (16,4 %) und Chloroquin plus Makrolid (22,2 %) im Krankenhaus behandelten Patienten sogar eine erhöhte Mortalitätsrate wegen Herzrhythmusstörungen o.ä. festgestellt. Jedenfalls sei die Anwendung von Chloroquin und HCQ nicht von Vorteil.

Schon am 23. Mai kündigte Olivier Véran daraufhin über Twitter an, das zuständige Beratergremium HCSP werde sich mit der Aufhebung der provisorischen Zulassung von HCQ befassen. Am 27. Mai verbot Olivier Véran den Ärzten schließlich die Verschreibung von HCQ an Covid-19-Patienten. Schon am 25. Mai unterbrach die Weltgesundheitsorganisation WHO unter Hinweis auf die Veröffentlichung in „The Lancet“ teilweise ihre groß angelegte Studie SOLIDARITY . In Deutschland wurde jedoch entschieden, zwei ähnliche Studien mit etwa 3.000 Patienten fortzuführen, wie der Koordinator der beiden Studien, der Tübinger Professor Peter Kremsner gegenüber der „Ärzte-Zeitung“ erklärte. Eine dieser beiden Studien, die COMIHY-Studie konzentriert sich auf ambulant behandelte, also weniger schwer an Covid-19 erkrankte Patienten und hält sich auch mit der Dosierung an die Vorgaben von Prof. Didier Raoult, während die meisten übrigen Therapie-Experimente mit HCQ eine Überzahl schwerkranker Patienten einschlossen und obendrein mit Überdosen von HCQ arbeiteten. Auch Raoult selbst fuhr fort, von seiner autonomen Entscheidungsbefugnis als Arzt Gebrauch zu machen, wies jedoch darauf hin, dass es zu diesem Zeitpunkt zumindest in Marseille kaum noch Covid-19-Patienten gab.

In der Zwischenzeit hatte eine ganze Reihe international renommierter Kliniker und Statistiker , angeführt durch den Statistiker Dr. James Watson (aus Deutschland steht Prof. Dr. Frank Brunkhorst von der Jenaer Uni-Klinik auf der Liste) in einem Brief an die Autoren der Studie und an Richard Horton, den Herausgeber von „The Lancet“ öffentlich bezweifelt, dass bei der Datenauswertung der in „The Lancet“ veröffentlichten Metastudie von Mehra et al. alles mit rechten Dingen zugegangen ist. Unter anderem bemängelten die Wissenschaftler, dass die Herkunft der Daten wegen des Fehlens eines Codes nicht nachvollzogen werden kann. Man wisse also nicht, welche Kliniken Daten übermittelt haben und welche nicht. In Australien wurden für fünf Kliniken mehr Corona-Tote erfasst als im ganzen Land ermittelt worden waren. Als verwunderlich erschien den Kritikern auch die auffällig geringe Varianz des (verborgenen) statistischen Materials. Aus diesen und weiteren Gründen forderten die Experten die Offenlegung der Rohdaten und der Codes, mit deren Hilfe sie verarbeitet wurden. Dieser Bitte konnten Mehra et al. nicht nachkommen.

In Brasilien, dessen Präsident Jair Bolsonaro sich wie US-Präsident Trump nachdrücklich für die Verabreichung von HCQ einsetzte, versammelte der führende Chemiker Marcos Eberlin 300 weitere Top-Wissenschaftler, um den Artikel von Mehra et al. in „The Lancet“ zu zerpflücken und die Ergebnisse der Analyse in einem offenen Brief zu veröffentlichen. Die brasilianischen Kritiker der Veröffentlichung von Mehra et al. wiesen überdies nach, dass schwerkranken Patienten in der so genannten Manaus-Studie (veröffentlicht im JAMA hier) tödliche Dosen von CQ verabreicht worden war, um die Gefährlichkeit dieses Medikaments zu demonstrieren. Am Ende ihres offenen Briefes weisen die brasilianischen Wissenschaftler übrigens ausdrücklich darauf hin, dass sie sich nicht absolut gewiss sind, ob HCQ den Patienten hilft. Nur die Wahrscheinlichkeit spreche dafür. Die Justiz könne bei der Prüfung der Zulassung dieses Medikaments nur nach dem Grundsatz „In dubio pro reo“ verfahren.

(Leider gehen die Wissenschaftler nicht auf die bei Schwarzen, also gerade auch in Brasilien relativ häufige HCQ-Unverträglichkeit bei Glucose-6-Phosphat-Dehydrogenase (G6PD(H)-Mangel https://de.wikipedia.org/wiki/Glucose-6-phosphat-Dehydrogenase-Mangel ein. Durch diese ernsthafte Störung des Zuckerstoffwechsels werden die Zellmembranen, insbesondere die der roten Blutkörperchen, anfällig für oxidativen Stress durch HCQ. Das kann zur hämolytischen Anämie führen.)

Noch strenger ging ein anonymer, aber bekannter Blogger aus der Wissenschaftsszene  (Goldstein) mit den Autoren der in „The Lancet“ publizierten Studie ins Gericht. Er wies nach, dass die Studie auf Fake-Daten beruht und dass Surgisphere nichts anderes ist als eine unseriöse Briefkastenfirma, in der eine Porno-Darstellerin als leitende Angestellte untergekommen war. Weitere Statistik-Profis schlossen sich in anonymer Form dieser vernichtenden Kritik an, indem sie nachwiesen, dass Surgisphere zu tragbaren Kosten gar nicht an die in der Studie angeblich verwendeten klinischen Daten gelangt sein konnte. Schlag auf Schlag kamen dann über soziale Netzwerke im Internet weitere kompromittierende Tatsachen über die Chicagoer Firma und über Interessenskonflikte der Autoren ans Licht.

In Frankreich untersuchte der linke Soziologe Laurent Mucchielli mögliche Interessenskonflikte der Autoren des Lancet-Artikels und wies nach, dass Mandeep Mehra verschwiegen hatte, dass das Bostoner Brigham Hospital, an dem er arbeitete, vom Pharma-Konzern Gilead bezahlt wird, um das Virostatikum Remdesivir zu testen. Gilead hatte dieses Medikament entwickelt, um die in Zentralafrika ausgebrochene Ebola-Epidemie gewinnbringend zu bekämpfen. Doch diese Epidemie war von selbst erloschen, bevor das neue Medikament auf den Markt kam. Nun versucht Gilead offenbar, sein teures, aber noch kaum erprobtes Medikament in der Coronakrise loszuwerden, indem er mithilfe willfähriger Wissenschaftler und Medien das preiswerte Konkurrenz-Produkt HCQ mit allen Mitteln schlecht macht. Auch der an der Zürcher Uni-Klinik arbeitende Prof. Dr. Frank Ruschitzka forscht mit Geldern der US-Pharma-Konzerne Gilead und Abbott. Mit dem letztgenannten Konzern arbeitet auch Dr. Mandeep Mehra zusammen. Der an der University of Utah lehrende Mediziner Amit Patel gab zu, die beiden renommierten Professoren Mehra und Ruschitzka mit seinem Schwager Sapan Desai, dem Gründer von Surgisphere, bekanntgemacht und für die Unterzeichnung der gefakten Lancet-Veröffentlichung gewonnen zu haben. Er trennte sich kürzlich „im Einvernehmen“ von seiner Universität.

Anfang Juni 2020 gab es nach alledem kein Halten mehr. „The Lancet“ musste die Veröffentlichung der inkriminierten Studie zurückziehen. So endete (vorläufig) einer der größten Wissenschaftsskandale der letzten Jahrzehnte. In Frankreich spricht man von „Lancet Gate“ . Tausende von Ärzten und Angehörige von Covid-19-Opfern haben in Frankreich juristische Schritte gegen die (un)verantwortlichen Minister eingeleitet oder angekündigt. Aber vermutlich dürfte dieser Skandal noch sehr viel weiter reichende politische Konsequenzen haben.

Man erinnert sich daran, dass die Europäische Union im Rahmen des so genannten Lissabon-Prozesses einmal offiziell verkündet hat, innerhalb von einem Jahrzehnt zur dynamischsten Wissensgesellschaft der Welt werden zu wollen. Dahinter steht offenbar der u.a. auf Auguste Comte zurückgehende Anspruch, das angeblich im Mittelalter vorherrschende magische Denken durch eine wissenschaftliche Weltanschauung überwinden zu können. Es lässt sich aber leicht zeigen, dass gerade die durch deterministische Modelle begründete Politik in Verbindung mit postmoderner Werteverkehrung zur Renaissance des magischen Denkens führt. Marxisten bewegen sich ohnehin nur in Modellwelten. Beispiele dafür sind die Klimapolitik, die damit zusammenhängende „Energiewende“, die Öffnung der Grenzen für die unkontrollierte Masseneinwanderung aus nichteuropäischen Ländern und die Euro-Rettungspolitik der EZB. Es bedarf bei all diesen Politiken keiner höheren Mathematik, um zu erkennen, dass diese nicht an ihr Ziel gelangen können. Das gilt vermutlich auch für die szientistisch begründete und bürokratisierte Gesundheitspolitik Frankreichs.

Hinter dem Anspruch, im Namen „der“ Wissenschaft zu sprechen, stehen m.E. letztlich immer totalitäre Bestrebungen. Um Fehlentwicklungen wie „Lancet Gate“ zu vermeiden, gilt es, im Gesundheitswesen dem Pluralismus und vor allem dem gesunden Menschenverstand größere Chancen einzuräumen. Das darf aber nicht mit Zugeständnissen an wissenschaftsfeindliche Ideologien einhergehen. Man braucht mit der Bescheidenheit hinsichtlich der menschlichen Erkenntnisfähigkeit nicht so weit gehen wie Sokrates, dem die Aussage zugeschrieben wird: „Ich weiß, dass ich nichts weiß.“ Denn wir wissen, trotz unserer grundsätzlichen Beschränktheit, schon sehr viel über uns und unsere Umwelt und haben das für eine Vielzahl echter Verbesserungen der menschlichen Lebensqualität genutzt. Aber wir sollten m. E. nie vergessen, dass unser Wissen immer nur eine Insel in einem Ozean von Unwissen sein kann.




Batterien sind kein nachhaltiges Backup für Wind und Sonne – Teil I: Umweltbelange

Zum letzten Mal haben wir so einen fiberhaften Goldrausch 1849 in Kalifornien gesehen, aber die heutigen Schürfer der neuen Medien finden Pyrit, auch bekannt als Narrengold

  • Am 19. Mai 2020 startete Nevada das massive Gemini [a] Solarprojekt, das Solarenergie mit 690 MW Nennleistung und einen 380 MW Batteriespeicher umfasst. Zwei Jahre zuvor starteten sie eine Solarenergieanlage mit rd. 1.000 MW und einen Batteriespeicher für 100 MW, um „bis 2025 klimaneutral“ zu sein. [b]

[In verlinkter Quelle [a] ist zu lesen: ,The integrated battery energy storage system (BESS) will consist of approximately 425 units of 5MWh, four-hour battery storage systems to store excess electricity generation from the PV panels.’  – Falls damit 425 Einheiten zu je 5 MWh gemeint sind, könnte dieses System theoretisch 2.125 MWh speichern und die 380MW Abgabeleistung für 5,6 Stunden liefern.]

  • Um nicht übertroffen zu werden, startete PG & E, [c] derzeit unter Kapitel 11 [chapter , aufgrund von grobem Missmanagement, die Akquisition von 720 MW Batteriespeichern für ihre bestehenden Solaranlagen. Dies kommt zu dem im Mai angekündigten Kauf einer 770-MW-Batterie hinzu.
  • Am 22. Januar 2020 gab „Arizonas größter Versorger (APS) bekannt, dass er bis 2050 seinen gesamten Strom aus kohlenstofffreien Quellen beziehen wird.“

In dieser zweiteiligen Serie untersuchen wir einige der Schlagzeilen, die nicht geschrieben wurden, oder Geschichten, die in kleiner Schrift geschrieben und von den beliebten Medienriesen, Mega-Nachrichtendiensten und TV-Sprechern schnell unter den Teppich gekehrt wurden. Zum Beispiel, wie viel Aufmerksamkeit wurde „Explosionen, die den Durchbruch von Lithium-Ionen in einem Wettlauf um die beste Batterietechnik bedrohen“, gewidmet, Bloomberg, 19. April 2019, [d]. … ”Eine weitere Lithium-Ionen-Batterie ist explodiert, diesmal in einem Energiespeicherkomplex in den USA.” In dem Artikel werden die 21 anderen großen Batterieexplosionen in Südkorea beschrieben, darunter sieben bei der Stromerzeugung durch „grüne“ Elektrizität Websites.

Ein weiteres gutes Beispiel ist das Herunterspielen des Michael Moore-Films PLANET OF THE HUMANS , in dem Mr. Moore die [bei uns] unsichtbare und unermessliche Zerstörung der planetaren Umwelt im Namen der „Rettung des Planeten“ bloßlegt . Noch beunruhigender ist die enorme Menge an verbrannten fossilen Brennstoffen und CO2, die für den Bau und den Stand dieser „grünen Maschinen“ für Sonne und Wind freigesetzt werden. In diesem ersten Segment achten wir besonders auf den einen Teil, den Michael Moore nicht ausreichend abgedeckt hat, und das sind die ökologischen Katastrophen, die durch den notwendigen Abriss dieser Solar- / Windkraftanlagen nach ihrer Lebensdauer von 15 bis 20 Jahren verursacht werden.

Im zweiten Abschnitt werden wir uns mit der Sicherheit oder dem Mangel an Grundlagen der Lithium-Ionen-Batterien befassen. Wir werden auch auf die beiden Boeing 747-Frachter eingehen, die abgestürzt sind, aufgrund von Schäden durch Lithium-Ionen-Batterien, die zu Märkten auf der ganzen Welt transportiert werden. Diese Gefahren bestehen nicht nur bei den großen Speicherbatterien, sondern auch in den zugrunde liegenden physikalischen und chemischen Herausforderungen, die sich aus den technischen Realitäten der Batterien ergeben. Im zweiten Segment werden wir auch die vielen versteckten Kosten untersuchen, die sich aus unserer bevorstehenden neuen Liebesbeziehung zu Lithium-Ionen-Batterien ergeben.

Öko-Zerstörung:

In „figure 2“vorstehend [e] , sehen wir die enormen Mengen an Materialien, die von der Solar- und Windindustrie benötigt werden. Beachten Sie insbesondere, dass die Skala logarithmisch ist. Beispielsweise benötigt eine Windkraftanlage etwa 1.400 Tonnen Gesamtmaterial. Das ist ungefähr 140-mal mehr als bei einer vergleichbaren Gasanlage, und Solar ist nicht weit dahinter. Ja, wir sagten 140-mal größer. Solar- und Windstandorte führen zu einer massiven weltweiten Zerstörung der Umwelt. Und, falls Sie CO2 als Problem betrachten, zu enormen CO2-Emissionen  und zu einer Verbreitung von Schadstoffen, nur um diese „planetenrettenden Maschinen“ zu bauen und zu ihren Standorten in den Industrieländern der Reichen zu transportieren -. Selbst wenn es sich um Null-Kohlendioxid handelt, ist der Schaden irreparabel.

 

[Im Aufmacher zu Beginn dieser Seite, sehen Sie das Bild einer Kohlemine. Es steht hier copyrightfrei als Symbolbild für Minenabbau. SPON berichtete ebenfalls über Kobaltmine, und die Rohstoffe für Batterien.] Es spielt keine Rolle, wie viele Dutzende davon jährlich erschlossen werden, um die grüne Täuschung zu nähren. Wo ist der Sierra Club, wenn Millionen Morgen Felder, Wälder und Bäche zerstört werden, nur um Zugang zu den Minen zu erhalten, noch bevor die riesigen Giganten ihre Erzgewinnungsarbeiten beginnen, um mehr Batterien zu produzieren? Wo verstecken sich Sierra Clubber, wenn diese Erze ausgegraben, transportiert, geschmolzen, verkokst und in Hochöfen geliefert werden, während dafür noch mehr Tonnen Kohle, Öl und Gas verbrannt werden, um die Teile für umweltfreundliche Maschinen und die vorgesehenen Pufferbatterien zu bauen ? Weitere Tonnen fossiler Brennstoffe werden von Lastwagen, Zügen und Schiffen verbrannt, um die roh und verarbeiteten Materialien zu ihren Installationsorten zu transportieren.

Quelle uschi dreiucker / pixelio.de Windkraft Baustelle

Während dies an unbekannten und durch unsere Medien nicht erwähnten Orten geschieht, werden die Installationsorte in Ihren Bundesstaaten und Landkreisen vorbereitet. Millionen von Bäumen, Gebüschen und anderen Pflanzen werden zu Staub zerfetzt, die Hügel werden eingeebnet, Täler und Bäche werden von Maschinen planiert, die ebenfalls nur mit fossilen Brennstoffen funktionieren. Fügen Sie ein paar tausend Kilo Sprengstoff hinzu, wenn Sie müssen. Wie viele Millionen Tonnen Schadstoffe werden an diesen Standorten für die Hunderte Tonnen stahlverstärkten Zements freigesetzt, die ihre Fundamente verankern.

Zu dem oben genannten Wahnsinn und der Eitelkeit werden jetzt auch noch Batterien hinzugefügt,  warum? Jede Solar- und Windkraftanlage benötigt eine Rückversicherung durch fossile Brennstoffe, um die zuverlässige Stromlieferung zu sichern, wenn die Sonne nicht scheint und der Wind nicht mit angemessener Geschwindigkeit weht. Diese Anlagen zur Sicherung der Stromlieferung müssen 100% der Zeit laufen und verbrennen dabei fast die gleiche Menge an fossilen Brennstoffen, die Wind und Sonne während der stand-by Zeit produzieren. ] Deshalb haben unsere Öko-Scharlatane neue, größere, bessere und profitablere Programme entwickelt. Sie wollen uns jetzt Batterien verkaufen, um die Anlagen für fossile Brennstoffe zu beseitigen. Wird es funktionieren? Lassen Sie uns eine Analyse des kritischen Denkens durchführen.

Wir haben kurz die giftigen Substanzen erwähnt, die bei der Herstellung von Windkraftanlagen und noch mehr in Sonnenkollektoren verwendet werden. Mit den Batterien treten die Toxine in Steroiden in Bezug auf Volumen, Toxizität und Sicherheit auf. Bei Transport, Installation, Verwendung und Außerbetriebnahme der Batterien ist besondere Aufmerksamkeit erforderlich. Wenn Sie die notwendige Sicherheit dabei beachten[müssen], erhöhen sich die Kosten erheblich, was in Teil II ausführlich erläutert wird.

Einfach lächerlich in Bezug auf die Behauptungen der Befürworter wird es, dass selbst wenn die Solar- oder Windkraftanlage dann in Betrieb ist, wir möglicherweise feststellen, dass wir die fossilen Kraftwerke benötigen, um die Ladung der Batterien auch bei Windflaute oder bedecktem Himmel zu sichern.

Weiterhin mögen Lithiumbatterien mögen keine großen Zyklen. Zum Beispiel dürfen sie nicht zu tief entladen werden, da dies ihre Nutzungsdauer verkürzt, aus dem gleichen Grund ist auch schnelles Laden der Lebensdauer der Batterien nicht zuträglich.

Wenn wir die Umweltzerstörung durch den Bau von Wind- und Solarkraftwerken abschließen, können wir das Problem der Stilllegung nicht vermeiden. Was machen Sie mit einer Anlage nach ihrem 15-20-jährigen Lebenszyklus? In der Vergangenheit gab viele Fälle, in denen ein Investor sie einfach aufgab, um damit die Landschaft weiter zu verschandeln. Die meisten Bundesstaaten verlangen von den Investoren, dass sie im Rahmen der Lizenzanforderungen eine Summe für den Abriss und Entsorgung anlegen.

Der Abriss und die heutige Müll- / Stofftrennung erfordert wiederum Tonnen fossiler Energie für die Presslufthammer, Bulldozer, Aktenvernichter und Steinmühlen. Wo werden dann die nicht recycelbaren Materialien deponiert? –  in den Ozeanen und nachts auf einer wilden Müllkippe? Oder sie werden auf Schiffe geladen und in ein ärmeres Entwicklungsland gebracht, denen Sie ihnen noch ein paar Dollar zahlen, damit diese ihre Umwelt ruinieren? Aber jetzt, mit den Batterien, die alle paar Jahre entsorgt werden müssen, wird die Tonnage an Toxinen in die Höhe schnellen, ebenso wie die Kosten. Was wird die Pacific Gas and Electric Company tun, sie befindet sich bereits in einem Insolvenzverfahren? Letztendlich werden diese zig Millionen Stilllegungskosten, Toxine und CO2- / Schadstoffeinleitungen wieder an die Steuerzahler weitergegeben.

Wir sind ziemlich zuversichtlich, dass die wachsenden Wind- und Solaranlagen der Nationen niemals eine nützliche Batterieunterstützung erhalten werden, aber wir sind ebenso zuversichtlich, dass zusätzliche Umweltzerstörung inmitten der fehlgeschlagenen Bemühungen der Befürworter und Politiker eintreten wird.

 

[a] https://www.nsenergybusiness.com/projects/gemini-solar-project/

[b] https://www.azfamily.com/news/aps-facility-that-exploded-is-part-of-clean-energy-project-aps-plans-to-build-more/article_bed54c08-6567-11e9-9902-93687b8275db.html

[c] https://www.power-eng.com/2020/05/20/pge-hopes-to-ramp-up-massive-california-energy-storage-procurements/

[d] https://www.bloomberg.com/news/articles/2019-04-23/explosions-are-threatening-lithium-ion-s-edge-in-a-battery-race

[e] https://www.iaea.org/sites/default/files/publications/magazines/bulletin/bull21-1/21104091117.pdf

 

Gefunden auf

https://www.cfact.org/2020/06/03/batteries-not-a-sustainable-backup-for-wind-and-solar-part-i-environmental-concerns/

Übersetzt durch Andreas Demmig




Corona-Tests: Dichtung – Wahrheit – Konsequenzen

Allein die Betrachtung und Auswertung von einer Symptomatik, wie zum Beispiel Atembeschwerden, Husten oder Fieber reicht nicht aus, um zu einem hinreichenden Ergebnis zu gelangen. Kommen diese Symptome doch auch bei vielen anderen mehr oder weniger harmlosen, mitunter schweren, zum Teil auch tödlichen Infekten zum Tragen. Der grippale Infekt, die echte Grippe und die Lungenentzündung, die häufig bettlägerige, alte Menschen trifft, seien hier beispielhaft genannt. Um eine Corona-Virusinfektion festzustellen, werden PCR-Tests verwendet. Doch dieser Test wird dank seiner hohen Sensitivität auch für Bruchstücke des Virus so lange positiv sein, bis keine Trümmer des Virus mehr vorhanden sind. Das bedeutet, auch wenn längst keine infektiösen Viren mehr vorhanden sind, kann ein Corona-Test also noch positiv ausfallen, weil durch die PCR-Methode selbst ein kleines Stück des viralen Genmaterials im Test genügend vervielfältigt wird.(mehr Details hier)

Zum Verständnis des Testverfahrens, welches zwecks der Vermeidung von Verschmutzung der genommenen Proben äußerst akribisch und hygienisch sehr sorgfältig durchgeführt werden muss, ist die Kenntnis einiger Fachbegriffe unabdingbar. Jeder Test zeichnet sich durch Sensitivität und die Spezifität aus. Beides wird in Prozent angeben.

Die Sensitivität eines diagnostischen Testverfahrens gibt an, bei welchem Prozentsatz als im Sinne des Tests positive Patienten die jeweilige Krankheit [bzw. Infektion] durch die Anwendung des Tests tatsächlich erkannt wird, d.h. ein positives Testresultat auftritt. Sie wird definiert als der Quotient aus richtig positiven Testergebnissen und der Summe aus richtig positiven und falsch negativen Testergebnissen. Quelle kursives Zitat: Hier klicken. Beträgt die Sensitivität des Tests 100%, kann der Getestete sicher sein, dass das Virus oder Teile von Sars-CoV-2 in sich trägt, wenn sein Test positiv ausfällt. Auch dann, wenn z. B. akut keinerlei Symptome vorliegen. Bei der Sensitivität geht es allein um die Eignung des Tests bezogen auf den Testgegenstand Sars-CoV-2.

Die Spezifität eines diagnostischen Testverfahrens gibt die Wahrscheinlichkeit an, dass tatsächlich Gesunde, die nicht an der betreffenden Erkrankung leiden, im Test auch als gesund erkannt werden. Sie wird definiert als der Quotient aus richtig negativen Testergebnissen und der Summe aus falsch-positiven und richtig negativen Testergebnissen – also allen Testergebnissen, denen tatsächlich keine Erkrankung zugrunde lag. Quelle kursives Zitat: Hier klicken Bei der Spezifität handelt es sich um die Genauigkeit der Erfassung des Testgegenstands Sars-Cov-2.

Beträgt die Spezifität eines Tests 100% ergeben sich keinerlei Probleme. Leider aber gibt es diese 100-prozentige Sicherheit beim Corona-PCR-Test nicht. Nehmen wir also eine Spezifität von 99% an. Dann liegt ein Test vor, von dem man allgemein annimmt, dass er sehr genau sei. Prozentual gesehen stimmt das auch. So wie es stimmt, dass ein Arbeitnehmer bei 10% Gehaltserhöhung prozentual mehr bekommt als sein Kollege mit 5%. Bleibt die Frage, Prozent wovon? Unser einer Arbeitnehmer verdient 2.000 € im Monat, macht bei 10% 200 €. Sein Kollege hingegen erhält mit seinen 5% ´satte` 250 € mehr Gehalt. Weil er 5.000 € im Monat verdient.

Ein einfaches Beispiel: Die Gruppe, die getestet werden soll, besteht aus 10.000 Menschen. Die angenommene Durchseuchung liegt bei 1%.   Es sind also 100 Menschen echt positiv mit dem Virus belastet. Der Test mit 100% Sensitivität filtert diese Menschen auch zuverlässig heraus. Bleiben 9.900 Menschen, die negativ getestet wurden. Die Spezifität unseres Tests liegt bei hohen 99%.  Was nichts anders bedeutet, dass bei 99 Personen = 1 % der verbleibenden 9.900 das Ergebnis falsch-positiv ist. Das eine Prozent, welches bei der Spezifität des Tests zu den 100% fehlt. Insgesamt sind zwar nur 100 Personen tatsächlich infiziert. Der Test wirft gleichwohl 199 positive Ergebnisse = Infizierte aus. Praktisch ist nur jedes zweite Ergebnis korrekt. Je größer die zu testende Gruppe, je geringer der Durchseuchungsgrad, desto ungenauer wird das Ergebnis. Die Menge der negativen Ergebnisse nimmt absolut zu, und damit auch die Anzahl der falsch-positiven Ergebnisse. Das eine Prozent wirkt sich immer stärker aus. Es ist sogar denkbar, dass positive Testergebnisse ausschließlich aus falsch-positiven Ergebnissen bestehen. Dann, wenn die Durchseuchung = 0 ist und immer weiter getestet wird.

Der Grund, weshalb die 15% Durchseuchungsgrad, die Prof. Hendrik Streeck in der Gangelt-Studie ermittelt hat, nicht einfach auf das gesamte Bundesgebiet hochgerechnet werden kann, liegt im verhältnismäßig hohen Durchseuchungsgrad dieser Gegend. In Deutschland gibt es zwar Hotspots wie Gangelt mit verhältnismäßig starken Ausbrüchen, der Durchseuchungsgrad im Land gesamt ist gleichwohl gering.

Die mittlerweile knapp 4,7 Millionen Tests haben Stand 11.6.2020 eine Gesamtzahl von  186.866 Test positiver (fälschlich Infizierte genannte) Personen ergeben. Das entspricht einer Durchseuchung von 0,2232% bezogen auf die gerundet 83,7 Millionen Einwohner Deutschlands. Darunter sind selbstverständlich etliche falsch-positiv getestete Menschen. Die fallen deshalb nicht sonderlich auf, weil die Krankheit Covid-19 insgesamt als milde Erkrankungeingestuft wird, eine Erkrankung, die oft sogar gar keine Symptome aufweist.  Das belegen die 7.322 aktiven Fällen inkl. falsch-positiver Tests. 7.322 aktive Fälle, von denen über 93% = 6.809 als mild eingestuft werden. Auch die schweren Fälle sind nicht in jedem Fall tödlich. Bedauerlicherweise sterben Menschen, natürlich, sie sterben auch zu einem Teil durch oder mit Covid-19, wobei eben immer die Frage bleibt, ob die Betroffenen nicht zum Teil falsch-positiv getestet wurden. Die Untersuchungen des Pathologen Püschel aus Hamburg lassen dies vermuten.

Zusammenfassend kann gesagt werden, dass die Fehlerquote von Corona Tests je geringer wird, desto größer die Durchseuchung einer Gruppe ist und je höher der Prozentsatz der Sensitivität, der Spezifität des Tests ist. Die Ergebnisse der Gangelt-Studie sind wesentlich genauer, als die kumulierten Zahlen der infizierten Personen, die dem verängstigten Bürger vor allem in den öffentlich-rechtlichen Medien, insbesondere dem Fernsehen Tag für Tag vermittelt werden.

Am 9.6.2020 präsentierte die ZDF-Nachrichtensendung Heute einen Chart mit der Entwicklung der aktiven Fällen. Das war neu. Die Zahl der aktiven Fälle unterscheidet sich massiv von den annähernd 190.000 Infizierten inkl. aller falsch-positiv getesteten Menschen.  Der Chart allerdings war in eine Kommentierung eingebettet, die dem aktuellen Sachverhalt des faktischen Endes der Epidemie in Deutschland in keiner Weise gerecht wurde. Immer noch wird Panik verbreitet. Immer noch wird Hygiene-Gehorsam eingefordert. Immer noch wird die Bevölkerung an der Nase herumgeführt.

Prof. Dr. Martin Haditsch erläutert den Sachverhalt der falsch-positiven Tests und vieles mehr  im obigen Video sehr detailliert und verständlich. Bemerkenswert ist, dass der Professor einen Laptop als Blatthalter nutzt, um die Tücken des Testens zu erläutern. Was nichts an der Richtigkeit seiner Aussagen ändert und ihn sehr sympathisch als alten, weißen Mann der korrekten Wissenschaften ´rüberkommen` lässt.

Samuel Eckert hat die von Prof. Haditsch vermittelten Erkenntnisse klug in einer Excel-Tabelle verarbeitet. Mit dieser können diverse Szenarien simuliert werden.

Das Video, s.o. , in dem Samuel Eckert seine Methodik vorstellt, ist erhellend. Es zeigt konkret auf, wie der Bürger mit Zahlen und Werten manipuliert wird, wie Zahlen und Werte so präsentiert werden können, dass ein gewünschtes Ergebnis herauskommt und der Bürger „springt“. Dahin springt, wo die Großkopferten es wollen. Dahin springt, wo der Bürger seine Freiheit zugunsten einer vermeintlichen Sicherheit aufgibt.Die Original-Exceltabelle, aus der die Übersicht der weltweiten Corona-Entwicklung entnommen wurde, kann hier heruntergeladen werden. Datengrundlage ist Worldometers.

Die Daten, insbesondere deren prozentuale Einordnung in der Übersicht, zeigen eindrucksvoll auf, wie mit großen Zahlen so gearbeitet wird, dass der normale, staatsgläubige Bürger heute glaubt, der Lockdown in Deutschland, nein, weltweit habe ein Massensterben verhindert. Nichts ist weniger richtig. Der Beleg ist recht einfach.

Man nehme den aktuellen Chart der aktiven Fälle, der täglich mehrfach aktualisiert auf WELTonline veröffentlicht wird.  186.555 Infizierte, 170.900 Genesene und 8.770 Verstorbene werden dort am 11.6.2020 um 17:00 Uhr verzeichnet. Ergibt 6.885 aktive Fälle in Deutschland gesamt. Davon 93% Milde Fälle. Um 17:00 Uhr am 11.6.2020. Das ist der Zeitpunkt, an dem die Daten veröffentlicht wurden.  Real stattgefunden hat alles viel früher. Schauen wir uns den Verlauf einer typischen Infektion mit Symptomen und deren Dokumentation, deren Weg in die Medien an. Der Betroffene infiziert sich. Nach etwa einer Woche bemerkt er mehr oder weniger starke Symptome. Er geht, weil es nicht besser wird, zwei Tage nach Auftreten der Symptome zum Arzt. Dieser veranlasst einen Test. Bis getestet wurde, bis das Ergebnis vorliegt, vergeht eine gute weitere Woche. Nun muss das Ergebnis noch zum Gesundheitsamt, zum RKI, zur Johns-Hopkins-Universität. Es wird aufbereitet, validiert. Dann geht es an die Medien. Es dauert mit Sicherheit noch mal eine Woche, bis das Ergebnis in dem Chart eingestellt ist. Insgesamt sind seit der Infektion mit Sicherheit gute 3 Wochen vergangen. Da ist der Infizierte wahrscheinlich schon wieder gesund bzw. auf dem Weg der Genesung. Es kommt auf einen Tag mehr oder weniger für unsere Betrachtung gar nicht an. Wichtig ist, dass unser Chart Ereignisse abbildet, die mindestens 3 Wochen her sind.

Aktive Fälle (orange) versus „Genesene“ (grün) vs Gesamtfällen (grau) mit eingetragenen Stichtagen bspw. Lockdown, Grafik R. Stobbe

Dementsprechend habe ich unseren Chart den realistischen Verhältnissen angepasst. Die Leiste mit den Datumsangaben wurde um 3 Wochen in die Zukunft verschoben. Die Linie unter Punkt 1 weist den Zeitpunkt (Mitte Februar) der ersten zahlenmäßig nennenswerten Infektionen aus. Punkt 2 verweist auf den Zeitpunkt (Anfang März), an dem sich die Kurven Neuinfektionen und Aktive Fälle trennen. Bis dahin waren sie identisch. Selbstverständlich steigt die Anzahl der Neuinfizierten an. Genau dieser Anstieg wird dem Bürger Tag für Tag kommuniziert. Dass ab Punkt 2, dass ab Anfang März die Zahl der tatsächlich Infizierten wegen der steigenden Anzahl der Genesenen abnimmt, Genesene, die ja von den Infizierten genau wie die Verstorbenen abgezogen werden müssen, wird verschwiegen. Etwa Mitte März, Punkt 3, wird der Höhepunkt der aktiven Fälle erreicht. Danach sinkt die Zahl der aktiven Fälle praktisch kontinuierlich. Gut eine Woche vor dem verhängnisvollen Lockdown, Punkt 4, der faktisch nicht notwendig war. Zwar steigt die Zahl der Infizierten weiter. Das Infektionsgeschehen insgesamt aber nimmt ab.  Ganz ohne Lockdown. Die berühmte Reproduktionszahl R lag ebenfalls vor dem Lockdown bereits bei Faktor 1. Was das RKI bestätigt. Ein weiterer Aspekt für die vollkommene Unsinnigkeit, eine hochentwickelte Volkswirtschaft und die dazugehörige Gesellschaft in´ s Nirwana zu schicken.

Zum Schluss gestatte man mir noch einen Hinweis zur Mundschutzpflicht, welche den normalen Umgang der Menschen untereinander, der das Verhalten der Menschen in Kaufhäusern, in der Gastronomie usw. sehr negativ beeinflusst. Ich bin zwar weder Mediziner, noch Virologe, sondern ein Bürger mit gesundem Menschenverstand, und einem guten Verständnis von Zahlen und Relationen und der es nach wie vor vermag 1 und 1 zusammenzuzählen.

Und daher meine ich: Im Fachbuch Molekulare Virologie/Viren: Definition, Aufbau, Einteilung heißt es unmissverständlich: Viren sind infektiöse Einheiten mit Durchmessern von etwa 16 nm (Circoviren) bis über 300 nm (Pockenviren; Tabelle 2.1). Ihre geringe Größe macht sie ultrafiltrierbar, das heißt, sie werden durch bakteriendichte Filter nicht zurückgehalten. […] Das bedeutet nichts anderes, als dass irgendwelche handelsüblichen Masken, selbstgebastelter „Schutz“ aus Stofflappen und ähnliches vollkommen unsinnig, weil komplett wirkungslos sind. Die Maskenpflicht entpuppt sich als reine Disziplinierungsmaßnahme, die dem Bürger wenig verklausuliert signalisiert, dass er den Mund zu halten hat.

Update vom 13.6.20

Grafik Mathias Seifert: Daten Stat. Bundesamt

Kommentar Seifert:

Wem der Begriff „kumulativer gleitender Mittelwert“ nichts sagt:

Das ist der Mittelwert über alle Einzelwerte jeweils bis zum betreffenden Zeitpunkt. Also der Wert für den 11.03. ist der Mittelwert aller Einzelwerte vom 01.01. bis 11.03. und der Wert für den 12.03. ist der Mittelwert aller Einzelwerte vom 01.01. bis 12.03., usw. Am Ende des Jahres erreicht dieser Graph exakt den Wert der durchschnittlich pro Tag Verstorbenen.

Man sieht nun endlich auf einen Blick: Bis auf die erste Woche lagen der Mittelwert für den jeweils betrachteten Zeitraum unter dem Mittelwert des gleichen Zeitraums der Jahre 2016-2019. Das bedeutet im Umkehrschluss: Zu jedem Zeitpunkt (außer der ersten Woche) starben im bis dahin vergangenen Teil des Jahres 2020 weniger Menschen, als im gleichen Zeitraum der Jahre 2016-2019.

Bemerkenswert ist auch diesmal wieder die Interpretation dieser Zahlen durch das Statistische Bundesamt selbst:

https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/Sterbefaelle-Lebenserwartung/sterbefallzahlen.html




Der globale Kohlenstoff-Haushalt: schöne Zahlen, vorge­täuschtes Vertrauen, aber höchst fragwürdig (Teil 2)

Die Rolle, die der Ozean im jährlichen CO2-Budget spielt, ist aufgrund seiner geschätzten CO2-Absorptionsrate von 90 GtC/Jahr aus dem jährlichen Gesamtbudget von 220 GtC beträchtlich. Der Rest des CO2 wird von der Vegetation durch den Prozess der Photosynthese aufgenommen oder verbleibt in der Atmosphäre. Drei Hauptakteure sind an der Emissionsseite des CO2-Budgets beteiligt: Ozean, Vegetation und Boden. Der vierte Akteur mit seinen 10 GtC Jahresemissionen, die Menschheit, beteiligt sich etwas am Rande.

Corrine Quéré (Professorin für Meteorologie an der East Anglia University) ist Hauptautorin des regelmäßig aktualisierten globalen Kohlenstoffbudgets (Ref. 1). Es ist kein Geheimnis, wie das Budget jedes Jahr ausgeglichen ist:

Die Differenz zwischen den Emissionen aus fossilen Brennstoffen und Landnutzungsänderungen einerseits und der Wachstumsrate der atmosphärischen CO2-Konzentration und der CO2-Senke im Ozean andererseits ist auf die Netto-Senke von CO2 in der terrestrischen Vegetation und den Böden zurückzuführen“.

Sie argumentiert damit, dass jede gemessene Zunahme oder Anomalie der atmosphärischen CO2-Konzentration eine anthropogene Störung ist. Die Tatsache, dass 95 Prozent des CO2-Budgets von natürlichen Prozessen dominiert werden und dass die 95 Prozent keinen großen jährlichen Schwankungen unterliegen würden, wird daher stillschweigend als Axiom angenommen (siehe mein Teil 1). Offenbar funktioniert die 95%-Natur dann nur noch als Hintergrundgeräusch. Nur für den Fall, dass eine Korrelation zwischen Naturphänomenen und CO2-Anomalien nicht in aller Deutlichkeit geleugnet werden kann, wird ein Teil der Klimawissenschaft der Natur eine Rolle zuschreiben, wenn auch eine indirekte.

Letzteres tritt z.B. auf, wenn während eines El Niño eine Änderung der Meeresoberflächentemperatur (∆SST) mit einer Änderung der atmosphärischen CO2-Konzentration (∆CO2) einhergeht. Die etablierte Klimaille würde jeden möglichen kausalen Zusammenhang zwischen den beiden verneinen; ähnlich wie die gefundene Korrelation zwischen einem Anstieg der Zahl der Todesfälle durch Haiangriffe und einem Anstieg des Speiseeisverkaufs. Das ist kein Zufall, denn es geht um eine dritte Variable: die Temperatur. Bei warmem Wetter essen mehr Menschen Eis und gehen öfter an den Strand, um im Meer zu schwimmen, et voilà, ein Zusammenhang (d.h. kein kausaler Zusammenhang, sondern eine gemeinsame Ursache).

Um die auffällige Korrelation zwischen kurzfristigen CO2-Schwankungen und kurzfristigen Änderungen der Meeresoberflächentemperatur im Zeitraum 1980 bis 2000 zu zeigen, müssen normale saisonale CO2-Schwankungen (Abbildung 1) vermieden werden, indem jeder Monat mit den entsprechenden Monaten in anderen Jahren verglichen wird. Dies glättet das saisonale Sägezahnmuster und zeigt nur monatliche CO2-Anomalien (∆CO2)

Abbildung 2 zeigt das Ergebnis, indem sie ∆ CO2 (grün) und ∆SST (schwarz) in einer Grafik zusammenführt. Außerdem habe ich markiert, wo die wichtigsten El Niños, La Niñas und Vulkanausbrüche in den Daten zu sehen sind. Es ist deutlich zu erkennen, wie die CO2-Konzentration immer um einige Monate hinter der Veränderung der Wassertemperatur zurückbleibt; genauso wie die Korrelation zwischen Temperatur und CO2-Konzentration in den Eiskernen von Wostok, an denen sich Al Gore die Finger verbrannt hat. Dort betrug die Verzögerung jedoch Hunderte von Jahren, da es sich um die Erwärmung des größten Teils des Ozeans und nicht nur der Oberflächenschicht handelte.

Bei einem El Niño haben wir es mit 5 Variablen zu tun: Meeresoberflächentemperatur (SST), CO2, Wetteränderung, Vegetation und Menschen. Der offensichtlichste kausale Zusammenhang zwischen diesen Variablen besteht darin, dass erwärmtes Meerwasser weniger Gas enthalten kann und CO2 atmen wird. Aber dieser einfache Zusammenhang würde bedeuten, dass die CO2-Erhöhung eine rein natürliche Reaktion ist und nicht etwas, was Klimagläubige gerne anerkennen würden. Ihrer Meinung nach ist die folgende Erklärung viel attraktiver: El Niño hat einen Einfluss auf das Wetter, das Wetter hat einen Einfluss auf die Vegetation, und die Menschen reagieren darauf! Die beiden letzteren (Vegetation und Mensch) werden dann als Ursache für den CO2-Anstieg angesehen.

Zum Beispiel korrelieren Bender et al. (2005) eine gemessene Abnahme des Luftsauerstoffs mit der gemessenen CO2-Zunahme und legen einen kausalen Zusammenhang nahe, eine vernünftige Annahme. Nachdem sie die Daten stark verdichtet haben, glauben sie auch, ein Signal (eine Verzögerung in der Veränderung des O2 / N2-Verhältnisses) im Zusammenhang mit einem El-Niño-Ereignis zu erkennen und triumphierend abzuschließen (Ref. 2):

Das dramatischste Klimaereignis in diesem Zeitraum, der El Niño von 1997-1998, ging mit einer raschen CO2-Zunahme einher. Unsere Daten deuten darauf hin, dass dies auf eine verringerte Landsenke (oder eine kleine Landquelle) zurückzuführen war. Diese Arbeit unterstützt somit viele frühere Studien, die schnelle atmosphärische CO2-Wachstumsraten mit einer verminderten Kohlenstoffaufnahme an Land während der El-Niño-Ereignisse in Verbindung bringen. Als primärer Mechanismus wird nun eine erhöhte Trockenheit und Biomasseverbrennung in tropischen Gebieten während El-Niño-Ereignissen angenommen.

Zum gleichen Ergebnis kommen A. Chatterjee et al. 2017 (Ref. 3):

Während der späteren Phasen des El Niño (August 2015 und später) registrieren die OCO-2-Beobachtungen einen Anstieg der atmosphärischen CO2-Konzentrationen. Wir führen diesen Anstieg auf die Reaktion der terrestrischen Komponente des Kohlenstoffkreislaufs zurück – eine Kombination aus einer Verringerung der biosphärischen Aufnahme von CO2 über pan-tropischen Regionen und einer Zunahme der Emissionen aus der Biomasseverbrennung über Südostasien und Indonesien. Die Nettoauswirkung des El-Niño-Ereignisses 2015-2016 auf den globalen Kohlenstoffkreislauf ist ein Anstieg der atmosphärischen CO2-Konzentrationen, der wahrscheinlich größer wäre, wenn es nicht zu einer Verringerung der Ausgasung aus dem Ozean käme.

Letzteres bezieht sich auf den letzten El Niño von 2015-2016. Der besagte OCO-2 ist ein Satellit, der 2014 gestartet wurde, um CO2 aus dem Weltraum zu messen. Er kam also gerade rechtzeitig, um dem starken El Niño von 2015/2016 zu folgen. Doch dann lieferte OCO-2 offenbar nicht das, was man von ihm erwartete, da nur sehr wenig über die bisher gesammelten Daten veröffentlicht wurde. Die Ergebnisse bestätigten vielleicht nicht die Ansichten der Orthodoxie. Die obligatorische, eher substanzlose Bemerkung: „die OCO-2-Beobachtungen registrieren einen Anstieg der atmosphärischen CO2-Konzentrationen“ ist ein Beispiel dafür; schließlich konnte jede CO2-Überwachungsstation an Land dies auch registrieren. Es sei angemerkt, dass in ihrem Artikel auch eine Verringerung der Ausgasung des Ozeans erwähnt wird, statt des Anstiegs, den ich hier postuliere. Damit wollen sie sagen, dass die CO2-Spitze 2016 noch größer gewesen wäre, wenn es eine solche Reduktion nicht gegeben hätte.

Natürlich würde man hoffen, dass die OCO-2-Daten bestimmen könnten, woher diese Abweichungen stammen. Dies könnte durch den Vergleich der digitalen Bilder/Daten aufeinanderfolgender Jahre geschehen. Ich habe keine auffälligen visuellen Unterschiede gefunden (Ref. 4), aus denen sich ableiten ließe, ob die CO2-Anomalien über dem Ozean entstanden sind (was ich vermute) oder ob sie auf einen Rückgang der Photosynthese in den Tropen zusammen mit einer Zunahme der jährlichen Waldbrände in Südostasien / Indonesien (wie behauptet) zurückzuführen sind.

Ich habe die ∆ CO2 Messungen des Mauna Loa und die ∆SST während des letzten El Niño in einer Grafik dargestellt (Abbildung 3). Auch hier sehen wir einen überzeugenden Zusammenhang mit einer Verzögerung von einigen Monaten bis zu einem halben Jahr:

Auch hier wird der Rückgang der „biosphärischen Aufnahme“ auf einen Rückgang der Photosynthese infolge der durch El Niño verursachten Dürre in tropischen Regionen zurückgeführt. Diese Erklärung ist aus mehreren Gründen unwahrscheinlich. Erstens steht dies im Widerspruch zu der Beobachtung, dass in den Tropen die Netto-Primärentstehung (NPP) von CO2 während der Dürre tatsächlich zunimmt (Ref. 5). Die NASA Earth Observations (NEA) sagt Folgendes:

In den Tropen gibt es im Laufe des Jahres Schwankungen der Produktivität. Im Amazonasgebiet zum Beispiel ist die Produktivität während der Trockenzeit der Region von etwa August bis Oktober, besonders hoch. Da die Bäume Zugang zu einem reichlichen Grundwasservorrat haben, der sich in der Regenzeit aufbaut, wachsen sie bei Aufklaren nach dem Regen besser, wenn mehr Sonnenlicht in den Wald gelangt.

Zweitens wird die Dehydrierung des Bodens zu einer Abnahme der Bodenatmung und daher zu weniger CO2-Emissionen führen. Borken et al. 2006 (Ref. 6) maßen einen Rückgang der Bodenatmung um 15 bis 30% in einem Experiment, bei dem ein Teil eines Waldes vor Regen geschützt wurde, um eine Sommertrockenheit zu simulieren.

Drittens ist es höchst unwahrscheinlich, dass sich die Häufigkeit der tropischen Vegetation und der Waldbrände über einen Zeitraum von 40 Jahren weiterhin proportional zu den Temperaturschwankungen (∆SST) verhält, um diese auffällige Korrelation zu erklären.

Viertens werden Waldbrände auch die Konzentration von Kohlenmonoxid CO in der Atmosphäre erhöhen, und man würde erwarten, dass die CO-Konzentration in den warmen El-Niño-Jahren höher ist als in den kalten La-Niña-Jahren. CO und Waldbrände werden seit 20 Jahren von Satelliten gemessen (Ref. 7 und Abbildung 4).

Abbildung 4 vergleicht zwei Perioden, eine mit den niedrigsten Werten von ∆SST und ∆ CO2 (La Nina, Januar 2011) und eine mit den höchsten Werten (El Niño, Januar 2016), wie in Abbildung 3 oben dargestellt. Die Unterschiede in der CO- und Brandintensität zwischen diesen beiden Zeiträumen sind unbedeutend. Zudem manifestiert sich Indonesien nicht als der wichtigste Hotspot, wie von Chatterjee et al. und anderen behauptet. Darüber hinaus zeigen die am Mauna Loa gesammelten monatlichen CO-Daten kein anomales Ereignis, das mit dem El Niño 2016 korrelierbar wäre, ebenso wenig wie die globalen O2-Sauerstoffmessungen von Scripps (Ref. 8).

Bei all meiner Durchforstung der Satelliten-Literatur stieß ich schließlich auf einen Artikel von N. Ying et al. (Ref. 9) über CO2-Beobachtungen von Vorgängern des OCO-2-Satelliten, dem Greenhouse Gases Observing Satellite (GOSAT) und dem Atmospheric Infrared Sounder (AIRS). Beide Bilder (Abbildung 5) stellen die Mittelwerte der El-Niño-Dezember-Monate und La-Niña-Dezember-Monate dar, die im Zeitraum Juli 2009 bis April 2014 gemessen wurden. Sie kommen unter anderem zu dem Schluss, dass:

Es ist erwähnenswert, dass das CO2 in der kalten Episode im Pazifik um 4 ppm abnimmt, während es in der warmen Episode zunimmt. Während der Zerfallsphase sind die CO2-Muster in der warmen und kalten Phase ähnlich. Diese Ergebnisse zeigen, dass eine warme ENSO-Episode einen bemerkenswerten Einfluss auf Nordasien und den Pazifischen Ozean hat, insbesondere in ihrem Anfangs- und Reifestadium. Die ENSO-Regionen in den AIRS-Daten sind im Vergleich zu den GOSAT-Daten ausgeprägter.

Hier bestätigt sich also endlich mein Verdacht, dass der Pazifische Ozean die Quelle für die CO2-Abweichungen ist und nicht die Landvegetation. Tatsächlich zeigt Südostasien sogar einen Rückgang der CO2-Konzentration während der warmen ENSO-Periode (= El Niño) im Vergleich zur kalten ENSO-Periode (= La Niña). Das ist nicht ganz die Art von Ermutigung, die Landvegetation als dominierende Quelle zu fördern zu versuchen.

Ich weiß, ich renne offene Türen ein, wenn ich behaupte, dass die stetig steigende Meerestemperatur (bis in größere Tiefen), der stetig steigende Meeresspiegel (1,85 mm/Jahr) und ein Teil der stetig steigenden atmosphärischen CO2-Konzentration (jetzt 2 ppm/Jahr) kausal zusammenhängen könnten. Die kurzfristigen CO2-Schwankungen, die ich oben besprochen habe, stehen in keinem Zusammenhang und werden einfach auf den CO2-Zug aufgesattelt, der bergauf fährt.

Es überrascht nicht, dass die Erwärmung des Ozeans und der Atmosphäre sowohl für den Anstieg des Meeresspiegels als auch für einen Teil (möglicherweise geringen) des langfristigen CO2-Anstiegs sowie für die Zunahme der terrestrischen CO2-Atmung verantwortlich ist (siehe Teil 1). Es ist nicht auszuschließen, dass das Resultat dieser beiden letztgenannten Prozesse zusammen mit den CO2-Emissionen des Menschen eine beschleunigende Wirkung auf die Erwärmung hat, die bereits im 18. Jahrhundert begann; schliesslich ist CO2 ein Treibhausgas [?]. Es stellt sich unweigerlich die Frage: Welches sind die Faktoren, die das Erwachen des Klimas aus dem Winterschlaf der Kleinen Eiszeit ausgelöst haben?

Some useful conversions and numbers (not cast in concrete!):

1 gigaton C (GtC) = 3.67 Gt CO2

1 ppm atmospheric CO2 = 2.13 GtC = 7.8 Gt CO2

Whole atmosphere: 417 ppm CO2 (current concentration) = 888 GtC

Earth biosphere: ≈ 2190 GtC

Whole ocean: ≈ 43000 GtC

Human emissions: 10 GtC / year

Ocean emissions: ≈ 90 GtC / year

Plant exhalation: ≈ 60 GtC / year

Soil emissions: ≈ 60 GtC / year (98GtC?)

Ocean uptake: ≈ 90 GtC / year

Land uptake (photosynthesis): ≈ 120 GtC / year

Atmospheric increase 2019-2020: 2ppm = 4.26 GtC

***

References:

1) C. Le Quéré et al .: Global Carbon Budget 2018.https: //www.earth-syst-sci-data.net/10/2141/2018/

2) Bender et al. 2005: Atmospheric O2 // N2 changes, 1993–2002: Implications for the partitioning of fossil fuel CO2 sequestration. https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2004GB002410

3) A. Chatterjee et al. 2017: Influence of El Niño on atmospheric CO over the tropical Pacific Ocean: Findings from NASA’s OCO-2 mission. https://science.sciencemag.org/content/358/6360/eaam5776

4) Fixed Rank Kriging of Column Averaged CO₂ Data (XCO2) from NASA’s OCO-2 Satellite. https://www.youtube.com/watch?v=aogFbPOOFQI

5) Earth Observatory. Just Primary Production. https://earthobservatory.nasa.gov/global-maps/MOD17A2_M_PSN

6) Borken et al. 2006: Effects of experimental drought on soil respiration and radiocarbon efflux from a temperate forest soil. https://escholarship.org/content/qt3mk9v58k/qt3mk9v58k.pdf

7) NASA, Earth Observatory https://earthobservatory.nasa.gov/global-maps/MOP_CO_M/MOD14A1_M_FIRE

8) http://scrippso2.ucsd.edu/osub2sub-data.html

9) N Ying and Q Ye 2019 IOP Conf. Ser .: Earth Environ. Sci. 237 022009. https://iopscience.iop.org/article/10.1088/1755-1315/237/2/022009/pdf

Übersetzt von Chris Frey EIKE




§ 53: Die Corona-Pandemie endet, wenn ein Impfstoff für die Bevölkerung zur Verfügung steht.(*)

Selten war eine Überschrift über einen Beschluss des Koalitionsausschusses (2020-06-03-eckpunktepapier Kopie 2) irreführender, ja zynischer, als bei dem, der am 3.6.20 zur Bewältigung der – zuvor von derselben Regierung bewusst herbeigeführten- extrem schädlichen wirtschaftlichen Folgen der Corona-Panik Beschlüsse veröffentlicht wurde.

Denn weder werden damit die Corona-Folgen bekämpft, das tun Ärzte und Pflegepersonal in bewunderungswürdiger Aufopferung, noch wird der Wohlstand gesichert und erst recht nicht die Zukunftsfähigkeit gestärkt.

Das absolute Gegenteil ist richtig.

Der Dank tlw. bewusst geschürter Coronapanik beschlossene „Lockdown“, obwohl die Covid-19 Welle, nach den Zahlen des RKI, schon um den 20. März ihren Höhepunkt überschritten hatte, ist allein die Ursache der unermesslichen negativen wirtschaftlichen und sozialen Folgen, die den Wohlstand einer ganzen Generation vernichten werden. Die zur „Bekämpfung“ – richtiger müsste es heißen: zur Verzögerung der wirtschaftlichen und sozialen Schäden- eingesetzten, hunderte von Milliarden €  sind aber nur die Schulden der nächsten Generation, deren wirtschaftliche Basis gerade, wie bei einer Springflut, weggespült wird. Und jetzt folgt noch eine „Konjunkturpaket mit schlappen 130 Milliarden  Umfang.

Auf 15 Seiten  und in 57 Punkten oder Paragraphen wird minutiös festgelegt, welchen Milliardensegen, die jeweilige Interessengruppe erwarten kann. Vom Tierwohl (§ 55) mit 0,3 Milliarden, über Künstliche Intelligenz (echte natürliche Intelligenz würde eigentlich schon reichen) im § 43 mit 2 Milliarden €, Schlagwort Techniken wie Quantentechnologien im § 44 dürfen auch nicht fehlen, mit 2 Milliarden €, dem Gesundheitswesen, wo man eben noch 50 % der Krankenhäuser schließen wollte, mit knapp 9 Milliarden, bis zu jungen Menschen und Familien und die Ausbildung ihrer Kinder, die mit insgesamt 9 Milliarden € „gefördert“ werden sollen.

Und als ob das nicht genug ist, werden darin die Mittel für „Klimaschutz“ fördernde Maßnahmen mit über 36 Milliarden komplett fehl investiert, weil dank der Ideologie des menschgemachten Klimawandels – Stichwort „große Transformation“ – ausschließlich Projekte gefördert werden sollen, die niemals gewinnbringend sein werden, und dazu noch zu einem großen Teil ins Ausland auf Nimmerwiedersehen abfließen sollen. Dazu gehören beispielhaft die weitere Schwächung der deutschen Kfz Industrie, nicht nur durch die weitere Erhöhung der Kfz Steuer für Fahrzeuge mit mehr als 95 g/100 km CO2 Ausstoß, also für fast alle Verbrenner getriebenen Fahrzeuge, sondern auch noch die Erweiterung der Förderung von E-Luxus-Mobilen als Luxus-Kutschen für Zweit-, Dritt- Fahrzeug Besitzer bzw. Dienstwagenzuschüsse und Steuerermäßigungen für Behördenfahrzeuge, ebenso wie der Aufbau eine nutzlosen E-Infrastruktur, deren Speisung wegen Abschaltung der Grundlastkraftwerke völlig ungesichert ist, wie auch deren Nutzung mangels Nachfrage.

Es gehört ebenso dazu die Festschreibung  der „Wasserstoffstrategie“ und deren Förderung mit Milliarden Summen, vorzugsweise in Ländern Afrikas mit hochkorrupten Regierungen und starken Rebellengruppen, deren technische Nutzlosigkeit, aufgrund der unveränderbaren Eigenschaften des extrem flüchtigen und hoch gefährlichen Wasserstoffes seit vielen Jahrzehnten und immer wieder bestätigt, eindeutig bekannt ist (Details dazu z.B. hier). trotzdem verkünden die Minister Altmeier, Müller und Karliczek vollmundig das sich Deutschland die „Globale Führungsrolle bei Wasserstofftechnologien sichern will und die Bundesregierung verabschiedet dazu die Nationale Wasserstoffstrategie und beruft einen Nationalen Wasserstoffrat. Wer denkt da nicht automatisch an die Führungsrolle bei der Photovoltaik mit Milliardengräbern – Solarvalley lässt grüßen, oder an „Desertec“ Strom aus der Wüste, über den inzwischen der Mantel des Vergessens gelegt wurde, oder an die 1 Million E-Mobile die in diesem Jahr auf unseren Straßen hätten rollen sollen. Oder, oder, oder.

Von Einstein stammt die Formulierung: Eine Definition von Wahnsinn ist, immer dasselbe zu versuchen und andere Ergebnisse zu erwarten. Ich überlasse die Meinung darüber, ob das auch auf unsere Regierung zutrifft, gern dem geehrteren Leser.

Die Krönung dieses Geldverbrennungsprogrammes ist jedoch die tlw. Umschichtung der Zwangsabgaben für die EEG Umlage auf den Steuerzahler, der zusätzlich zu den schon hohen Steuern auch noch den CO2 Preis berappen soll, um optisch die Erhöhung dieser Zwangs-EEG Umlage zugunsten Wohlhabender EEG Besitzer, nicht so sichtbar werden zu lassen. Nicht nur die stromintensiven Unternehmen werden dank dieser Mogelpackung  Deutschland in Scharen verlassen – Stichwort aus dem Programm: klimafreundlicher Stahl- sondern auch mehr und mehr fleißige Leistungsträger und Selbständige, und damit die Menschen, die den bisherigen  Wohlstand erst erzeugen halfen. Rette sich wer kann, heißt von jetzt an die Devise.

Mein Fazit:

Die Bundesregierung hat durch die von ihr miterzeugte Coronapanik, und den daraufhin verkündeten Lockdown, erst die immensen, noch nie, außer in Kriegszeiten, dagewesenen Schäden, erzeugt, die sie nun vorgibt mit einem neuen Multimilliarden Schulden finanzierten Programm bekämpfen zu wollen. Seine Ausrichtung auf „klimafreundliche“ Projekte und Maßnahmen zeigt eindeutig, dass das Ziel ist, die „große Transformation“ wie im Januar d.J. in Davos von der Kanzlerin angedroht, weiter voran zu treiben.

(*) Ach ja, ganz versteckt am Ende unter Punkt 53 wird dann noch nebenbei verkündet wie lange die strengen Lockdownregelungen – wenn es nach der Bundesregierung gehen sollte- noch andauern werden.

Die Corona-Pandemie endet, wenn ein Impfstoff für die Bevölkerung zur Verfügung steht.

Das sind bei methodischer, den Regeln der Medizin und Ethik folgenden Arbeitsweise und Fürsorge für die betroffene Bevölkerung, in aller Regel 5 – 7 Jahre.

Übrigens soll dieser Impfstoff lt. Dr. Wodarg tief ins menschliche Genom eingebracht werden.

Auszug aus seiner Webseite

Rekombination: Geplante Impfungen verändern uns genetisch

Unter den zwölf bereits in klinischer Prüfung befindlichen Covid-19 Impfstoffen enthalten-  nach Auskunft der WHO vom 9. Juni – vier Kandidaten rekombinante RNA und drei Kandidaten DNA. Dabei werden unterschiedliche Technologien zur Einbringung des rekombinanten genetischen Materials in die menschlichen Zellen angegeben. (Stand 9.6.2020)

er fordert daher

Solche genetischen Manipulationen am Menschen sind sträflich und dürfen nicht an Millionen (Bill Gates sagt an 7 Milliarden) Menschen zugelassen werden. Die klinischen Studien hierzu sind unverzüglich abzubrechen!

(Details dazu hier)

Ob die Menschen sich das gefallen lassen werden? Wir werden sehen.

 




Der Sonntagsfahrer: Die Größenwahnsinnigen

Die Gebetsmühle erinnert die Buddhisten an das Ingangsetzen „des Rades der Lehre“, und der abgespulte Text soll auch Leseunkundigen Möglichkeiten zum Erwerb von positivem Karma eröffnen, nicht unbedingt in diesem Leben, es kann auch bis zum nächsten dauern. Ausgehend von Tibet hat sich das Konzept der Gebetsmühle seit dem 4. Jahrhundert bewährt und findet heute vielfach auch in unserer Politik Anwendung. Die Gebetsmühle ist ein wichtiges Handwerkzeug der Bundesregierung auf dem Pfad der Erleuchtung der Bevölkerung, etwa in Form des Merkel-Mantras. Aber auch, wenn es um Altmaiers  Lobpreisungen der Windenergie geht, deren höhere Weisheit wir möglicherweise auch nicht sofort erfahren, sondern später, irgendwann.

Es trifft sich dabei gut, dass frühe Gebetsmühlen ebenfalls vom Wind angetrieben wurden, allerdings hatten sie eine vertikale Achse die von aufgespannten Tüchern gedreht wurde. Sie erinnern ein bisschen an kreisende Wäscheständer. Diese fortschrittliche spätantike Technologie wurde in Deutschland konsequent weiterentwickelt und ersetzt nun die rückschrittlichen Kernkraftwerke.

Der fromme Glaube wird dabei mit dem Streben nach Größe und Ewigkeit kombiniert, die traditionellen Bestandteile des deutschen Weges zum Karma. In Abwandlung der Bestimmung buddhistischer Gebetsmühlen, die ich hier auf Wikipedia fand, könnte man die Essenz deutscher Windmühlen so beschreiben: „Eine Motivation dieser Technik besteht darin, bei der Drehung der Windmühle zu visualisieren (geistig zu projizieren), dass alle darin enthaltenen Mantras während des Drehens Licht zu allen fühlenden Wesen ausstrahlen (Disco Effekt), deren Leid beseitigen und schlechtes Karma auflösen“.

Kurz gesagt, ebenfalls in Wiki-Abwandlung: „Eine fortgeschrittene, sich der höchsten Sichtweise der deutschen Politik annähernde Praxis des Drehens einer Windmühle liegt darin, während des Drehens der Windmühle sich darauf zu konzentrieren, dass sowohl der Drehende als auch die Handlung des Drehens und die sich drehende Windmühle, samt den darin enthaltenen Mantras und Gebeten, nicht völlig schwindelig machen“.

Spätantiker Technologiesprung

Zu – im wahrsten Sinne des Wortes – ganz großer Form läuft jetzt beispielsweise Markus Tacke, Chef von „Siemens Gamesa Renewable Energy“ auf. „Mit großer Leistung geht ein großer Nutzen einher“, bewirbt er sein neues Riesenwindrad, das vor der Küste im Meer so hoch aufragen soll wie der Eiffelturm. „SG 14-222 DD ist ein globales Produkt, das uns allen hilft, einen großen Schritt vorwärts zum Schutz und Erhalt unseres Planeten zu machen“, segelt er weiter zum rettenden Karma. „Das neue Windrad von Siemens Gamesa sprengt alles bisher Vorstellbare“, schreibt auch DIE WELT ganz richtig, es katapultiere die Windkraft „in eine neue Dimension“.

Der spätantike Technologiesprung besteht in einer Leistung von bis zu 15 Megawatt pro Windrad. Zum Vergleich hier die Leistung des vor zwei Wochen gesprengten Kernkraftwerkes im badischen Philippsburg. Die Leistung der beiden Blöcke dieses bis dahin voll funktionstüchtigen und mit Restwert von 3 Milliarden Euro veranschlagten Kraftwerkes betrug rund 2.400 Megawatt. Um das rückschrittliche KKW zu ersetzen, das gerade mal soviel Platz beansprucht wie ein mittleres Parkhaus, müssen also rund 160 spätantike Eiffeltürme auf hoher See aufgestellt werden, wobei Einstein ins Spiel kommt, dem folgendes Zitat gerne in die Schuhe geschoben wird: „Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit, aber bei dem Universum bin ich mir noch nicht ganz sicher.“

Dazu passt eine Aussage von Andreas Nauen, Chef der „Offshore-Business Unit“ von Siemens Gamesa. Seit 1991 arbeite der Konzern daran, „die Leistung zu steigern, technologische Risiken zu minimieren und die Energiegestehungskosten konstant zu senken“. Der Erfolg dieser Bemühungen lässt sich so beschreiben: Die Stromkosten für die Deutschen sind schon deutlich höher als der Eiffelturm und nähern sich dem Shanghai Tower (642 Meter), der Offshore-Versorger „Njord Forseti“ rammte gerade eine Windkraftanlage vor der deutschen Küste, die von den Rotoren bestrichenen Flächen sind Todeszonen für Seevögel, eine einzige so groß wie fünf Fußballfelder.

Zäh wie die Windhunde

Um so verzweifelter die Lage, desto größer werden in Deutschland die Projekte, das zeigten schon die „Reichskrafttürme“ des deutschen Erfinders Hermann Honnef, diese sollten bis zu 500 m hoch gebaut werden und drei gegenläufige Windrotoren von 160 Meter Durchmesser tragen. Bevor sie den Planeten retten konnten, unterzeichnete Deutschland allerdings die Kapitulation. In Sachen der aussichtlosen Energiewende geben sich die Beteiligten noch zäh wie die Windhunde. In einem Prozess zur „Marinen Raumordnung“ unter Federführung des Bundesumweltministeriums und des Bundesamtes für Seeschifffahrt und Hydrografie (BSH) werden bereits Pläne diskutiert, wie man bis zum Jahre 2050 Windkraftanlagen mit einer Leistung von 40 bis 50 Gigawatt in Nord- und Ostsee platzieren könnte. Allerdings fehlt nach wie vor eine Erleuchtung darüber, wo dieser Strom denn gespeichert werden könnte, damit die Lichter weiter brennen, wenn Flaute herrscht.

Ähnlich verhält es sich mit einem Plan des Bundesministeriums für Bildung und Forschung, das nun ausgerechnet im afrikanischen Niger, einer Region mithin, die auch ohne deutsche Technologie-Partnerschaft genügend Probleme hat, mit Solarstrom Wasserstoff zur Deckung des deutschen Energiebedarfes produzieren will. Die dafür erforderliche Fläche würde schlappe 40.000 Quadratkilometer umfassen, also in etwa die Fläche Baden Württembergs. Für den Transport des Wasserstoffes in heimische Gefilde könnte man vielleicht den Groß-Zeppelin „Cargo-Lifter“ reanimieren, dessen gigantische Pleite auf Achgut.com wiederholt thematisiert wurde.

Über solche Petitessen räsonieren aber allenfalls Miesmacher und Defätisten – Menschen mit einem vorbildlichen Karma spucken stattdessen in die Hände, bis das Land so richtig durchstartet.

Ein sehr schönes historisches Beispiel dafür war die „ME 321 Gigant“, der größte Lastensegler aller Zeiten. Im Rahmen des Unternehmens „Seelöwe“, dahinter verbarg sich ein Offshoreprojekt zur Rettung der Welt vor den Engländern, sollten deutsche Truppen im zweiten Weltkrieg zum Albion hinübergeschickt werden. Aber die Sache hatte von Anfang an keinen guten Lauf. So hatte die deutsche Luftwaffe vergessen, ein Schleppflugzeug zu entwickeln, das die Riesendinger zuverlässig in die Luft hätte bringen können.

Von Frankfurt nach Köln zum Rosenmontagszug

Ein wenig suboptimal lief auch die Sache mit der „Maus“, einem von Ferdinand Porsche entwickelten Riesen-„Panzerkraftwagen“, der den Zweiten Weltkrieg ebenfalls mit deutscher Größe wenden sollte. Der Weg zum Sieg wurde leider dadurch vereitelt, dass das gute Stück 190 Tonnen wog und deshalb über keine Brücke fahren konnte, um einen Feind aufzusuchen. Inzwischen fand die „Maus“ einen zeitgemäßen Nachfolger in Gestalt des Mercedes EQC, einem 2,5 Tonnen schweren Elektropanzerwagen, der es mit einer Batterieladung von Frankfurt nach Köln zum Rosenmontagszug, nicht aber zurück schafft.

Geradezu legendär ist die „Dicke Bertha“, ein Mörser mit 42-Zentimeter-Kaliber, der 1914 als ultimative Waffe gegen Bunker gebaut wurde. Um das Ding in die Nähe der Front zu bugsieren, brauchte man ein Dutzend Eisenbahnwaggons und außerdem ein Beton-Fundament, damit die „Wunderwaffe“ beim Einsatz vor Frankreich nicht vom Rückstoß bis an die holländische Grenze retourniert wurde. Beim ersten Versuchseinsatz hätte das 150-Tonnen-Ding mangels Zielgenauigkeit übrigens fast den Generalstab umgebracht. Das verheißt nichts Gutes für Europas Karma, denn Mario Draghi und Friends haben den Namen „Dicke Bertha“ für ihre Billionenschuldentürme adoptiert.

Bei klarem Wetter kann man übrigens vom 185 Meter hohen EZB-Turm im Osten von Frankfurt herüber zum Senkenbergmuseum im Westend schauen, eine der berühmtesten Naturkundesammlungen der Welt. Den Eingangsbereich dominieren Tyrannosaurus, Triceratops und Co. Der Kopf eines Diplodocus überragt die Ausstellung so ähnlich wie die Chefetage der EZB die Stadt, deshalb ist die Leitung so lange wie die Eisenbahnroute von Moskau nach Wladiwostok. Wenn man unten schon mit allen Vieren im Dreck steckt, spricht sich dies oben noch lange nicht herum.

Nur unter den optimalen Verhältnissen eines Schlaraffenlandes konnten die Dinosaurier so prächtig gedeihen. Doch als sich vor 65 Millionen Jahren die Umweltbedingungen drastisch wandelten, traf es die Giganten völlig unvorbereitet. Beim Großen Preis der Evolution machen immer wieder die Kleinen, Genügsamen und Anpassungsfähigen das Rennen. Die Großen bleiben viel eher auf der Strecke. Das hat etwas Tröstliches: Das Skelett eines Sauriers kann als Denkgerüst dafür gelten, wie sich die Dinge auf Erden immer wieder brechen und die mit den dicken Hosen und aufgeblasenen Backen dahinraffen. Bei den Dinosauriern hat es noch 150 Millionen Jahre gedauert, in jüngster Zeit gehts viel schneller.

Anmerkung der EIKE-Redaktion:

Der Artikel erschien zum ersten Mal in ACHGUT am 31.Mai 2020. Wir danken Herrn Maxeiner ganz herzlich für seine Genehmigung, seinen Beitrag in die EIKE-News zu übernehmen.




Der Bundestag als Bühne des politischen Theaters

Pandemiebedingt war am 25. Mai die Öffentlichkeit nur über einen Livestream beteiligt. Es wurde ein großer Anhörungssaal gewählt, um genug Platz für Teilnehmer und Sicherheitsabstände zu haben. Der Saal befindet sich im Marie-Elisabeth-Lüders-Haus. Wir erinnern uns: Das Haus wurde 2003 fertiggestellt und seit 2010 arbeitet man an einem Erweiterungsbau, der wohl 2021 in Benutzung gehen kann. Mehrfache Verzögerungen durch Baumängel wie eine undichte Bodenplatte und eine Kostensteigerung auf fast 250 Millionen Euro verschaffen auch dem Regierungsviertel ein BER1-Feeling. Nun müssen auch bereits installierte Teile des Blockheizkraftwerks wieder verschrottet werden, da sie den inzwischen verschärften Umweltschutzauflagen nicht mehr genügen. Es bleibt dabei: Wenn Politiker als Bauherren auftreten, geraten die Projekte oft zum großen Fass ohne Boden.

Politiker sind auch die Bauherren der deutschen Energiewende, wobei man davon ausgehen kann, dass der komplette und unterbrechungsfreie Umbau des Energieversorgungssystems ein wenig komplizierter sein dürfte als ein Anbau an ein Gebäude des Bundestages.

Zur Aufführung stand die Anhörung des künftigen 26. Gesetzes an, das auf die BMWi-Gesetzeskarte des Energieversorgungssystems geschrieben werden wird. Das Strukturstärkungsgesetz für die betroffenen Regionen, das gleichzeitig beschlossen werden soll, trägt dann die Nummer 27. Zu diesen Gesetzen gesellen sich 33 Verordnungen sowie 25 EU-Richtlinien, -Verordnungen und -Leitlinien hinzu, wohlgemerkt nur für das Energieversorgungssystem. Diese Ansammlung Tausender von Paragrafen offenbart zwei Besonderheiten der Energiewende. Erstens gibt es kein Leitgesetz und keinen Masterplan, der alle wesentlichen Rahmenbedingungen setzt, stattdessen werden die verschiedenen Sektoren und Maßnahmen in einem großen Konvolut von Regularien abgebildet. Zweitens zeigt die hohe Regelungsdichte, dass Marktmechanismen, die zu einer wenigstens teilweisen Selbstregelung hätten führen können, nicht mehr wirken. Planwirtschaftliches Vorgehen erfordert kleinteilige Vorgaben und auch kleinteilige Koordinierung der Umsetzung – woran es sichtbar mangelt.

Gesetz von gestern

Zudem hätte vorher mindestens ein anderes Gesetz, das Erneuerbare-Energien-Gesetz (EEG), neu gestaltet werden müssen. Es ist ein kaum reformierbares Monster, wohl der größte und teuerste Irrtum unserer Gesetzgebung. Das im Paragrafen 1 formulierte Ziel des „stetigen, kosteneffizienten und netzverträglichen Ausbaus“ der Erneuerbaren wird so krachend verfehlt, dass man sich nur wundern kann, dass es infolge seiner reaktionär zu nennenden Wirkung nicht schon längst abgeschafft oder wenigstens kräftig novelliert wurde. Den Hardcore-Paragrafen-Liebhabern unter den Lesern empfehle ich die Lektüre meines Lieblingsparagrafen 36h. Bitte konzentriert lesen und es danach einem Normalbürger erklären. Wer sich in weitere Einzelheiten vertiefen möchte, dem sei die Anlage zum EEG, die 2020er Umlage- und Vergütungskategorientabelle, empfohlen. Mehr als 5.400 Vergütungstatbestände und –höhen sind hier zu besichtigen.

An Vorschlägen zu Änderungen herrscht kein Mangel. Selbst einer der Erst-Autoren aus dem Jahr 2000, Hans-Josef Fell von den Grünen, machte inzwischen einen beachtenswerten Vorschlag, der das Grundsatzproblem der Entkopplung von Stromproduktion und –bedarf wenigstens teilweise entschärfen könnte. Amtierende Politiker wie Altmaier und Söder sprechen sich zumindest für die Senkung der EEG-Umlage aus. Carsten Linnemann, Chef der CDU-Mittelstandsvereinigung, warnt allerdings im Welt-Interview vom 29. Mai davor, dazu Steuergeld zu verwenden: „Einfach Steuergelder in ein überholtes System wie das EEG zu pumpen, wäre definitiv falsch. Es wäre gut, die Stromsteuer zu senken und gleichzeitig das EEG auslaufen zu lassen.“ IG-BCE-Chef Michael Vassiliadis fordert, die EEG-Umlage als Teil des Corona-Konjunkturpakets ganz abzuschaffen und die Kosten der Energiewende über den Bundeshaushalt zu finanzieren: „Nie war das notwendiger als heute.“ Die Streichung der Umlage „hätte eine weitaus sozialere Wirkung als etwa eine Steuerentlastung“. In seiner Wirkung ist das EEG heute nur noch ein Gesetz zur Gewinnsicherung der EE-Anlagenbetreiber und der sie umgebenden Branche. Mit dem Konjunkturpaket des Koalitionsausschusses – Deckelung der Umlage in den Jahren 21 und 22 – wird nun halbherzig ein viel zu kleines Pflaster auf das große Problem geklebt und ein wesentlicher Grund für das absehbare Scheitern der Energiewende weiter zementiert.

Warum wurde nicht schon längst Hand beziehungsweise Stift an dieses überkommene Gesetz gelegt? Die Lobby ist Dank jährlich umgewälzter Milliardensummen äußerst wirkmächtig und vergrünte Politiker sind inzwischen in allen anderen Parteien gut vertreten, sehen wir mal von der AfD ab.

Vorhang auf

Was gibt es nun von dem Stück auf der kreisrunden Bühne des Anhörungssaals zu berichten? Eingeladen waren als Sachverständige Vertreter der Wirtschaft wie zum Beispiel der Stadtwerke München, der Wirtschaftsvereinigung Metalle und der Aurubis, von Verbänden wie dem DIHK, dem Verband Kommunaler Unternehmen, sowie dem DGB. Vertreter und -innen einschlägiger Thinktanks wie Aurora und des Öko-Instituts gesellten sich hinzu. Dazu kam ich als gewöhnlicher treusteuerzahlender Bürger und wohl der Einzige von persönlichen, geschäftlichen, politischen und Lobbyinteressen weitgehend befreiter Teilnehmer.

Die Fraktionen luden natürlich vorrangig jene Sachverständigen ein, die ihre eigene politische Position unterstützen und begründen sollten. Vorher waren Stellungnahmen eingereicht worden, so dass die Ausführungen im Wesentlichen absehbar waren. Oft wurden sehr kleinteilig Details der Formulierungen im Gesetzentwurf bemängelt. In meiner vorab eingereichten Einschätzung ging es eher um die große Perspektive, da ich den eingeschlagenen energiepolitischen Weg grundsätzlich für falsch halte. Dementsprechend blieben auch meine Ausführungen ohne direktes Echo. Als von der AfD Eingeladener genießt man ohnehin einen nicht positiv konnotierten Exoten-Status.Eine der Grundfähigkeiten von Politikern besteht im Unterschied zu Schauspielern darin, unter allen Bedingungen Emotionen verbergen zu können und Pokerface zu zeigen. So blieben die vielen, teils sehr konträren Aussagen ohne erkennbares emotionales Echo. Die Atmosphäre war ruhig und sachlich wie beim nüchternen Sprechtheater. Unruhe kam auf, als ich eine ehemalige energiepolitische Sprecherin der Grünen zitierte, die unter anderem gesagt hatte: „Der Staat muss sich darauf konzentrieren, Rahmenbedingungen zu schaffen, die die Kräfte des Marktes in die richtige Richtung lenken.“ So sprach Michaele Hustedt im Jahr 1999 und es liest sich wie ein Dokument aus der Wirtschaftswunderzeit. Es ist aber nur ungefähr so lange her, wie der Abschluss des Kohleausstiegs noch vor uns liegt. Bis dahin werden noch fünf Bundesregierungen ins Amt kommen und man kann nie wissen, ob deren Qualitäten nicht vielleicht besser sind als die der jetzigen.

Vom Schauspiel zum Drama

Beeindruckend gestalteten sich die Auftritte der Wirtschaftsvertreter, die sachlich und eindringlich die Nöte ihrer Branchen darlegten. Dass die Stromkosten für die Kupferindustrie in Amerika nur halb so hoch sind wie bei uns, dass sich die Preise global bilden, weswegen wir einen im internationalen Wettbewerb wettbewerbsfähigen Strompreis bräuchten. Die Belastungsbegrenzungen für deutsche Aktivitäten zum Klimaschutz seien überlebenswichtig, da andere Regionen der Welt davon weniger oder nicht betroffen sind. Es werde „dem Klima nicht geholfen, wenn hierzulande die Industrie geschwächt und dann Metalle aus Ländern importiert werden, in denen der Klimaschutz keine oder keine vergleichbare Rolle spielt“. Auch die Tatsache, in einem hochentwickelten Industrieland wie Deutschland das Thema Versorgungssicherheit überhaupt ansprechen zu müssen, sei bemerkenswert.

Der Vertreter der STEAG wies auf die Kapitalvernichtung hin, die die zum Teil ausländischen Investoren zu tragen haben und auf nicht konsistente Entscheidungen der Politik innerhalb weniger Jahre. Seiner Stellungnahme hatte er Worte der Kanzlerin aus dem Jahr 2008 vorangestellt, die sie anlässlich der Grundsteinlegung des Steinkohlekraftwerks Westfalen sprach:

„Wenn wir als Industriestandort unsere Eigenversorgung mit Strom erhalten wollen, dann brauchen wir neue, leistungsfähige Kraftwerke in Deutschland. Dazu gehören effiziente, moderne Kohlekraftwerke. […] Ich sage ausdrücklich: Ich möchte nicht, dass ein Industriestandort wie Deutschland von ausländischen Stromlieferungen abhängig wird. […] Deshalb ist die Ablehnung neuer Kraftwerksbauten nicht nur wirtschaftspolitisch kontraproduktiv, sondern sie ist auch umwelt- und klimapolitisch kontraproduktiv.“

Nun sind wir von ausländischen Stromlieferungen abhängig, eindrucksvoll zeigen die Kurven an vielen Tagen, wie der deutsche Stromexport mit dem Sonnenuntergang gleitend in den Import wechselt. Nichts ist falscher als das Narrativ, die Kanzlerin würde die Sachen vom Ende her denken. Das Gegenteil ist der Fall. Dadurch verhinderte sie auch die Option, die CCS2-Technologie voranzutreiben und durch Technologieexport eventuell einen globalen Beitrag zur Schaffung negativer Emissionen leisten zu können. Laut IPCC ist dies heute eine maßgebliche Technologie, um die Pariser Klimaziele überhaupt erreichen zu können. Unmut wurde auch zum Gesetzgebungsverfahren deutlich. Ein solches „Jahrhundertgesetz“ mit einem so mangelhaften Entwurf so vergleichsweise schnell durchwinken zu wollen, ohne die umfangreichen Gegenargumente selbst des Bundesrates entsprechend zu würdigen, sei nicht angemessen.

Die nachdenkliche Stimmung des ernsten Sprechtheaters ging zuweilen über in eine Tragikomödie, wenn beispielsweise ein Linken-Politiker behauptete, ohne Fridays for Future und deren Einsatz für „Klimagerechtigkeit“ hätte es den Gesetzentwurf nicht gegeben, der Ausstieg 2038 sei sowieso zu spät und die Frage stellte, welche Wirkung das Gesetz auf das 1,5-Grad- oder 2-Grad-Ziel habe. Letztere Frage ließe sich ganz schnell beantworten („keine“), aber in entsprechenden Kreisen stehen nicht realistisch zu erreichende Ergebnisse zur Debatte, sondern Symbolik und der schnellstmögliche Kohleausstieg. Für den zu vereinbarenden Weg dahin dürfe es auch keinen Vertrauensschutz geben, ergo keine Planungssicherheit für Energieunternehmen und Industrie, außerdem seien Entschädigungen für den Kohleausstieg unnötig.

Offenes Ende

Fakten und belastbare Zukunftsaussichten erhoffte man sich vom Auftritt der Hauptgeschäftsführerin des BDEW (Bundesverband der Energie- und Wasserwirtschaft). Bis 2030 bräuchten wir 17.000 Megawatt Neuinstallation an Gaskraftwerken, der realisierte Zubau betrug 2017 432 MW, 2018 dann 231 MW. Das sei nicht das, „wohin wir eigentlich in Zubauschritten kommen müssen“, aber wie man nun dahin kommt, das führte sie nicht aus. Helfen sollen Erneuerbare Wärme, grünes Gas (wozu man Strom braucht) und Wärmepumpen (die auch Strom brauchen). Die Frage nach Ersatzinvestitionen für die entfallende gesicherte Leistung beantwortete sie als gelernte Grüne mit dem Hinweis auf den aufgehobenen Solardeckel und die neuen Abstandsregeln bei der Windenergie, auf Sektorkopplung und den schon erwähnten grünen Wasserstoff. Wann welche Gaskraftwerke in Betrieb gehen, ist offensichtlich unklar. Sehr klar dagegen ist, wann welches Kohlekraftwerk abgeschaltet werden soll.

Viel Kleinteiliges wurde vorgetragen: Zum Südbonus, zur KWK-Regelung, zum Kohleersatzbonus, zur Regelbasierung, zu Beihilferecht, H2-Readyness und Altersreihung und weiterem. Aber noch so fein ziselierte Regelungen en Detail werden den verfehlten Ansatz nicht heilen können.

Immer wieder beziehen sich Aussagen der Stilllegungsambitionierten auf den Abschlussbericht der KWSB (Kommission für Wirtschaft, Strukturwandel und Beschäftigung, umgangssprachlich Kohlekommission), so als würde mit diesem ein als heilig anzusehendes Dokument vorliegen. Wiederholt wurde in Medien behauptet, in der Kommission hätte sich der Querschnitt der Gesellschaft abgebildet. Das kann man so sehen, allerdings war es kein repräsentativer Querschnitt, sondern eine Zusammenstellung von Menschen, die der Regierung eine gewünschte Entscheidung begründen sollten.In einer CO2-zentrierten Weltsicht haben andere Aspekte als die Senkung von Emissionen keinen Platz. Aus der Perspektive des Hammers sehen alle Probleme wie Nägel aus. Zu groß ist der Druck von Grünen und Roten, endlich Abschalttermine festzunageln und zu groß das willfährige Entgegenkommen der CDU und deren Orientierungslosigkeit im Geflecht wirtschaftlicher Komplexität und politischer Abhängigkeiten.

Dann fiel der Vorhang. Dass die vielen vorgebrachten Informationen, Argumente, Forderungen und Wünsche einen Niederschlag in Form einer geänderten Gesetzesvorlage finden werden, ist nur in geringem Umfang zu vermuten. Das 181-seitige Papier liegt schon in Brüssel zur Begutachtung vor.
So führt der Weg der abtretenden Mitwirkenden aus dem Marie-Elisabeth-Lüders-Haus an einer Baustelle vorbei, die den Abstieg deutscher Infrastrukturpolitik symbolisiert. Immerhin ist der BER bald fertig.


Hier finden sich die Unterlagen zur Veranstaltung
(BT-Drucksachen, Sachverständigenliste, Stellungnahmen, Video 2:57 h,
in Kürze auch das Protokoll).

1 – BER: Flughafen Berlin-Brandenburg „Willy Brandt“ in Schönefeld,
immer noch nur auf dem Landweg erreichbar, dafür emissionsarm.
2 – CCS: Carbon Capture and Storage – Abtrennung von CO2 aus
Rauchgasen und Speicherung

Der Beitrag erschien zuerst bei TE hier




Wolkenrückkopplung – falls es sie überhaupt gibt – ist negativ

Ich habe bei einem begutachteten Journal eine Studie eingereicht, und bemerkenswerterweise hat sich das Journal dankbar geäußert und sie ins Netz gestellt, während die Begutachtung läuft. Hier folgt diese Studie. Aber es war nicht einfach, bis zum folgenden Punkt zu kommen: Ich denke, dass das in der Studie von mir Beschriebene von großer Bedeutung für die Klimawissenschaft ist, wie vielleicht aus einigen Formulierungen darin hervorgeht. Darum war ich erpicht darauf, sie in einem begutachteten Journal veröffentlicht zu sehen – dem IPCC zufolge sollten nur begutachtete Studien herangezogen werden. Das erste Journal, bei dem ich die Arbeit eingereicht hatte (November 2019) brauchte zwei Monate, um mir mitzuteilen, dass die Studie außerhalb der von dem Journal umfassten Thematik liege – eine seltsame Behauptung. Das zweite Journal brauchte vier Monate, um mich zu benachrichtigen, das man bisher keinen Begutachter gefunden hätte und dass die Studie eines anderen Formats für Quellenangaben sowie einiger kleiner anderer Formatänderungen bedarf. Also zog ich die Studie zurück. Ich habe ein paar Verbesserungen an der Studie vorgenommen während dieses Zeitraumes, aber ich bezweifle, ob das hinsichtlich der Begutachtungen ins Gewicht fällt.

Die Studie: Wolkenrückkopplung – so es sie überhaupt gibt – ist negativ

Autor: M. Jonas

ABSTRACT

Nahezu alle vom IPCC herangezogenen Klimamodelle zeigen eine starke positive Wolken-Rückkopplung. Hierbei handelt es sich um den Prozess, bei dem eine sich ändernde Temperatur an der Erdoberfläche die Wolkenbedeckung beeinflusst, was wiederum die Temperatur beeinflusst. In dieser Studie werden alle monatlichen Satellitendaten im Zeitraum Juli 1986 bis Juni 2017 analysiert, um die Klimamodelle auf diesen Punkt hin abzuklopfen. Wie erwartet zeigten sich über diesen Zeitraum steigende Trends der Wassertemperatur und zurückgehender Wolkenbedeckung. Aber die Analyse zeigte auch eine unerwartete Relation zwischen Wassertemperatur und Wolkenbedeckung: steigende Wassertemperaturen sind verbunden mit zunehmender – und nicht abnehmender – Wolkenbedeckung während der folgenden paar Monate. Außerdem neigt die Zunahme der Bewölkung dazu, einen größeren Anteil der Sonneneinstrahlung abzuhalten als sie die Ausstrahlung von den Ozeanen behindern. Die unvermeidliche Schlussfolgerung daraus lautet, dass die Wolken-Rückkopplung negativ ist. In jedem Falle kann die beobachtete Abnahme der Bewölkung über den Ozeanen im Zeitraum 1986 bis 2017 nicht einer Rückkopplung durch steigende Temperaturen geschuldet sein. Die Implikationen für Klimamodelle sind verheerend.

1. INTRODUCTION

Die Ozeane bedecken etwa 70% der Erdoberfläche und speichern in den obersten 3 Metern mehr Wärme als die gesamte Atmosphäre. Folglich liegt der Schlüssel zum Verständnis eines globalen Klimawandels untrennbar in den Ozeanen.

Spencer und Braswell (13), welche Satellitendaten und Modelle ausgewertet hatten, berichteten, dass die Diagnose der atmosphärischen Rückkopplung im Klimasystem ein nach wie vor ungelöstes Problem darstellt. Sie schreiben: „Die Größenordnung der Reaktion der Temperatur im Klimasystem auf ein aufgedrücktes Energie-Ungleichgewicht ist heute noch genauso unbekannt wie vor Jahrzehnten schon“. Zieht man jedoch ausschließlich Satellitendaten über einen längeren Zeitraum heran, löst diese Studie eines der großen Aspekte bzgl. Rückkopplungen, nämlich das Signal der Wolken-Rückkopplung. In die Studie gehen ausschließlich empirische Daten ein. Genauer, sie verwendet Daten aus dem gesamten Zeitraum, von der gesamten Ozeanfläche – und es gehen keinerlei Modellwerte ein.

Das IPCC (5) definiert Klima-Rückkopplung als eine Wechselwirkung zwischen Prozessen, wenn „ein initaler Prozess Änderungen bei einem zweiten Prozess bewirkt, welche wiederum den ersten Prozess beeinflussen“. Und es stellt fest, dass eine Möglichkeit, dies zu quantifizieren, darin besteht, „es als Reaktion des Klimasystems auf eine globale Temperaturänderung“ zu betrachten. Wolken-Rückkopplung ist also der Prozess, durch welchen die Bewölkungsmenge durch eine sich ändernde Temperatur beeinflusst wird, was wiederum die Temperatur beeinflusst. Man beachte, dass die Wolken-Rückkopplung nicht abhängig ist von der ursprünglichen Ursache der Temperaturänderung.

Rückkopplungen aufgrund der Temperatur waren schwierig von anderen Auswirkungen auf die Temperatur zu trennen, läuft doch der initiale Prozess „fast simultan mit der Temperaturänderung“, aber für den zweiten Prozess gilt, dass es „eine substantielle zeitliche Verzögerung zwischen Antrieb und der Reaktion der Temperatur gibt infolge der Wärmekapazität der Ozeane“ (13).

Ziel dieser Studie ist es zu erkennen, ob die Auswirkungen der Wassertemperatur (SST) auf die Bewölkung erkannt werden können. Hierzu werden SST-Änderungen verglichen mit späteren Änderungen der Bewölkungsmenge.

2. Verfahren

Monatliche Gitterpunkts-SST-Daten [gridded monthly SST data] wurden heruntergeladen vom NOAA/OAR/ESRL PSD in Boulder. Jedes Gitterquadrat ist 1 Längengrad mal 1 Breitengrad groß.

In gleichem Umfang wurden monatliche Wolken-Daten (Wolkenbedeckung in % und optische IR-Daten) vom International Satellite Cloud Climatology Project (ISCCP) im NASA Goddard Institute for Space Studies (GISS) heruntergeladen. Nur Ozean-Daten wurden verwendet ohne Daten vom Festland und an den Küsten.

Daten der beiden Datensätze wurden nur für die Monate und die Gebiete verwendet, in denen sowohl die Wolken- als auch die SST-Daten vollständig waren. SST-Daten in Gebieten und Monaten fehlten aufgrund der Bedeckung mit Meereis.

Für jeden Monat wurden die SST und die Wolkenbedeckung über die gesamte Ozeanfläche gemittelt. Für die SST wurden die einzelnen Temperaturwerte in Kelvin umgerechnet, vor der Mittelwertbildung auf die 4. Potenz angehoben und dann wieder in Grad C umgerechnet. Dadurch wurde sichergestellt, dass sich die berechneten durchschnittlichen SSTs korrekt auf die von der Meeresoberfläche ausgehende Strahlung bezogen.

Für jeden Monat nach dem ersten Jahr wurde die globale Veränderung der SST gegenüber dem Vorjahr berechnet (hier als „dSST“ bezeichnet). Diese wurden dann über eine unterschiedliche Anzahl von Monaten gemittelt, und jeder Durchschnitt wurde im Vergleich zum Endmonat des gemittelten Zeitraums aufgezeichnet. Die globale jährliche Veränderung der Wolkenbedeckung („dCloud“) wurde für die gleiche Anzahl von Monaten gemittelt, aber für spätere Perioden, die sich nicht mit dem für den dSST verwendeten Zeitraum überschneiden. Zu Vergleichszwecken wurde dCloud für den gleichen Monat wie die zugehörige dSST aufgezeichnet, und zwar für jede Kombination aus der Anzahl der gemittelten Monate und der Anzahl der Monate später. Der lineare Trend von dCloud gegen dSST wurde dann für jede Kombination unter Verwendung der Standardtabellenfunktion Trend berechnet (NB der Trend war von dCloud gegen dSST, nicht gegen die Zeit).

3. Grundgedanken

Wie Spencer und Braswell feststellten (13), ist die Rückkopplungs-Reaktion auf die Temperatur „fast simultan mit der Temperaturänderung“. Eine Änderung der SST sollte daher sehr bald danach zu einer Änderung der Wolkenbedeckung (d.h. Wolkenrückkopplung) führen. Es besteht daher die Möglichkeit, dass eine Wolken-Rückkopplung in den monatlichen Daten festgestellt werden kann. Der relevante Vergleich, der vorgenommen werden muss, ist der zwischen einer Änderung der SST und einer Änderung der Wolkenbedeckung im folgenden Monat oder in den folgenden Monaten.

Diese Studie verwendet Veränderungen von Jahr zu Jahr und behandelt alle Kalendermonate gleich, um jegliche Möglichkeit saisonaler Effekte zu vermeiden. Sie vermeidet sich überschneidende Zeiträume für dSST und dCloud, um die Möglichkeit zu minimieren, dass der Einfluss von Wolken auf die SST die Ergebnisse beeinflusst. Und weil nach einem schnellen Effekt gesucht wird, begrenzt sie jeden betrachteten Gesamtzeitraum (vom ersten dSST-Monat bis zum letzten dCloud-Monat) auf nicht mehr als 12 Monate.

Es ist unwahrscheinlich, dass sich der Effekt einer Änderung der Wolkendecke innerhalb eines Monats oder innerhalb weniger Monate in den SST-Daten niederschlägt [13], so dass ein Vergleich der Daten in umgekehrter Richtung – Änderung der Wolkendecke im Vergleich zur SST-Änderung im folgenden Monat oder in den folgenden Monaten – wahrscheinlich nicht zielführend ist. Es ist jedoch bekannt, dass Wolken einen kühlenden Effekt auf das Klima haben, siehe zum Beispiel Pokrovsky (8), der einen (globalen) Erwärmungseffekt von 0,07°C pro Abnahme der Bewölkung um 1% berechnet.

4. Ergebnisse

4.1 Wolkendecke

In allen Fällen mit dCloud bis zu 9 Monate später als dSST, war der lineare Trend von dCloud gegen dSST positiv, und dies war ein starkes und konsistentes Muster. Mit anderen Worten, den Monaten mit höherem dSST folgten tendenziell Monate mit höherer dCloud, und niedrigerem dSST folgten tendenziell niedrigere dCloud.

Die linearen Trends von dCloud gegenüber dSST sind in Abbildung 1 und grafisch in Abbildung 2 dargestellt.

Lineare Trends der globalen mittleren dCloud vs. dSST – ungewichtet (d. h. in gleich großen Gebieten) +/- 2*Sigma

Abbildung 1. Lineare Trends der globalen durchschnittlichen dCloud im Vergleich zu dSST, mit 95% Vertrauensniveau. Jeder Monat wird über die unter „Monate gemittelt“ angegebene Anzahl von Monaten gemittelt. Die dCloud-Werte gelten für die angegebene Anzahl von Monaten später.

Abbildung 2: Wie Abbildung 1, nur graphisch. Die Grenzen des 95% Vertrauensniveaus sind eingezeichnet.

Man beachte, dass von den Trends erwartet werden kann abzufallen mit zunehmenden „Monate später“ infolge des Einflusses der dazwischen liegenden Monate.

Die Trends sind eindeutig erkennbar in Graphiken mit dem Vergleich von dCloud und dSST und reflektieren die Daten als Ganzes und nicht nur einige Ausreißer. Einige Beispiele zeigen die Abbildungen 3, 4 und 5.


Abbilung 3: dSST für 1 Monat im Vergleich zu dSST im folgenden Monat

Abbildung 4: dSST gemittelt über 3 Monate im Vergleich zu dSST während der folgenden drei Monate


Abbildung 5: dSST gemittelt über 6 Monate im Vergleich zu dCloud über die folgenden 6 Monate.

Die Graphiken der Abbildungen 3, 4 und 5 sind alle im gleichen Maßstab.

4.2 Licht-Undurchlässigkeit von Wolken

Wolken größerer optischer Dichte unterbinden mehr Strahlung – sowohl was die Sonneneinstrahlung als auch die Ausstrahlung der Ozeane betrifft. Obige Analyse wurde neu berechnet, wobei Wolken gewichtet nach Lichtundurchlässigkeit einbezogen wurden. Die Lichtundurchlässigkeit, so wie sie in dieser Studie betrachtet wird, leitet sich folgendermaßen aus der optischen Dichte [optical depth] ab:

Die optische Dichte d wird gegeben durch

d = ln(Fr/Ft)

wobei

d = die optische Dichte,

Fr = flux received,

Ft = flux transmitted.

Das Verhältnis q der von den Wolken beeinflussten Strahlung –

q = (FrFt)/Fr

wird hier als „Licht-Undurchlässigkeit“ [opacity] genommen. q kann aus der Formel von d abgeleitet werden als

q = 1 – e(-d)

Die Lichtundurchlässigkeit q kann legitimerweise arithmetisch gemittelt werden über Wolkenanteile.

Wenn die Wolkendaten nach Lichtundurchlässigkeit gewichtet werde, ergibt sich die Tabelle dCloud vs. dSST so:

Lineare Trends des globalen Mittels von dCloud vs. dSST – gewichtet nach Lichtundurchlässigkeit +/- 2*Sigma

Abbildung 6. Lineare Trends der globalen durchschnittlichen dCloud gegen dSST mit 95% Vertrauensniveau, wie in Abbildung 1, aber mit nach Lichtundurchlässigkeit gewichteter Wolkendecke.
Wie aus den Abbildungen 1 und 6 ersichtlich, tendiert die erhöhte Bewölkung in Verbindung mit erhöhter SST auch dazu, für mehrere Monate eine größere Lichtundurchlässigkeit zu haben. Es gibt also nicht nur eine erhöhte Wolkenfläche, sondern auch eine erhöhte Wolkenmenge (gemessen an ihrer Fähigkeit, Strahlung abzufangen).

4.3 Auswirkung auf einfallende und ausgehende Strahlung

Um den relativen Einfluss der Wolkenveränderungen auf die ein- und ausgehende Strahlung zu bestimmen, wurde die Analyse neu berechnet, wobei die Wolken gewichtet wurden (a) mit der Opazität multipliziert mit der einfallenden Sonnenstrahlung (monatliche Sonnenstrahlungsdaten aus [2]) und (b) mit der Opazität multipliziert mit der ausgehenden Meeresstrahlung (aus SST). Es ist zu beachten, dass ein Unterschied zwischen (a) und (b) in erster Linie aus den unterschiedlichen Verteilungen der einfallenden Sonnenstrahlung und der ausgehenden Meeresstrahlung nach Breitengraden resultieren würde, nicht aus Variationen der Sonnenleistung.

Die Tabelle von dCloud vs. dSST würde dann das Aussehen wie in den Abbildungen 7 und 8 bekommen.

Lineare Trends der globalen durchschnittlichen dCloud vs. dSST – gewichtet nach Opazität der Wolken und Sonneneinstrahlung +/- 2*Sigma

Abbildung 7. Lineare Trends der globalen durchschnittlichen dCloud vs. dSST mit 95% Vertrauensniveau, wie in Abbildung 1, aber mit Wolkendecke gewichtet mit der Opazität multipliziert mit der einfallenden Sonnenstrahlung.
Lineare Trends der globalen durchschnittlichen dCloud im Vergleich zum dSST – gewichtet nach Wolkendecke und Meeresstrahlung +/- 2*Sigma

Abbildung 8. Lineare Trends der globalen durchschnittlichen dCloud vs. dSST mit 95% Vertrauensniveau, wie in Abbildung 1, aber mit Wolkendecke gewichtet mit Opazität multipliziert mit ausgehender Meeresstrahlung.

In den ersten Monaten sind alle mit der einfallenden Sonnenstrahlung gewichteten Trends höher als die mit der ausgehenden Meeresstrahlung gewichteten Trends. Dies zeigt, dass die Zunahme der Wolkendecke in Verbindung mit der Zunahme der SST eine größere Auswirkung auf die einfallende Strahlung hat als auf die ausgehende Strahlung. Mit anderen Worten, sie sind eine Nettoabkühlung.

5. CONCLUSION

Die Daten zeigen, dass es eine positive Korrelation zwischen Veränderungen des SST und späteren Veränderungen der Wolkendecke gibt. Wie oben erwähnt, ist bekannt, dass Wolken einen globalen Kühleffekt haben, und die Analyse hat gezeigt, dass Änderungen der Wolkendecke in Verbindung mit Änderungen des SST-Anstiegs die Wolken tatsächlich einen stärkeren Kühleffekt haben. Die unausweichliche Schlussfolgerung ist, dass jede Rückkopplung von Wolken negativ ist.

Diese Schlussfolgerung hat tiefgreifende Auswirkungen auf die Klimamodelle. Alle Modelle, auf die sich der IPCC bezieht, sind mit positiver Wolkenrückkopplung parametrisiert – „die GCMs sagen alle eine positive Wolkenrückkopplung voraus“ – und sie schreiben fast die Hälfte der gesamten anthropogenen globalen Erwärmung der Wolkenrückkopplung zu [9]. Dies ist ein möglicher Grund dafür, dass die meisten Klimamodelle die globale Erwärmung überschätzen [4] [12], obwohl Anagnostopoulos [1] sagt, dass es viel bedeutendere Probleme gibt.

Eine weitere Schlussfolgerung mit tiefgreifenden Auswirkungen auf die Klimamodelle ist, dass die beobachtete Abnahme der Bewölkung zwischen 1986 und 2017 keine Rückkopplung durch steigende Temperaturen war und dass sie stark genug war, um schließlich jede negative Wolkenrückkopplung aufzuheben. Der IPCC-Bericht [9] legt nahe, dass die Modelle nicht die Möglichkeit erkennen, dass Wolken ein anderes Verhalten als eine Rückkopplung haben können: in den Key Uncertainties sagen sie von Wolken nur: „Es bestehen weiterhin große Unsicherheiten darüber, wie Wolken auf den globalen Klimawandel reagieren könnten“. Diese Studie zeigt, dass Wolken ein bedeutendes Verhalten zeigen, welches in den Modellen nicht berücksichtigt wird.

Die Auswirkungen auf die Klimamodelle sind verheerend. Es muss hinterfragt werden, ob sie für ihren Zweck geeignet sind.

6. DISKUSSION

6.1 Interpretation

1. Die Änderungen der Wolkendecke wie in Abbildung 1 werden verursacht durch Änderungen der Wassertemperatur (SST). Falls das wirklich so ist, dann ist die Wolken-Rückkopplung negativ.

2. Die Änderungen der Bewölkung und die SST-Änderungen werden beide durch einen unbekannten Faktor ausgelöst (d. h. Korrelation ist nicht Kausalität). Falls das der Fall ist, dann ist die Wolken-Rückkopplung Null, oder

3. Es kommt eine Kombination der Punkte 1 und 2 in Betracht. Falls das der Fall ist, dann ist die Wolken-Rückkopplung nicht so negativ wie nach Punkt 1, aber immer noch negativ.

6.2 Andere Interpretationen

Jede andere Interpretation als die oben genannten erscheinen außerordentlich unwahrscheinlich und würden in jedem Fall die vom IPCC herangezogenen Klimamodelle völlig außer Kraft setzen. Zum Beispiel:

(a) Wenn eine Zunahme der SST tatsächlich zu weniger Wolken führt, dann müssten ein oder mehrere unbekannte Faktoren mit größerer Wirkung in die entgegengesetzte Richtung wirken, d.h. ein oder mehrere unbekannte Faktoren müssten nach einer Zunahme der SST mehr Wolken erzeugen, obwohl eine Zunahme des SST dazu führt, dass es weniger Wolken gibt.

(b) Falls eine Zunahme der SST zwar mehr Wolken verursacht, Wolken aber tatsächlich eine erwärmende und nicht eine abkühlende Wirkung haben, dann müssten ein oder mehrere unbekannte Faktoren längerfristig wirken, um sowohl die Wolkendecke zu verringern als auch die SST zu erhöhen.
Wie bereits erwähnt, sind diese beiden Möglichkeiten äußerst unwahrscheinlich und können mit Sicherheit ausgeschlossen werden. Insbesondere die Alternative (b) scheint durch die obige Analyse unter Verwendung von Gewichtungen der ein- und ausgehenden Strahlung ohnehin ausgeschlossen zu sein.

6.3 Quantifizierung

Es wäre verlockend, die negative Wolken-Rückkopplung zu quantifizieren, indem man die linearen Trends zwischen dCloud und dSST, wie oben berichtet, und die linearen Trends von SST und Wolkenbedeckung über den analysierten Zeitraum verwendet.

Eine solche Quantifizierung wäre zum jetzigen Zeitpunkt nicht zu rechtfertigen, denn solange die beteiligten Prozesse nicht einigermaßen gut verstanden sind, wären sie viel zu unzuverlässig. Es gibt einen offensichtlichen möglichen Prozess für eine negative Rückkopplung von Wolken: Wenn sich die Ozeane erwärmen, geben sie mehr Wasserdampf in die Atmosphäre ab, der dann in den nächsten Monaten weitere Wolken bildet. Dieses Konzept wird durch die Beobachtung eines erhöhten Wasserkreislaufs durch Durack [3] gestützt. Der Prozess muss jedoch erst anhand der hier gewonnenen Erkenntnisse bewertet werden, bevor er als der relevante Prozess angenommen werden kann.

6.4 Was kommt als Nächstes?

Eine Quantifizierung des Cloud-Feedbacks ist eindeutig erforderlich, wie in 6.3 Quantifizierung.

Aber es sind auch weitere Untersuchungen zum Verhalten von Wolken erforderlich:

Diese Studie zeigt, dass die beobachtete Abnahme der Bewölkung zwischen 1986 und 2017 keine Rückkopplung durch steigende Temperaturen war. Daraus folgt, dass ein Teil der Zunahme des SST in diesem Zeitraum durch eine davon unabhängige Verringerung der Wolkendecke verursacht worden sein könnte. Herauszufinden, was die Ursache für die Verringerung der Bewölkung war, wäre ein großer Fortschritt für die Klimawissenschaft. Einige Arbeiten sind bereits durchgeführt worden, z.B. [6] [14].

Auf einer allgemeineren Ebene: Es ist überdeutlich, dass die Klimamodelle das Verhalten von Wolken nicht abbilden können. Es muss daher ernsthaft in Frage gestellt werden, ob die Modelle, so wie sie derzeit aufgebaut sind, jemals überhaupt einen Wert für die Vorhersage des zukünftigen Klimas haben werden. Es wäre vernünftig, den Rat von Anagnostopoulos [1] zu berücksichtigen, dass ein Paradigmenwechsel notwendig ist.

6.5 Allgemeine Trends

Graphiken der SST (Grad Celsius) und Bewölkung (%) zeigen die Abbildungen 9 und 10. Diese stützen die Aussagen im Abstract: „Wie erwartet: die Trends für den gesamten Zeitraum sind steigende SST und abnehmende Bewölkung“.

Abbildung 9: SST-Daten über den untersuchten Zeitraum mit linearem Trend

Abbildung 10: Bewölkungs-Daten über den untersuchten Zeitraum mit linearem Trend.

Die Datenquellen für die SST und die Bewölkung werden in Abschnitt „2. Verfahren“ genannt.

References

1. Anagnostopoulos GG et al 2010: A comparison of local and aggregated climate model outputs with observed data. Hydrological Sciences Journal 55(7), 1094–1110.

https://doi.org/10.1080/02626667.2010.513518

2. Coddington et al 2015: NOAA Climate Data Record (CDR) of Total Solar Irradiance (TSI), NRLTSI Version 2 [monthly TSI]. NOAA National Centers for Environmental Information doi:10.7289/V55B00C1. Data downloaded Jan 2020 from https://www.ncei.noaa.gov/data/total-solar-irradiance/access/monthly/

3. Durack et al 2012: Ocean Salinities Reveal Strong Global Water Cycle Intensification During 1950 to 2000. Science 27 Apr 2012 Vol. 336, Issue 6080, pp. 455-458 DOI: 10.1126/science.1212222

4. Fyfe J et al 2013: Overestimated global warming over the past 20 years. Nature Climate Change 3,767–769 (2013) doi:10.1038/nclimate1972

5. IPCC 2007: Annex I, Glossary, in Climate Change 2007: Synthesis Report. Contribution of Working Groups I, II and III to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Core Writing Team, Pachauri, R.K and Reisinger, A. (eds.)]. IPCC, Geneva, Switzerland, 104 pp.

6. Kamide Y 2007: Effects of the Solar Cycle on the Earth’s Atmosphere (in Handbook of the Solar-Terrestrial Environment). Springer, Berlin, Heidelberg.

https://doi.org/10.1007/978-3-540-46315-3_18

7. Nagaraja MP 2019: Climate Variability. NASA Science. Accessed 18 Nov 2019 at https://science.nasa.gov/earth-science/oceanography/ocean-earth-system/climate-variability/

8. Pokrovsky OM 2019: Cloud Changes in the Period of Global Warming: the Results of the International Satellite Project. Russian Academy of Sciences;

https://doi.org/10.31857/S0205-9614201913-13

9. Randall DA et al 2007: [Climate] Models and Their Evaluation. In: Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon S et al (editors.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

10. Reynolds RW et al 2002: An improved in situ and satellite SST analysis for climate. Journal of Climate, 15, 1609-1625.  Data accessed 26-30 Aug 2019 at https://www.esrl.noaa.gov/psd/data/gridded/data.noaa.oisst.v2.html

11. Rossow WB and Schiffer RA 1999: Advances in understanding clouds from ISCCP. Bulletin of the American Meteorological Society, 80, 2261-2288, doi:10.1175/1520-0477(1999)080<2261:AIUCFI>2.0.CO;2. Data accessed 26 Aug 2019 at https://www.ncei.noaa.gov/data/international-satellite-cloud-climate-project-isccp-h-series-data/access/isccp/hgm/

12. Spencer RW 2013: STILL Epic Fail: 73 Climate Models vs. Measurements, Running 5-Year Means. (hier)

13. Spencer RW and Braswell WD 2011: On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance. Remote Sensing 2011, 3(8), 1603-1613; https://doi.org/10.3390/rs3081603

14. Svensmark J et al 2016: The response of clouds and aerosols to cosmic ray decreases, Journal of Geophysical Research – Space Physics, 2016, DOI: 10.1002/2016JA022689.

ENDE DER STUDIE

Die Studie kann verändert werden müssen, um dem Begutachtungs-Verfahren zu genügen. Aber in der Zwischenzeit handelt es sich bei der oben vorgestellten Studie um genau diejenige, welche dem Journal eingereicht worden war.

Die „Iris”-Theorie

Richard Lindzen et al. stellten im September 2000 die Hypothese auf, dass die Erde eine „adaptive Infrarot-Iris“ haben könnte, die eine signifikante negative Rückkopplung auf Änderungen der Oberflächentemperatur liefert – die „Iris“-Theorie. Wenn ich diese Arbeit richtig verstanden habe, dann unterstützt meine obige Arbeit die „Iris“-Theorie nicht, denn die „Iris“-Theorie basiert auf der Oberflächenerwärmung, die in den Tropen zu weniger Wolken eines bestimmten Typs führt, während ich festgestellt habe, dass die Daten mit der Zunahme der Oberflächentemperatur eine Wolkenzunahme assoziieren.

Nebenbei: Meine Ergebnisse widerlegen auch nicht die „Iris“-Theorie, denn die „Iris“-Theorie basiert auf einer spezifischen Wolkenreduktion in einem begrenzten Gebiet, während meine Analyse nur globale SST- und Wolkendaten verwendet.

Im Januar 2002 argumentierten Bing Lin et al. gegen die „Iris“-Theorie, indem sie sagten, dass die Änderungen der Bewölkung in Wirklichkeit eine Erwärmung und nicht eine Abkühlung darstellten und dass daher die Rückkopplung, auf welche Bezug genommen wurde, positiv und nicht negativ war.

Mein Beitrag unterstützt das Argument von Bing Lin nicht mehr als das von Richard Lindzen, und zwar aus dem gleichen Grund: Bing Lin bezieht sich auf die gleiche Wolkenreduktion.

Übrigens: Argumente, die auf verschiedenen Wolkentypen basieren, werden nicht funktionieren, wenn jemand sie zu benutzen versucht, um meine Ergebnisse zu widerlegen. Das liegt daran, dass auf eine Erwärmung die Bewölkung zunimmt. Wenn der betreffende Wolkentyp es irgendwie schafft, dies zu einer positiven RückKopplung zu machen – trotz meiner Feststellung einer erneuten Wolken-Opazität – dann wird die positive Rückkopplung noch mehr Wolken erzeugen, die noch mehr positive Rückkopplungen ergeben werden, usw., usw. Aber … auf längere Sicht, wenn die Oberflächentemperatur steigt, gibt es weniger Wolken, nicht mehr, so dass mein Argument in 6.2 (b) zutrifft.

Und eine letzte Bemerkung: Alles, was ich getan habe war, die Daten zu analysieren. Ich stelle keine Theorien auf, ich verwende keine Modelle, und ich verwende keine ausgeklügelten statistischen Tricks oder Rosinenpickerei, um die Daten zu einem zweifelhaften Ergebnis zu manipulieren. Es werden alle verfügbaren Daten verwendet, und das einzige angewandte Verfahren ist die einfache gewichtete (und ungewichtete) Mittelung. Das Diagramm der Wolkenänderung gegen die Temperaturänderung geht in die „falsche“ Richtung. Punkt.

Link: https://wattsupwiththat.com/2020/06/05/cloud-feedback-if-there-is-any-is-negative/

Übersetzt von Chris Frey EIKE




Bericht zur Coronalage 10.6.2020 – rückwärts nimmer

In meinem letzten Bericht zur Coronalage erklärte ich, warum die Infektionswelle bei uns schon lange vorbei ist. Dies führte erwartbar zu kontroversen Reaktionen. Ein Beitrag auf ScienceFiles beschuldigt mich gar, Fake News zu verbreiten. Seitdem werde ich täglich mit der Bitte um Richtigstellung darauf angesprochen. Streitereien zwischen Autoren haben schnell etwas Rechthaberisches, und eigentlich wollte ich die Achgut.com-Leser damit nicht langweilen. Aus welchen Gründen auch immer, wurde meine Erwiderung auf ScienceFiles nicht veröffentlicht, deshalb wähle ich diesen Weg. Da die Vorwürfe des ScienceFiles-Autors einen ganz wesentlichen Punkt betreffen, der uns immer noch unter Zwang davon abhält, ein normales Leben zu führen und die katastrophalen Schulschließungen endlich zu beenden, möchte ich nun auf Achgut die Dinge klarstellen.

Sciencefiles.org wird laut Wikipedia von Großbritannien aus betrieben, und dort wurde schon zu einem Zeitpunkt vor einer neuen Epidemie, die sich von China aus nach Europa verbreitet, gewarnt, als das RKI die Infektion noch verharmloste. Das war durchaus verdienstvoll. Als zu den Bildern aus Wuhan die aus Bergamo dazukamen, wurde die zuvor als „rechts“ stigmatisierte Epidemie-Warnung in einem rasanten Schwenk plötzlich zur Mainstreammeinung. Doch spätestens ab Mitte März wurde sehr deutlich, dass sich die Hotspots eben nicht ausbreiten, die Sterblichkeit viel geringer ist als angenommen und sich die Todesfälle allermeist auf sehr alte, vorerkrankte Menschen beschränken.

Dies nahm man auf ScienceFiles aber nicht zum Anlass, die Berichterstattung der neuen Lage entsprechend anzupassen, also auch die verheerenden Nebenwirkungen der Schutzmaßnahmen zu berücksichtigen. Man verrennt sich in eine extrem einseitige Sicht auf die Gefahrenlage und grenzt meiner Meinung nach die wahren Verhältnisse aus. Anders kann ich die dort hastig dahingeschluderte Behauptung nicht erklären, ich würde Fake News verbreiten.

Die Kritik übersieht einen ganz wesentlichen Faktor

Neben vielen Ungenauigkeiten wird beispielsweise behauptet, ich würde meinen Lesern eine wichtige Quelle verschweigen. Zitat: „warum Frank seinen Lesern nicht erzählt, dass die Ergebnisse, die er berichtet, aus einem INSTAND-Ringversuch stammen, …“ Ich habe jedoch in besagtem Coronabeitrag explizit erläutert, dass ich mich auf den Ringversuch von INSTAND beziehe und die entsprechende Arbeit ja genau deswegen verlinkt. Weiter wird mir vorgeworfen, die positiven Coronatests, die es nach wie vor gibt, zu diskreditieren und zwar mit Taschenspielertricks.

Es geht um die Deutung der 425.842 Coronatests in KW 20, von denen 7.060 (1,7%) positiv waren. Nun bin ich kein ausgewiesener Statistikexperte, aber ich traue mir zu, das wirklich Relevante einer medizinischen Statistik zu erkennen. Genau zu dieser Thematik habe ich mit anderen ein Symposium an der Universität Heidelberg veranstaltet. Die Kritik auf ScienceFiles übersieht einen ganz wesentlichen Faktor. Der Autor berücksichtigt nicht den Bezug zum Gesamtergebnis.

Ich versuche dies nochmal so einfach als möglich zu erklären. Jede Virus-Nachweisprobe zeigt zu einem gewissen Prozentsatz ein positives Ergebnis an, obwohl kein Virus in der Probe ist, dass nennt man falsch positives Ergebnis. Genauso wie ein Test immer auch ein negatives Ergebnis anzeigen kann, obwohl die Probe das Virus enthält. Das nennt man falsch negativ. Diese Fehlerraten kann man nicht verhindern, nur minimieren. Die Coronatests haben derzeit eine hohe falsch negative Rate, man schätzt bis zu 30 Prozent und eine niedrige falsch positive Rate, gut gemessen in dem verlinkten INSTAND Ringversuch. In diesem Ringversuch wurden an verschiedene Labore insgesamt 983 Proben ohne Virus verschickt und zurück kamen 969 richtig negative und 14 falsch positive Ergebnisse, das entspricht 1,4 Prozent. Das bedeutet, bei allen ohne Virus eingeschickten Proben haben die Labore insgesamt bei 1,4 Prozent der Fälle trotzdem ein (falsch) positives Ergebnis angezeigt.

Kein Taschenspielertrick, sondern pure Logik

Nun das ganz Entscheidende: Ob die falsch negativen oder die falsch positiven Ergebnisse das Gesamtergebnis verfälschen, hängt vom Prozentsatz der tatsächlich infizierten Proben ab (Prävalenz). Haben sehr viele Proben das Virus, ist die Rate an falsch negativen die Hauptfehlerquelle. Ist der Prozentsatz sehr niedrig, ist es die Rate an falsch positiven Ergebnissen. Stellen Sie sich vor, alle Proben enthalten das Virus, dann sollte das Gesamtergebnis eigentlich 100 Prozent sein. Aber dies verhindert die Rate an falsch negativen Ergebnissen.

Gehen wir dabei wie oben von 30% aus, würden, obwohl alle Tests coronainfiziert sind, das Gesamtergebnis nur 70% betragen. Das Gesamtergebnis wird dadurch stark verfälscht und die Infektionsrate unterschätzt. Die niedrige Rate an falsch positiven Testergebnissen würde das Ergebnis jedoch so gut wie nicht verfälschen. Ganz anders, wenn keine der Proben infiziert wäre. Das Gesamtergebnis müsste dann 0% lauten. Die hohe Rate an falsch negativen Testergebnissen käme überhaupt nicht zum Tragen, da alle Proben auch richtig negativ sind. Aber jetzt spielt die Rate an falsch positiven die Hauptrolle. Ist sie, wie INSTAND gemessen hat, 1,4%, dann würde das Gesamtergebnis lauten: 1,4% der eingeschickten Proben sind infiziert, obwohl keine Probe das Virus enthält.

Was bedeutet das nun für das besagte Gesamtergebnis in KW 20 von 1,7% positiver und 98,3% negativer Testergebnisse? Laut ScienceFiles beziehen sich die 1,4% falsch positiver Rate lediglich auf diese 1,7%, also 1,4% von 1,7%. Doch tatsächlich beziehen sich die 1,4% auf alle Proben, die kein Virus enthalten und deshalb alle potenziell falsch positiv sein können. Die genaue Zahl weiß man nicht, aber sie wird in dieser Testreihe annähernd 100% gewesen sein. Deshalb wird der Anteil an falsch positiven Testergebnissen bei diesen 425.842 Proben in KW 20 auch insgesamt annähernd 1,4% betragen haben. Dies ist der Grund, warum man, auch aufgrund weiterer Fehlerquellen, davon ausgehen sollte, dass das Ergebnis von 1,7% positiven Tests weitgehend auf falsch positiven Ergebnissen beruht und somit so gut wie niemand infiziert ist. Die Rate der falsch negativen spielt keine Rolle, weil ja kaum eine Probe richtig positiv ist. Im Klartest: Die derzeitigen Massentestungen werden immer und zu jeder Zeit um die 1% positive Ergebnisse anzeigen, auch wenn niemand das Virus in sich trägt. Von den 1,7% ist so gut wie niemand wirklich mehr infiziert. Das ist kein Taschenspielertrick, sondern pure Logik. Die derzeitigen Massentestungen sind reiner Unfug. Wenn überhaupt, macht es derzeit nur Sinn, zu testen, wenn Symptome auftauchen.

Es bleibt dabei: die Infektionswelle ist vorbei – schon lange

Außerdem heißt es in der SF-Kritik, ich würde ein Ende der Infektion behaupten, weil ich Corona mit der saisonalen Grippe vergleiche und das, obwohl die Zahlen steigen. Originalzitat:

„ … die SARS-CoV-2 Pandemie ist mitnichten zuende, wie Frank behauptet. Im Gegenteil, die Anzahl der Infizierten ist weltweit in den letzten Wochen stetig gestiegen“

Der Autor bezieht sich dabei vor allem auf Brasilien, wo derzeit im brasilianischen Vorwinter die Infektionszahlen steigen. Was nicht erwähnt ist, dass sich meine Aussage vor allem auf die gut gesicherte Beobachtung bezieht, dass sich in allen Ländern eine etwa 40-tägige Phase der Verbreitung der Coronainfektionen und ein danach einsetzendes Absinken beobachten lässt.

In Brasilen steigen die Zahlen lediglich mit einer Verzögerung von 4 Wochen an. Bei uns in Europa ist die Infektionswelle schon lange durch. In ihrem Verlauf entspricht sie genau den üblichen Winter-Virusinfektionen, die immer eine Übersterblichkeit vor allem unter alten Menschen verursachen. Dazu nochmal die Grafiken von Euromomo. Und auch hier der Hinweis, nicht nur auf die Höhe der Kurve, sondern auch auf deren Breite zu achten. Berücksichtigen Sie bitte auch, dass es bereits Publikationen gibt, die die Ursache eines großen Teils der 2020 Übersterblichkeit in den Schutzmaßnahmen selbst vermuten.

Mutierende Viren sind nichts anderes als die pure Normalität

Darüber hinaus ist mir kein Fall eines schwer an Covid-19 Erkrankten bekannt, der nach Genesung wieder an Covid-19 erkrankte. Daraus folgt, dass es eine aktuelle Immunität gibt, die aber wiederum nicht vor einem mutierten Virus im nächsten Herbst schützen muss. Da das Virus ständig mutiert, ist auch eine gewisse Unsicherheit bezüglich der Öffnung der Grenzen immer da. Aber auch ein Impfstoff wird diese ständige Mutation nicht gänzlich abdecken können. Aber was bitteschön ist daran erschreckend? Covid-19 besaß zu keinem Zeitpunkt das Potenzial, die Gesellschaft insgesamt zu bedrohen.

Auch weiß man inzwischen, wie man diese Krankheit so behandelt, dass sie auch bei den seltenen schweren Verläufen, bis auf schwerste Vorerkrankte, fast immer gut überlebt wird. Wir können damit als Gesellschaft ganz normal leben. So, wie es einige schwere Verkehrsopfer auch weiterhin geben wird, und wir dennoch angstfrei (und hoffentlich angeschnallt) Auto fahren und es nicht verbieten, so werden einige schwer an Covid-20, -21 oder -22 erkranken, wie auch an anderen Krankheiten.

Wir kennen dieses Problem bei Influenza ja sehr gut und leben damit seit Jahren ohne Panik. Dies alles liegt im Grundrisiko der menschlichen Existenz. Wer sich dem nicht stellt, kann sich zuhause einschließen und bricht sich dennoch potenziell das Genick beim Gardinenaufhängen. Insofern möchte ich mich der Forderung von Herrn Professor Gerd Gigerenzer anschließen, der in den Schulen das Fach Risikokompetenz fordert. Schüler müssen lernen, um den ständigen Panikmeldungen nicht schutzlos ausgesetzt zu sein, Zahlen anhand ihres tatsächlichen Risikopotenzials vernünftig einzuordnen.

Gesichtswahrung ohne Rücksicht auf Verluste

Die Infektion ist vorbei! Doch das können viele nicht akzeptieren, weil sie sich sonst eingestehen müssten, maßlos übertrieben zu haben. Aber diese Erkenntnis ist unausweichlich, und es wird spannend sein, zu sehen, mit welchen Absurditäten versucht wird, die Erzählung von der andauernden gesellschaftsbedrohenden Pandemie und des unausweichlichen Lockdowns mit aller Gewalt aufrechtzuerhalten. Etwa das RKI, welches unter besonderem Wohlwollen des bayrischen Ministerpräsidenten verkündet, dass wir erst mit einem Impfstoff zur Normalität zurückkehren können. Keiner dieser Panikmacher interessiert sich jedoch für die menschlichen Folgen ihrer völlig haltlosen Angstmacherei. Auch nicht der für Krisenmanagement zuständige Innenminister, wenn ein Mitarbeiter seines Ministeriums in bewundernswerter Eigenengagement eine mehr als beeindruckende Einordnung dieser Schäden vorlegt.

Stattdessen wird mit der seelischen Gesundheit der Menschen gespielt, nur um nicht das Gesicht zu verlieren. Kinder und Eltern werden weiter im Ungewissen gelassen, ob es wenigstens nach den Sommerferien in den normalen Schulbetrieb geht. In den nächsten Jahren wird es unzählige Untersuchungen dazu geben, welche psychischen Schäden eine solche verantwortungslose Angstmache auslöst. Wird man auch fragen, wer die Verantwortung dafür trägt? Im Moment sieht es nicht danach aus. Alles wird getan, um eine mehr als notwendige Reflektion, wie es zu diesem globalen Wahn kommen konnte, zu verhindern.

In den Vordergrund der medialen Berichterstattung werden bald in ihrem Spekulationsgehalt schwer als Nichtlüge zu bezeichnende Veröffentlichungen in den Vordergrund rücken, die den Nutzen des Lockdowns „wissenschaftlich“ beweisen werden. Jüngstes Beispiel eine Modellrechnung, ausgerechnet aus dem Imperial College, aus dem die unselige und hochangreifbare Fergunson’sche Modellrechnung, Stichwort „flattening the curve“, stammt, die ganz maßgeblich zur Panikreaktion des Lockdowns geführt hat. In dieser neuen Modellrechnung wird nun behauptet, dass die Corona-Schutzmaßnahmen allein in elf europäischen Ländern etwa 3,1 Millionen Todesfälle verhindert hätten.

In einer anderen Arbeit wird behauptet, bis zum 6. April hätten die Maßnahmen rund 530 Millionen Infektionen allein in sechs Ländern verhindert. Der Studienleiter, Solomon Hsiang von der UC Berkeley (USA), wird nun weltweit zitiert werden mit der Aussage: „Ich denke, kein anderes menschliches Unterfangen hat jemals in so kurzer Zeit so viele Leben gerettet“.

Wie ich gelernt habe, gilt unter Programmierern bei derartigen Modellrechnungen das „shit-in-shit-out“ Prinzip. Der Fehler liegt meist in den Grundannahmen. Dazu bitte den Nachtrag von Daniel Hirsch vom 20. Mai am Ende dieses Beitrages vergleichen.

Das Märchen von der unzureichenden Entscheidungsgrundlage

Auch wird behauptet werden, die Regierungen hätten aufgrund ungenügender Informationen entscheiden müssen und seien deswegen nicht zu kritisieren. Schließlich könne keiner sicher sagen, ob die Alternativen besser gewesen wären. Wenn jedoch Experten der geschliffenen Worte so etwas behaupten, zeigen sie lediglich, dass sie keine Ahnung von evidenzgestützten Analysen haben und von dem, was der Psychologe Julius Kuhl als Voraussetzung guter Entscheidungen erforscht und Rationale Intuition nennt. Diese fußt auf einer reflektierten Persönlichkeit, die gut beobachtet und sich dabei auch unangenehmen Erkenntnissen nicht verschließt. Eine solche an der Wirklichkeit erprobte Intuition ist in komplexen Situationen Gold wert. Wer jedoch Unangenehmes ausblendet, wie beispielsweise das gesamte Bundesinnenministerium im Falle der Warnungen des Oberregierungsrates Stephan Kohns, der kann diese Fähigkeit nicht entwickeln.

Auch werden wir nun öfters hören, hinterher sei man immer schlauer. In der österreichischen Servus-TV-Gesprächsrunde „Talk im Hangar 7“ vom 4. Juni meinte die als Lockdownverteidigerin geladene Intensivmedizinerin ganz zum Schluss zu mir, man müsste schon hellseherische Fähigkeiten beisitzen, um vorher zu wissen, was letztlich das richtige gewesen wäre. Hier ab 01:04:15.

Doch seltsamerweise haben immer die gleichen Leute genau das vorausgesagt, was dann stets auch eingetreten ist. Und so wird es auch Ende dieses Coronajahres sein, wenn es um zweite Wellen oder die Sinnhaftigkeit von Schul- oder Grenzöffnungen gehen wird. Zufall oder gar tatsächlich hellseherische Fähigkeiten? Ganz bestimmt nicht. Der Schlüssel in unsicheren Situationen, dennoch gute Entscheidungen treffen zu können, ist ein interdisziplinäres Netzwerk von Fachexperten mit reflektierten Persönlichkeiten, die gut moderiert sich genau zu ihrem Fachgebiet äußern, dabei auf den aktuellen Erkenntnisstand achten und ihre eigenen Grenzen gut kennen.

Aufgrund meiner Arbeit bin ich in ein solches Netzwerk eingebunden. Und deswegen weiß jeder gut informierte und reflektierte Mediziner, dass folgende Beobachtungen sehr früh den Spielraum ermöglichten, eine ganz andere Strategie zu wählen, die erstens zu weniger Todesopfern geführt hätte und zweites die nun immer deutlicher werdenden Kollateralschäden erst gar nicht hätten entstehen lassen:

  • die Nichtweiterverbreitung aus den Hotspots (hat nichts mit dem Lockdown zu tun),
  • die schon früh deutlich werdende, viel geringere Letalität,
  • sowie die klar einzugrenzende Risikogruppe der schwer vorerkrankten, meist alten Menschen.

Der einzig logische Schluss lautete sehr früh: professioneller und konsequenter Schutz der Risikogruppen bei Offenhalten der Gesellschaft. Doch in so gut wie ein keinem Land geschah dies (zu Asien habe ich dazu keine Kenntnisse). Es spricht Bände für die Reflexionsfähigkeit der tonangebenden Wissenschaftler, wenn lediglich der schwedische Epidemiologe Tegnell als Einziger hier Versäumnisse zugibt. Natürlich wird dies nun instrumentalisiert und als Selbstkritik bezüglich des nicht durchgeführten Lockdowns fehlgedeutet. Das grenzt jedoch schon an Böswilligkeit und zeigt nur die fehlende eigene Fähigkeit zur Selbstkritik. Wer diese frühzeitig mögliche Analyse nicht glaubt, lese bitte meine Beiträge ab Mitte März auf Achgut.com. Auch wenn der Druck, den Lockdown zu verhängen, für die Regierung hoch war, er hätte spätestens ab Ostern wieder verlassen werden müssen. Dass man zusätzlich versäumte, repräsentative Stichproben dauerhaft zu beobachten, ist ebenfalls ein Versäumnis erster Güte, denn dies hätte den Spielraum der Entscheidungen sehr schnell weiter vergrößert.

Der Lockdown ist herzlos und mörderisch

Als Hausarzt habe ich viele, meist ältere Menschen beim Sterben begleitet. Manche unter Schmerzen, viele schläfrig, manche viel zu früh und andere auf gepackten Koffern für die letzte Reise. Niemand unterstelle mir Herzlosigkeit. Wenn wir jedoch über eine Pandemie und die richtige Strategie diskutieren, darf man nicht von Einzelfällen ausgehen, sondern muss sich den Gesamtzahlen stellen. Ja, eine Coronainfektion kann zu der schweren Covid-19-Erkrankung führen, an der viele, meist ältere Vorerkrankte sterben. Es gilt, diese Erkrankung besser zu verstehen und zu behandeln, das scheint inzwischen gut zu gelingen.

Zurzeit werden auf Worldometer über 400.000 Todesfälle dieser Erkrankung zugerechnet. Wir werden sehen, ob sich dadurch die jährliche Gesamtzahl an Toten durch Atemwegsinfektionen (über 3 Millionen ohne Tuberkulose) insgesamt erhöhen wird. Doch die Corona-Maßnahmen selbst kosten ebenfalls viele andere Todesopfer. Um dies Zahl zu schätzen, darum hat sich bisher umfassend nur ein einziger Mitarbeiter der gesamten Ministerialbürokratie sowie aller staatlichen Institutionen gekümmert, BMI Oberregierungsrat Stephan Kohn. Dieses Desinteresse an den Opfern der Schutzmaßnahmen macht fassungslos und ist nichts anderes als herzlos und unethisch. Zählen nur die richtigen Opfer, die die Regierungsmaßnahmen rechtfertigen, und nicht die falschen Opfer, die diese Maßnahmen infrage stellen?

Doch wer redet eigentlich über die Opfer, die der Lockdown in den Schwellen- und Entwicklungsländern verursachen wird. Pro Tag sterben auf der Welt, vor allen in diesen Ländern, mindestens 150.000 Menschen, 350.000 werden neu geboren. Hier als Beispiel die Zahlen der Corona zugeordneten Todesopfer in Indien, Stand 9. Juni: 7.481, und im Vergleich dazu die tägliche allgemeine Todeszahl in Indien: annähernd 30.000. Während wir unsere Todesfälle der fast sechsmonatigen Coronakrise ausgiebig thematisieren und nicht müde werden Solidarität und Ethik einzufordern, interessiert sich niemand dafür, was unsere Corona-Politik dort anrichtet.

Sowohl als Folge des Handelsausfalls als auch als falsche Handlungsvorgabe. Es braucht wirklich nicht viel Fantasie, um sich vorzustellen – und spätere Untersuchungen werden es zeigen –, dass wegen des Zusammenbruchs des Handels, der Arbeitsplätze des Tourismus, des Gesundheitssystems und den eh schon kaum vorhandenen sozialen Absicherungen viele Millionen In Afrika, Indonesien oder Indien vor dem Nichts stehen. Unzählige Menschen, ganz besonders die Schwachen oder die Neugeborenen, werden unsere Unfähigkeit, verantwortungsethisch zu handeln, mit ihrem Leben bezahlen. Vielleicht muss man es einmal so formulieren, um diejenigen in den westlichen Ländern aufzuwecken, die im wohlfeilen Wettbewerb um die größten Schuldkomplexe immer vorne dabei sein möchten: Der hysterische Lockdown ist das Egozentrischste, Folgenschwerste und Mörderischste, was die reichen Ländern den ärmeren seit langem angetan haben.

Aktueller Nachtrag:

Und jetzt zum Schluss ein richtiger Hammer, ganz frisch von der WHO. Die schreibt auf englisch: „Detailed contact tracing from Taiwan as well as the first European transmission chain in Germany suggested that true asymptomatics rarely transmit“.

Das heißt im Klartext auf deutsch: Asymptomatische Coronainfizierte, also Infizierte, die keine Krankheitssysmptome entwickeln, stecken andere nur selten an. Schätzungen nach gibt es asymptomatische Virusträger 10- bis 50-mal häufiger als diejenigen, die Symptome entwickeln (und für ein paar Tage, wie asymptomatisch Infizierte wirken). Dies ist ein weiteres Argument hinsichtlich der Sinnlosigkeit der Schulschließungen und des Lockdowns allgemein.

Der Beitrag erschien zuerst bei ACHGUT hier

Anmerkung der Redaktion

Zum Grad der Durchseuchung und der möglichen Genauigkeit der PCR Test: https://www.youtube.com/watch?v=st0SyD-VyjM

und dann hier

Ergebnis. Unbrauchbar! Für schwerwiegende politische Entscheidung ungeeignet.




Der globale Kohlenstoff-Haushalt: schöne Zahlen, vorge­täuschtes Vertrauen, aber höchst fragwürdig (Teil 1)

In diesem ersten Teil werde ich die Bedeutung der menschlichen CO2-Emissionen relativieren, indem ich argumentiere, dass natürliche Faktoren eine vorherrschende Rolle spielen. Ich befasse mich nicht direkt mit dem Einfluss von CO2 auf das Klima, sondern nur mit der Beziehung zwischen den natürlichen Faktoren und dem menschlichen Beitrag zum CO2-Budget.

Die Klimawissenschaft leidet unter einer Form von Demagogie und Voreingenommenheit, die am besten durch die berühmte CO2-Flusskurve in der folgenden Abbildung veranschaulicht wird. Dieses farbenprächtige Bild wurde erstellt, um zu veranschaulichen, wie viel CO2 vom Menschen emittiert wird (Quelle) und wie viel und wo dieses CO2 jährlich landet (Senke). Seit diese Grafik von Le Quéré et al. eingeführt wurde (Ref. 1), sind viele Variationen dieses Bildes (vom IPCC und anderen) mit der gleichen alarmierenden Botschaft veröffentlicht worden. Ich werde versuchen zu zeigen, warum diese Grafik als wissenschaftliche Täuschung eingestuft werden sollte.

Die Basisdaten, die zur Erstellung dieser Grafik verwendet wurden, sind meiner Meinung nach recht zuverlässig, da sie auf genauen atmosphärischen CO2-Messungen, Berechnungen des Verbrauchs fossiler Brennstoffe, der Zementproduktion und der beobachteten Entwaldung basieren. Die Zuverlässigkeit der Grafik endet jedoch hier. Die menschlichen Emissionen/die Entwaldung werden oberhalb der horizontalen Achse und unterhalb dessen, was mit diesen Emissionen geschehen ist, dargestellt. Die Soll- und Habenseite sind ausgeglichen. Es wird jedoch vermutet, dass die Natur (Land, Ozean und Luft) in einem immer wechselnden Verhältnis in der Lage war, den menschlichen Emissionen einen eigenen Platz einzuräumen.

Es stellt sich nun sofort die Frage, wie man feststellen kann, dass das Land in einem Jahr z.B. 50% der menschlichen Emissionen absorbieren kann, während in einem anderen Jahr diese Absorption völlig zu fehlen scheint. Die Antwort ist, dass diese Differenz nicht empirisch ermittelt wurde, sondern nur das Ergebnis einer Untersuchung zum Ausgleich des Kohlenstoffhaushalts ist, die auf der Annahme beruht, dass die jährliche CO2-Absorption der menschlichen CO2-Emissionen durch den Ozean (violett) relativ stabil ist und keinen großen Schwankungen von Jahr zu Jahr unterliegt (auch wenn sie im Laufe der Jahre allmählich zunimmt). Was in dieser Grafik völlig (bewusst?) ignoriert wird, ist der gigantische natürliche Fluss (d.h. Emissionen und Absorption) zwischen Land, Meer und Luft, denn dieses Bild beschränkt sich auf die menschliche Emissionsgeschichte seit 1870.

Durch die Darstellung der fluktuierenden atmosphärischen CO2-Zunahme in einer Grafik mit nur menschlichen Emissionen, ohne natürliche Emissionen, entsteht der falsche Eindruck, dass die Veränderung der atmosphärischen CO2-Konzentration nur mit menschlichen Emissionen zuammenängt und daher keinen Einfluss auf den 20-mal größeren jährlichen natürlichen CO2-Fluss hat. Die natürliche Emission (Quelle) und Absorption (Senke) von CO2 hängt von vielen besonders komplexen und schwierig zu messenden Faktoren ab, vergleichbar mit den vielen Faktoren, die das Klima/Wetter so schwer vorhersagbar machen.

Ich habe die ozeanographische Literatur über den CO2-Fluss von der Luft ins Meer und umgekehrt so gut wie möglich durchgesehen und war verblüfft über die große Zahl von Faktoren und Unsicherheiten, die mit diesem Phänomen verbunden sind: Meeresströmungen, Temperatur, biogene Aktivität (Phytoplankton), um nur einige zu nennen. Die gleiche Unsicherheit gilt für den Grad des terrestrischen CO2-Flusses. Die physikalischen, chemischen und biologischen Prozesse, die den gigantischen CO2-Haushalt steuern, sind so komplex, dass es sehr anspruchsvoll ist zu glauben, man könne alle Ursachen der CO2-Fluktuationen mit beliebiger Genauigkeit identifizieren oder quantifizieren.

In Abbildung 2 habe ich die menschlichen Emissionen aus Abbildung 1 (kürzlich ≈10 GtC) mit den jährlichen natürlichen Emissionen (≈ 210 GtC) kombiniert, um einen Eindruck von der Beziehung zwischen den beiden zu vermitteln. Die drei wichtigsten natürlichen Quellen für atmosphärisches CO2 sind (Ref. 2): Pflanzenatmung, Bodenatmung und Meeresatmung. Die wichtigsten natürlichen Aufnahmeprozesse sind: die Photosynthese (≈ 120 GtC/Jahr) und die Absorption im Ozean (≈ 90 GtC/Jahr).

Nahezu 50% der natürlichen CO2-Landemissionen werden der Bodenatmung zugeschrieben (≈ 60 GtC/Jahr). Dies ist das Ergebnis der Zersetzung von organischem Material im Boden und des Absterbens von Pflanzenwurzeln.

Die Zersetzung hängt von zwei wichtigen Faktoren ab: Bodentemperatur und Bodenfeuchtigkeit. Die Bedeutung der Bodentemperatur ist in der folgenden Grafik dargestellt. Sie zeigt eine (empirisch ermittelte) lineare Beziehung zwischen Bodentemperatur und Emissionen: 1° C Temperaturanstieg führt zu einem Anstieg der CO2-Emissionen um 16,5% (Quelle Wikipedia).

Während der letzten 55 Jahre ist die Oberflächenlufttemperatur an Land (in der nördlichen Hemisphäre) um ≈1,5 ° C gestiegen. Das ist mehr als der Weltdurchschnitt, denn das Land in der nördlichen Hemisphäre hat sich stärker erwärmt als die Erde insgesamt, einschließlich des Meeres. Eine chinesische Studie (360 Standorte) hat gezeigt, dass sich der Boden seit 1962 mit einer Geschwindigkeit von 0,031 °C/Jahr erwärmt hat (Ref. 3). Eine Studie auf amerikanischem Boden (292 Standorte) ergab einen fast identischen Anstieg von 0,032 ° C / Jahr in einer Tiefe von 10 cm (Ref. 4). Ein Anstieg der Bodentemperatur um 1,5° C seit den 1960er Jahren ist daher eine vernünftige Annahme. Aus der Graphik können wir ableiten, dass die globale Erwärmung heute 25 % mehr Bodenatmung von CO2 verursacht als vor 50 Jahren. Wenn sie heute auf 60 GtC geschätzt wird, wären es vor 50 Jahren 48 GtC gewesen. Das bedeutet, dass heute jährlich 12 GtC mehr durch die Bodenatmung emittiert werden als vor 50 Jahren, allein durch den Temperaturanstieg. Das ist mehr als die gesamten anthropogenen jährlichen CO2-Emissionen von ≈ 10 GtC.

Es ist mir nicht gelungen, den Ursprung der Wikipedia-Grafik nachzuverfolgen, aber eine Bestätigung für den Grad der zusätzlichen Bodenatmung liefern Zhang et al: Steigende Bodentemperatur in China und ihre möglichen ökologischen Auswirkungen (ref. 5). Sie maßen eine Zunahme der Bodenatmung um 28% über einen Zeitraum von 50 Jahren. Angesichts der grossen Unsicherheiten bezüglich des CO2-Budgets muss ich erwähnen, dass in der Literatur auch grosse Unterschiede bezüglich der Menge der Bodenatmung erwähnt werden. In Bond-Lamberty et al. (Ref. 6) wird die Bodenatmung auf 98 GtC (=+/- 12 GtC) geschätzt. Wenn die 28%ige Zunahme bei Zhang et al. repräsentativ für die gesamte Erde ist und die 98 GtC die tatsächliche Emission darstellen, hätte die Bodenatmung vor 50 Jahren 76 GtC/Jahr betragen und die CO2-Zunahme somit 22 GtC/Jahr, also mehr als das Doppelte der jährlichen menschlichen Emissionen.

Es wird auch erwartet, dass eine sich erwärmende Erde aufgrund einer Zunahme des Wasserdampfs feuchter wird (eine der wichtigsten positiven Rückmeldungen in Klimamodellen). Da die Bodenatmung auch von der Bodenfeuchte abhängt, wird eine erhöhte Feuchtigkeit auch einen Anstieg des atmosphärischen CO2 verursachen. Ich konnte noch nicht herausfinden, wie viel feuchter die Erde geworden ist und wie groß der Einfluss der Bodenfeuchte ist, aber es kann angenommen werden, dass dieser Faktor auch eine wichtige Rolle bei dem gemessenen atmosphärischen CO2-Anstieg spielt.

Zusammenfassend lässt sich sagen, dass das Wissen über die Prozesse, die den terrestrischen CO2-Fluss bestimmen, nicht ausreicht, um genau zu bestimmen, was mit den anthropogenen Emissionen geschieht. Deshalb habe ich ernsthafte Zweifel daran, die Landnutzung als trügerischen Faktor zum Ausgleich des Kohlenstoffhaushalts zu verwenden. In der Tat wird mit einem Anstieg der Temperatur der terrestrische Fluss in beide Richtungen zunehmen, zum einen durch mehr Photosynthese und zum anderen durch mehr Bodenatmung. Ich glaube jedoch nicht, dass der terrestrische Fluss der wichtigste Faktor ist, um die kurzfristigen CO2-Schwankungen ohne Berücksichtigung der Rolle des Ozeans auszugleichen.

Daher werde ich im zweiten Teil dieser Reihe den Anteil des Ozeans bei der Erklärung der kurzfristigen Schwankungen des Kohlenstoffhaushalts erörtern, wie in Abbildung 1 irreführend dargestellt. Der dritte Teil wird sich mit der Bedeutung der saisonalen CO2-Schwankungen (Sägezahn) bei der Bestimmung von Faktoren befassen, die den langfristigen atmosphärischen CO2-Anstieg steuern.
Ich hoffe, dass ich mit diesen Beispielen dem Leser einen Schimmer von Zweifel an der (irreführenden) Gewissheit geben konnte, mit welcher (irreführenden) Sicherheit die Klimawissenschaft den menschlichen Anteil am CO
2-Budget darstellt und dessen Bedeutung stark überzeichnet. Wir werden daher auch sehen, dass der Lockdown die jährliche CO2-Kurve des Mauna Loa nicht verändern wird.

References

1) C. Le Quéré et al .: Global carbon budget 2013. https://www.earth-syst-sci-data.net/6/235/2014/essd-6-235-2014.pdf

2) Global Carbon Budget 2018.https: //www.earth-syst-sci-data.net/10/2141/2018/

3) Hui Zhang et al .: Asymmetric Soil Warming under Global Climate Change. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6539193/

4) Qi Hu et al .: A Daily Soil Temperature Dataset and Soil Temperature Climatology of the Contiguous United States. https://doi.org/10.1175/1520-0450(2003)042<1139:ADSTDA>2.0.CO;2

5) Zhang H. et al .: Rising soil temperature in China and its potential ecological impact. https://www.nature.com/articles/srep35530

6)Bond-Lamberty et al .: Temperature-associated increases in the global soil respiration record. https://www.ncbi.nlm.nih.gov/pubmed/20336143

Übersetzt von Chris Frey EIKE

Dr. Chis Schonefeld ist Geophysiker und war viele Jahre bei Shell in Lohn und Brot. Er ist jetzt Mitglied von CLINTEL




Manfred Haferburg: Die Frohe Botschaft für die Energiewende – der Dual-Fluid-Reaktor

Fangen wir mit der schlechten Nachricht an. Fast 20 Jahre haben Grüne, Linke und ihre Gläubigen nunmehr mit dem Wenden der Energie verbracht. Das große Sägen an dem Ast, auf dem wir alle sitzen, hat begonnen. Weiter so? Nach der Corona-Krise wird die deutsche Wirtschaft es doppelt schwer haben: Überwindung der Lockdown Folgen und die zweithöchsten Strompreise weltweit, nach Bermuda. Aber wir arbeiten dran, trotz staatlicher Stützungsmaßnahmen wird er weiter steigen. Es ist nämlich egal, ob die Stromkunden oder die Steuerzahler die stets steigenden Kosten tragen müssen, es kommt entweder aus der rechten oder der linken Tasche derselben Leute. Es ist bald soweit, den Energiewendern könnte das Geld der Anderen ausgehen.

Sie haben mehr als 30.000 Windräder in die deutsche Landschaft gestellt. Sie haben hunderte Quadratkilometer mit Solarpanelen bedeckt. Sie bauen auf mehr als zweieinhalb Millionen Hektar Energiepflanzen wie Mais und Raps an, um Strom und Diesel daraus zu machen.

Sie haben im Chor mit ihren Medien-Sympathisanten der Bevölkerung fast alle Energiequellen als Teufelszeug madig gemacht. Die Kernenergie ist schon lange passé, der Faden ist gerissen. Jetzt kommt die Kohle dran. Danach müssen Öl und Gas dran glauben. Der Plan ist, die „Erneuerbaren“ so lange aufzublasen, bis es keinen einzigen Ausblick in ganz Deutschland mehr gibt, wo nicht formschöne Windräder, blaublinkende Solarpaneele und grün-gelbe Biopflanzen das Auge erfreuen.

Energie aber lässt sich nicht wenden

Bisher hat es nichts gebracht, außer Strompreisen, die mit ihrem beharrlichen Anstieg alle Rekorde brechen. Es brachte nichts, außer hunderttausender armer Familien, denen der Strom abgestellt wurde, weil sie ihn nicht mehr bezahlen können. Es brachte nichts, außer zunehmender Gefahr für verheerende Stromausfälle. Das teuflische Kohlendioxid sind die Energiewender nicht losgeworden. Sie wollen unsere Welt dekarbonisieren, so, als wüssten sie nicht, dass wir alle aus Kohlenstoffverbindungen gemacht sind.

Die Energiewender haben 500 Milliarden Euro für ihren schönen Traum von der „erneuerbaren“ Energie ausgegeben, das Geld anderer Leute. Sie würden auch gerne das Doppelte nochmal drauflegen, natürlich wieder vom Geld anderer Leute.

Energie aber lässt sich nicht wenden. Die Energiewender haben sich mit den Falschen angelegt, nämlich der Physik und der Ökonomie. Die Ökonomie können sie vielleicht eine Weile mit noch mehr gedrucktem Geld bestechen. Doch die Physik macht keine Gefangenen. Und irgendwann auch die Ökonomie nicht. Vielleicht aber wollen die Energiewender einfach nur die Zeit hinauszögern, damit die geprellten Leute sie nicht für die gigantische Verschwendung zur Verantwortung ziehen. So kaufen sie lieber Zeit, wieder mit dem Geld anderer Leute. Oder einige sind wirklich so blöd, dass sie nicht verstehen, dass ihre Energiewende so nicht funktionieren kann. Auch wenn ich da wenig Hoffnung hege, langsam müssten auch die verbiestertsten Ideologen begreifen, dass es nicht funktioniert, immer wieder dasselbe zu versuchen und auf unterschiedliche Ergebnisse zu hoffen.

Nun zur guten Nachricht: Die Energiewende wäre noch zu retten.

Wie vom Himmel gesandt, wird eine Lösung angeboten: Deutsche Ingenieure haben eine Technologie entwickelt, die alle Probleme der Energiewende mit einem Schlag lösen könnte. Ein paar unverdrossene Physiker in Berlin forschen auf eigene Rechnung und haben sich das Patent auf den „Dual-Fluid-Reaktor“ gesichert.

Dieser völlig neuartige Kernreaktor der vierten Generation ist die Kröte, die von den Grünen geschluckt werden muss, wenn sie es ernst mit der Energiewende und dem Vorreiten meinen.

Das Herz jedes Grünen schlägt höher

Der Dual-Fluid-Reaktor hat Eigenschaften, die das Herz jedes Grünen höher schlagen lassen sollten. Er ist inhärent sicher, eine Kernschmelze ist ausgeschlossen, weil der Kern im Normalbetrieb schon geschmolzen ist. Er kann auch nicht durchgehen oder explodieren. Dafür kann er den radioaktiven Abfall herkömmlicher Reaktoren verbrennen (Transmutation), ja sogar das böse Bombenplutonium in Strom und kurzlebige Abfälle umwandeln. Radioaktive Endlager für mehr als 300 Jahre erübrigen sich somit. Und er arbeitet als Brutreaktor für eine erheblich bessere Kernbrennstoffausnutzung. Damit stehen Brennstoffvorräte für viele Jahrhunderte zur Verfügung.

Um die riesige Bedeutung dieser Erfindung zu beschreiben, muss ich die Unterschiede der bisherigen Kernreaktoren mit dem Dual-Fluid-Reaktor etwas herausarbeiten.

In einem herkömmlichen Reaktor wird eine Kettenreaktion energiearmer Neutronen in nuklearen Brennstäben, die mit Urantabletten gefüllt und umgeben von Wasser unter sehr hohem Druck sind, zur Energieerzeugung genutzt. Solche herkömmliche Reaktoren regulieren ihre Leistung mit beweglichen Steuerstäben. So soll gewährleistet werden, dass immer nur die gewünschte Neutronenmenge Wärme erzeugt. Wenn dies versagt, wird zu viel Energie frei und es kann durch unkontrollierte Freisetzung der im Reaktor gespeicherten Reaktivitätsreserve zum Auslegungsstörfall kommen, d.h. der Reaktorkern kann schmelzen (Tschernobyl). Dies kann auch geschehen, wenn der Kern nicht in allen Betriebssituationen ausreichend gekühlt werden kann (Fukushima).

Im metallgekühlten Dual-Fluid-Reaktor besteht der Spaltstoff aus einem geschmolzenen Gemisch von spaltbaren Materialien und Chrom, welches langsam durch einen Reaktorkern aus Keramik fließt, der zur Kühlung von flüssigem Blei umspült wird. Der Spaltprozess ist selbstregelnd, ohne Steuerstäbe, allein durch die abgenommene Wärme. Bei Temperaturanstieg verringert sich der Spaltprozess durch die Ausdehnung des Brennstoffes – die Reaktorleistung sinkt ganz von alleine. Wird mehr Wärme abgeführt, kühlt sich der Brennstoff ab und die Leistung steigt bis zum Gleichgewicht.

Der Dual-Fluid-Reaktor arbeitet im „drucklosen“ Zustand, statt mit Hochdruck von über 100 Bar in einem Druckwasserreaktor. Dieser große Vorteil vereinfacht die Konstruktion und Fertigung des Reaktors erheblich und macht das System sicher gegen Lecks.

Erntefaktor von „Ökostrom“-Erzeugern und modernen Kernkraftwerken. Mit freundlicher Genehmigung von https://dual-fluid-reaktor.de/

Nicht größer als ein Smart-PKW

Der wesentlichste Unterschied zu herkömmlichen Reaktoren besteht darin, dass bei herkömmlichen Reaktoren ein großer Vorrat an spaltbarem Material im Kern des Reaktors – ausreichend für ein bis zwei Jahre – vorgehalten wird, dessen kontrollierte, das heißt langsame Nutzung das größte Sicherheitsproblem dieser Technologie darstellt. Beim Dual-Fluid Reaktor hingegen ist stets nur die im Moment zur Energieerzeugung benötigte Brennstoffmenge im Reaktor – just in time – vorhanden. Er kann demzufolge nicht „durchgehen“, er kann höchstens „ausgehen“. Wird der Brennstoff trotzdem zu heiß, schmelzen Sicherungsstopfen und er fließt in Sicherheitsbehälter ab, rein durch die Schwerkraft.

Auf Grund seiner extrem hohen Energiedichte ist der Dual-Fluid-Reaktor erheblich kleiner, als ein herkömmlicher Reaktor gleicher Leistung. Ein Dual-Fluid-Reaktor ist bei der 1000 Megawattvariante nicht grösser als ein Smart-PKW. Dadurch kann er unterirdisch sicher gegen Flugzeugabstürze und terroristische Angriffe installiert werden.

Ein weiterer wesentlicher Unterschied sind die hohen Temperaturen, mit denen der Dual-Fluid-Reaktor arbeitet und mit denen effizientere Energieumwandlung in Strom und Prozesswärme möglich werden. Je höher die Temperatur, desto besser der Wirkungsgrad und die Einsatzmöglichkeiten in der Chemieindustrie oder zur Gewinnung nichtfossiler, CO2-freier synthetischer Treibstoffe, die es erlauben, unsere vorhandene Mobilitätsinfrastruktur praktisch unverändert weiterzuverwenden.

Sicherheitskreislauf eines modernen Brüters. Mit freundlicher Genehmigung von https://dual-fluid-reaktor.de/

Ein Dual-Fluid-Reaktor kann die gleiche Leistung erbringen, wie viele hundert Windräder; CO2-frei, wetterunabhängig und exakt nach dem Bedarf des Stromnetzes. Und sein Strom kostet nur ein Viertel dessen, was die „erneuerbare“ Energien verursachen. Mit einem Bruchteil der Kosten der bisherigen Energiewende könnte Deutschland innerhalb von zwei Dekaden von einem Möchtegernvorbild zum echten Vorreiter der Energieerzeugung werden.

Doch ach! Warum fallen mir da Kalkar und der Transrapid ein? Wohl weil Kalkar-Reaktoren in Bielojarsk betrieben werden und der Transrapid in Schanghai fährt. Den Dual-Fluid Reaktor wird es mit Sicherheit geben, irgendwo anders, als bei uns. Danke, liebe Grüne und Rote, sägt nur weiter.

Sie sägten die Äste ab, auf denen sie saßen
Und schrien sich zu ihre Erfahrungen,
Wie man schneller sägen könnte, und fuhren
Mit Krachen in die Tiefe, und die ihnen zusahen,
Schüttelten die Köpfe beim Sägen und
Sägten weiter.

(Bertolt Brecht, Exil, III)

Hinweis: Die Erfinder planen ihre Webseiten gründlich zu überarbeiten; ergänzend soll neues Text-, Bild- und Videomaterial das Konzept besser erklären, damit baldmöglichst in die Investitionsphase eingetreten werden kann. Für die Erstellung dieser Materialien sind (steuerabzugsfähige) Spenden willkommen. 

„Ökostrom“-Erzeuger sind Sondermüll, der die Landschaft vollstellt. Moderne Kernkraftwerke verbrauchen sogar alten radioaktiven Abfall. Mit freundlicher Genehmigung von https://dual-fluid-reaktor.de/




Modelle können nicht einmal das Wetter der nächsten Woche genau prognosti­zieren …

Jetzt komme man nicht mit dem Einwand „Klima ist nicht Wetter“. Das ist banal und dumm. Der Knabe, der sagt, dass „Nahrung nicht Küche ist“, ist ein Nahrungs-Kritiker und von vornherein hochmütig und unausstehlich.

Wie ist es hiermit: Wissenschaft ist keine Semantik.

Wir alle würden nur zu gerne die Zukunft vorhersagen können. Intellektuell, empirisch und rational wissen wir, dass wir das nicht können, aber einige versuchen es dennoch. In ganz Washington, DC, wo ich lebe, gibt es neben den Elite-Intelligenzen, die ihre eigenen Bücher über den in New York beheimateten Acela lesen, zahlreiche Tarotkartenleser und Hellseher, die ihre Dienste als Wahrsager anbieten.

Und wir hören Geschichten. Der Kumpel, der einen guten Aktienkauf tätigte, weil „er sicher war“, dass die Aktie steigen würde. Oder den Knaben, der proklamiert, dass „er wusste, dass die Nationals die World Series* gewinnen würden“. Das ist nicht wahr. Nicht möglich. Nicht einmal logisch zu begründen. Es ist Syntax, nicht Wahrheit.

[*Endspiel um die amerikanische Baseball-Meisterschaft, vergleichbar mit dem Super Bowl im Football. Anm. d. Übers.]

Wir können Entscheidungen für die Zukunft treffen, nicht auf der Grundlage übernatürlicher Intelligenz, sondern auf der Grundlage von Daten. Markttrends und Bilanzen leiten Aktiengeschäfte, aber es gibt keine Garantie, dass der Wert der Aktie steigt. Wären wir nicht alle schon reich, wenn das der Fall wäre? Im Baseball bilden Verletzungen, Rotation und Aufstellung sowie Teamloyalität unsere Leitlinien, aber es gibt keine Garantie, dass unser Team gewinnen wird.

Niemand „wusste“, dass das Wetter dem Start von SpaceX einen Strich durch die Rechnung machen würde, vielmehr zogen Wissenschaftler Daten heran, um einen bestmöglichen guess abzugeben, was Teil der wissenschaftlichen Methodik ist, die wir in der 3. Klasse gelernt haben. Genauso „weiß“ niemand, was in 5, 10, 15 oder 50 Jahren mit der Erde passieren wird im Zuge des Klimawandels. Ich bin es also leid, dazu ständig irgendetwas zu hören.

Und jetzt zur Antwort auf die Frage, bevor Sie sie stellen: nein, es gibt keine Daten, aus denen hervorgeht, dass die Temperaturen der Welt auf ein unbewohnbares Niveau steigen. Es gibt nur Modelle, und Modelle sind sehr, sehr menschlich.

Klimawandel-Modelle sind im Computer generiert und programmiert von voreingenommenen Individuen. Sie basieren nicht auf einem wissenschaftlichen Prozess, sondern auf Prognose auf der Grundlage verfügbarer Daten, die akkurat sein können oder auch nicht. Erinnert man sich noch an das Modell, welches 2,2 Millionen Tote durch das Coronavirus prophezeit hatte?

Whoopsie!

Müll rein, Müll raus – genau wie in jedem anderen, von Computern generierten Szenario. Vielleicht wird eines Tages künstliche Intelligenz tatsächlich intelligent werden und den Programmierer korrigieren, aber derzeit folgt der Computer genau dem vom sehr fehlbaren Menschen geschriebenen Programm.

Daher kommt auch die Empörung über den Kommentar von Kongress-Dame Alexandria Ocasio-Cortez, die da posaunte: „Die Welt wird in 12 Jahren untergehen, wenn wir nicht dem Klimawandel begegnen“. Nicht, weil der Kommentar töricht ist (ist er), nicht weil er falsch ist (ist er), sondern weil er so absichtlich irreführend ist. Es ist ein perfektes Beispiel dafür, wie man eine Spekulation in ein Faktum verwandelt, und das ausschließlich aufgrund des Vorantreibens einer politischen Agenda, die ein einziger Angriff auf meine Brieftasche ist. Es tötet jede Diskussion. Es stößt vernünftige Leute wie mich ab. Es ist kaum sinnvoll, über Klimawandel zu diskutieren, ebenso wie über den Beitrag der Menschheit zu demselben, wenn es überhaupt einen gibt. Und trotzdem, immer mehr politische Maßnahmen und immer mehr Geld des Steuerzahlers wird auf der Grundlage dieser Art von unlogischem Denken ausgegeben.

Klima ist die große Unbekannte, und Politiker und Medien gleichermaßen lieben es, normale Amerikaner bis zum Anschlag zu ängstigen, indem man eine großartige Einsicht in das Morgen vortäuscht, die sie in ihren Sesseln erzittern lässt. Der Klimawandel wird uns töten. Paul Ehrlich sagte in den 1970er Jahren, dass die Überbevölkerung dazu führen wird, dass England im Jahre 2000 nicht mehr existieren wird. Die arme Queen, als ob sie nicht schon genug um die Ohren hätte. Al Gore prophezeite vor 20 Jahren, dass das Arktische Eis längst verschwunden sein sollte – und bekam dafür einen Oskar.

Als ich das letzte Mal hingesehen hatte, ging es sowohl UK als auch dem arktischen Eis wunderbar. Das Aussehen beider ändert sich fortwährend. Das waren eben keine Prognosen. Es waren Modellergebnisse, dazu gedacht, Angst zu erzeugen und eine Agenda voranzutreiben.

Wir können das Wetter noch nicht einmal ein paar Wochen voraussagen. Am 20. März dieses Jahres prophezeite die Washington Post ein „außerordentlich warmes Frühjahr“ in den gesamten USA, und zwar aufgrund von auf Daten basierenden Modellen (Wintertemperaturen, Polarwirbel). Das wurde als Faktum dargestellt. Zeug von der Art ängstigender globaler Erwärmung. Meine Güte.

Einen Monat nach Erscheinen dieses Artikels wies der gleiche Autor in der gleichen Publikation darauf hin, dass die Temperatur in Washington DC schon zwei Wochen lang unter den Mittelwerten gelegen hatte. Das bedeutet, der Untergangs-Artikel konnte nicht einmal 2 Wochen in die Zukunft schauen. Ein paar Tage später räumte man in der gleichen Publikation ein, dass das um 1 bis 2 Grad zu kalte Wetter wahrscheinlich weitergehen werde.

Huh.

Dann wartete die gleiche Washington Post mit einem Artikel auf mit dem Titel [übersetzt] „Außerordentlich kaltes Wetter für Mai kommt heute Nacht daher mit Temperaturen nahe dem Gefrierpunkt und eisigen gefühlten Temperaturen“. Am nächsten Tag schrieb man über den kältesten Tag in Washington seit über einem Jahrzehnt, und dass in Baltimore der kälteste Tag in einem Mai jemals aufgetreten war.

Was schließen wir daraus? Einfach: Der erste Artikel, der Angst über Angst erzeugende Klimawandel-Artikel, basierte auf Modellen (wurde aber als Faktum präsentiert). Die nachfolgenden „Hilfe-ist-das-kalt“-Artikel basierten auf … nun, Tatsachen. Die aber längst nicht so ängstigend und nicht so spaßig daherkommen.

Wird die Welt wegen des Klimawandels zugrunde gehen?. Das weiß ich nicht. Werden die Meere steigen und die Seen überkochen? Ich weiß es nicht. Und auch niemand sonst weiß es.

Link: https://wattsupwiththat.com/2020/06/02/turner-models-cant-accurately-predict-next-weeks-weather-so-why-should-we-trust-them-to-predict-climate-change/

Übersetzt von Chris Frey EIKE

————————————-

Erklärung des Bildes oben:

Gezeigt ist die numerische Vorhersage des amerikanischen GFS-Modells vom Sonnabend, dem 6. Juni 2020 für 1 Tag (links), 1 Woche (Mitte) und 2 Wochen rechts. Die eingehenden Daten weisen in riesigen Gebieten große Lücken auf, z. B. über den Ozeanen, und müssen dort extrapoliert werden. Fehler sind dabei unvermeidlich, selbst wenn sie nur gering sind. Um abzuklopfen, wie zuverlässig eine solche Simulation ist (von Computern, die nicht einmal das Wort „Wetter“ buchstabieren können, wenn man es ihnen nicht sagt!), verändert man den Anfangszustand künstlich minimal und lässt die Simulation immer wieder laufen – in diesem Beispiel 10 mal.

Den Verlauf der Linien muss der Meteorologe dann in eine Wettervorhersage „übersetzen“. Je enger die Linien beieinander liegen, umso genauer die Prognose. Nach 1 Woche liegen die Linien schon deutlich auseinander, aber eine allgemeine Tendenz ist noch erkennbar – jedoch keine Einzelheiten mehr! Nach 2 Wochen gleicht der Verlauf der Linien einem Kunstwerk eines Kindergarten-Kindes. Da kann man zwar noch raten, aber nichts mehr prognostizieren. 2Wochen! Und: Jeder einzelne Verlauf ist aus der Sicht des Ausgangstages gleich wahrscheinlich!

Dipl.-Met. Christian Freuer




Gefährdete Vogelarten müssen weichen, damit Windparks errichtet werden können

Jetzt ist es schon schlimm genug, Millionen von Vögeln und Fledermäusen ungestraft von Windturbinenflügeln in Scheiben schneiden und Schreddern zu lassen (deren äußere Spitzen mit über 350 km/h kreisen). Es ist jedoch etwas ganz anderes, vollkommen gesunde Tiere abzuschießen, einfach weil ihre Anwesenheit Ihre Möglichkeit gefährdet, diese Windschredder überhaupt erst zu errichten.

Aber genau das ist in Deutschland passiert, wo Investoren den gefährdeten Rotmilan abschießen, um Platz für industrielle Windkraftanlagen zu machen und ihren Weg freimachen, um vom deutschen EEG zu profitieren.

Aus Gründen des copyrights habe ich keine Bilder der Originalquellen von getöteten Wildvögeln übernommen. Wer starke Nerven hat, kann hier die Galerie der Bilder sehen, die Google gefunden hat. – Der Übersetzer

 

Baden-Württemberg
Drittes Schlagopfer am Windpark Hilpensberg zeigt Wirkungslosigkeit von Nebenbestimmungen

Naturschutz-Initiative 08.05.2020

Rotmilane und Windkraft passen einfach nicht gut zusammen.

Rotmilane suchen ihre Beute in Gebieten, in denen Bauern Wiesen mähen oder Felder pflügen. Dies kann sich jedoch als tödlich erweisen, wenn in unmittelbarer Nähe eines Windparks wie dem in Baden-Württemberg Grünfutter gepflanzt wurde.

Wenn diese Felder gemäht werden, suchen die Rotmilane im Heu nach Nahrung. Es ist ideal für sie, aber möglicherweise auch tödlich, weil sie bei der Jagd ihren Blick nach unten und nicht nach vorne richten. Der Windpark Hilpensberg wurde sogar in einem Rotmilangebiet zugelassen. Jetzt ist eines der schönen Tiere wieder Opfer geworden, wie die  Naturschutzinitiative berichtet :

Laut dem Biologen Immo Vollmer kann die Schlussfolgerung nur sein, dass wir keine Windkraftanlagen mehr in Gebieten bauen sollten, in denen Rotmilane nisten oder in denen Bussarde häufig nach Nahrung suchen. Andernfalls hat der Rotmilan, der in Deutschland sein weltweit größtes Distributionszentrum hat, keine Zukunft, da die Verlustrate bereits fast in der Größenordnung der Nachwuchsrate liegt.

Naturschutz-Initiative

 

Borchen: Brütende Rotmilane wegen Windkraft erschossen?

Radio Hochstift, 8 Mai 2020

Ein weiterer trauriger Fall  wurde gerade in Nordrhein-Westfalen gemeldet. In der Nähe von Paderborn wurde ein brütendes Rotmilanweibchen in seinem Nest erschossen.

Die dortigen Bürgermeister und Ortsvorsteher sehen diesen Vorfall im Zusammenhang mit Plänen, weitere Windkraftanlagen zu errichten [in diesem Gebiet stehen sowieso sehr viele Windräder].   Bei der letzten Verhandlung vor dem Verwaltungsgericht Minden habe die Richterin das Vorhaben befürwortet – für den Fall, dass dort „keine schützenswerten Arten nachgewiesen werden könnten.“

Nachdem das Tier hingerichtet wurde, ist diese Bedingung erfüllt. Wahrscheinlich nur ein Zufall oder vielleicht Selbstmord, um die Windkraftanlagen zu ermöglichen und aus dem Weg zu gehen?

Jetzt hat der Täter in Borchen-Dörenhagen die Situation herbeigeführt, über die das Gericht laut nachgedacht hatte. Die Region muss sich auch selbst zuschreiben, dass dieses erschütternde Ausmaß erreicht wurde. Der Bezirk Paderborn legt keine Berufung gegen Windkrafturteile ein, obwohl er sie als ungerecht ansieht.

Radio Hochstift

 

Gefunden über

https://stopthesethings.com/2020/06/05/shootin-up-developers-killing-endangered-red-kites-to-make-way-for-wind-turbines/

Zusammengestellt und übersetzt durch Andreas Demmig




Wissenschaftsskandal ersten Ranges: Die manipulierten Hydroxychloroquin-Studien

Ein Medikament sorgte in der Corona-Pandemie für Aufsehen: Hydroxychloroquin. Kein Impfstoff, sondern ein Medikament, das vor allem seit 70 Jahren aus der Malariabehandlung gut in seinen Wirkungen und Nebenwirkungen bekannt ist. Und: Es ist preiswert und bietet damit keine beeindruckenden Gewinnmöglichkeiten für den mächtigen Pharmasektor.

Eine gängige Methode in der Medizin bei neuen Erkrankungen ist der Blick in die Apotheke. Welche Mittel sind bereits vorhanden, auch in ihren Nebenwirkungen bekannt und könnten wirken. So konnte in Zellkulturen auch eine Wirkung von Hydroxychloroquin gegen SARS-CoV-2-Viren gezeigt werden. Von Ärzten in China wird berichtet, dass sie auf das Mittel zurückgreifen.

In die Nachrichten schaffte es die Substanz, weil US-Präsident Donald Trump nach Empfehlung seiner Experten dies Mittel anpries und sich – wie könnte es anders sein – heftige Kritik einhandelte. Auch Elon Musk übrigens hob das Mittel hervor.

In Marseille entwickelte der Virologe Professor Didier Raoult vom Institut Hospitalo-Universitaire (IHU) Méditerranée Infection eine Behandlungsmethode mit einer Kombination von Hydroxychloroquin und Azithromycin, einem Antibiotikum, das auch gegen Infektionen der unteren und oberen Atemwege wirkt. Für ihn entscheidend: ein frühes Behandlungsstadium und nicht zu hohe Dosen der Medikamente. Eine erste Studie von ihm lieferte überzeugende Ergebnisse, Raoults Name ging um die Welt, in Frankreich erreichte er so etwas wie Kultstatus, wozu ihm vermutlich auch sein Äußeres verhalf.Der deutsche Virologe Prof. Christian Drosten kritisierte rasch, die Studie Raoults lasse keine Rückschlüsse auf die tatsächliche Wirksamkeit zu; Hydroxychloroquin sei kein »Hoffungsträger«.

Das Mittel geriet langsam ins Zwielicht. Die renommierte Fachzeitschrift Lancet veröffentlichte die entscheidende Studie, die dem Mittel den »Todesstoß« versetzte, wie später der brasilianische Wissenschaftler Marcos Nogueira Erbelin einschätzte. Deren Ergebnis: Hydroxychloroquin könne sogar die Todesrate bei COVID-19 Patienten erhöhen. Auch deutsche Fachzeitungen wie die Deutsche Apothekerzeitung (DAZ)berichtete über die »Entzauberung der Malariamittel«.

Diese Veröffentlichung hatte Folgen. Die Weltgesundheitsorganisation WHO in Genf stoppte ihre Forschungsreihe mit mehr als 3.500 Patienten in 35 Ländern. Mit der sollte untersucht werden, welche bekannten Medikamente möglicherweise gegen COVID-19 wirken könnten. Das Bundesgesundheitsministerium gab gespendete Chloroquin Tabletten »aufgrund aktueller Erkenntnisse« an die Firma Bayer zurück.

Besonders extrem handelte in Frankreich Gesundheitsminister Olivier Veran. Er verbot per Erlass die Behandlung von COVID-19 Erkrankten mit dem Malariamittel.
Doch trotz des Verbotes aus Paris berief sich der mutige Professor Didier in Marseille auf seine ärztlichen Pflichten und behandelte Patienten mit seiner Methode weiter und erzielt damit eindrucksvolle Erfolge.

Professor Didier Raoul veröffentlichte seine Ergebnisse:

»Durch die Untersuchung von 101.522 Proben mittels Polymerase-Kettenreaktion (PCR) von 65.993 Personen diagnostizierten wir 6.836 Patienten (10,4%), darunter 3.737 aus unserer Kohorte. Das Durchschnittsalter betrug 45 Jahre, 45% waren männlich, und die Sterblichkeitsrate betrug 0,9%. Wir führten 2.065 Niedrigdosis-Computertomographien durch, die bei 581 der 933 (62%) Patienten mit minimalen klinischen Symptomen Lungenläsionen aufzeigten. Es wurde eine Diskrepanz zwischen spontaner Dyspnoe, Hypoxämie und Lungenläsionen beobachtet.
Klinische Faktoren (Alter, Komorbiditäten, NEWS-2-Score), biologische Faktoren (Lymphopenie, Eosinopenie, Abnahme des Zinkgehalts im Blut und Zunahme von D-Dimeren, Laktatdehydrogenase (LDH), Kreatininphosphokinase (CPK) und c-reaktivem Protein (CRP)) sowie mittelschwere und schwere Läsionen, die in niedrig dosierten CT-Scans festgestellt wurden, waren mit einem schlechten klinischen Ergebnis assoziiert. Die Behandlung mit HCQ-AZ war mit einem verringerten Risiko der Verlegung auf die Intensivstation oder des Todes (HR 0,19 0,12-0,29), einem verringerten Risiko eines Krankenhausaufenthalts ≥10 Tage (Odds Ratios 95% CI 0,37 0,26-0,51) und einer kürzeren Dauer der Virusabgabe (Zeit bis zur negativen PCR: HR 1,27 1,16-1,39) assoziiert.

Bei 25 Patienten (0,67%) wurde eine QTc-Verlängerung (>60 ms) beobachtet, die in 3 Fällen zum Abbruch der Behandlung führte. Es wurden keine Fälle von abnorm beschleunigtem Puls oder plötzlichem Tod beobachtet.«

Genau einen plötzlichen Tod aufgrund von Herzarrhythmien hatte die im Lancet veröffentlichte Studie behauptet.

Didiers Schlussfolgerung:
»Frühzeitige Diagnose, frühe Isolierung und frühe Behandlung mit mindestens 3 Tagen HCQ-AZ führen bei Patienten mit COVID-19 zu einem signifikant besseren klinischen Ergebnis und einer besseren Ansteckungsfähigkeit als andere Behandlungen. Die nächste Herausforderung bei der Behandlung von COVID-19 wird die langfristige Nachbeobachtung des Fibrose-Screenings sein.«

Ein Beispiel für die weltweiten Verwerfungen, die die Lancet-Veröffentlichung auslöste, zeigte sich in Marokko. Dort geriet die marokkanische Gesundheitspolitik in Bedrängnis. Bereits recht früh, am 20. März, hatte das Land offiziell eine Behandlung von COVID-19 Erkrankten nach den Vorgaben des Professors Raoult eingeführt und damit sehr gute Behandlungserfolge erzielt.

Doch dort sah man recht klar die Fehler der Studie. So gab Prof. Jaafar Heikel, ein marokkanischer Epidemiologe und Spezialist für Infektionskrankheiten, auf eine Anfrage des marokkanischen Wirtschaftsportals Media24 eine ausführliche Erklärung ab: »Es handelt sich hier nicht um eine klinische Studie, sondern um eine Analyse von Datenregistern aus verschiedenen Krankenhäusern und Ländern!«

Ihm kam auch die Finanzierung dieser Studie verdächtig vor, und er kritisierte die Autoren, »deren Hauptautor zugibt, von Laboratorien oder anderen Unternehmen bezahlt zu werden oder Gelder oder Vergütungen zu erhalten.«

Heikel verwies auf seine Ergebnisse: »Ehrlich gesagt kann ich nur aus meiner Erfahrung mit 3.200 Patienten in der Region Casablanca in Koordination mit dem regionalen Gesundheitsamt von Casa Settat sprechen. Wir haben 94,3 Prozent geheilt, 5,7 Prozent schwere Fälle, 2,8 Prozent davon waren tödlich. Auf der anderen Seite 0,8 Prozent der schweren und 12 Prozent der leichten Nebenwirkungen.«
»Dies sind die Fakten, obwohl unsere Patienten offensichtlich im Durchschnitt jünger sind (45 Jahre alt) und wir jeden positiven Fall, der erkannt wurde, auch behandeln.«Er beobachte weiterhin genau die Entwicklung und werde Anpassungen vornehmen, sollte sich herausstellen, dass diese Behandlungsmethode nachteilig sei. Eine schwierige Situation für die Medizin, die in einer sehr unübersichtlichen Situation entscheiden müsse: »Wir müssen Polemiken vermeiden und nach Fakten urteilen und korrigieren, wenn wir uns geirrt haben, aber im Moment ist das nicht der Fall. Marokko hat bisher in Bezug auf Politik, Kontrollmaßnahmen und therapeutische Strategie gut abgeschnitten. Wir können die Aspekte über die Ausweitung der Quarantäne diskutieren, wenn Sie wollen, aber was das Patientenmanagement betrifft, so müssen wir anerkennen, dass wir die Dinge im Lichte des Wissens, das wir haben, gut gemacht haben.«

Jetzt stellt es sich heraus: Die Studie ist falsch. Am Donnerstag zogen die Autoren die Studie zurück. Auf der Seite des Fachzeitschrift Lancet prangt jetzt über dem Artikel fett rot: RETRACTED.

Ein Wissenschaftsskandal ersten Ranges mit tödlichen Folgen für die betroffenen Patienten.

Die Daten lieferte eine Firma Surgisphere aus Chicago. Die gab an, Daten über die Behandlungs- und Gesundheitsergebnisse von 96.032 Patienten aus 671 Krankenhäusern auf allen Kontinenten auswerten zu können. Reichlich viel Daten, von denen das Unternehmen nicht erklären konnte, wie sie zustande gekommen sind. Auch benannte sie nicht die Krankenhäuser, von denen die Daten stammen sollten.

Dies rief neben anderen den australischen Statistiker und Datenwissenschaftler Peter Ellis auf den Plan, der sich das merkwürdige Unternehmen einmal genauer ansah: »Ich bin bei weitem nicht der Erste, der nach mehr Informationen über diese erstaunliche neue Datenbank fragt, von der noch niemand etwas gehört hat, und sie hatten eine Woche Zeit, es zu erklären. Das haben sie sich ausgedacht.«

Man sollte erwarten, meinte Ellis süffisant, dass ein Unternehmen, das im Bereich der Gesundheitsdaten weltweit tätig ist und Software mit sicherheitskritischen elektronischen Patientendatensystemen in 671 Krankenhäusern unterstützt, mindestens Manager und Koordinatoren dieses globalen Netzwerkes, ein Team für die Krankenhausbetreuung, Unterstützungspersonal sowie Ausbilder und Entwickler von Schulungsmaterial und Forscher beschäftigt. Nicht zuletzt sollte sich ein Rechtsteam mit Datenschutz und Vertragsfragen im Umgang mit über 670 Krankenhäusern befassen.Ellis fand bei seiner Untersuchung des Unternehmens niemanden dergleichen. Sein Resultat: »Surgisphere hat keine dieser Personen, mit Ausnahme von Sapan S. Desai, der gleichzeitig Geschäftsführer und medizinischer Forscher ist (ein guter Hinweis auf die Größe der Firma). Seinem LinkedIn-Profil nach zu urteilen besteht sein Team aus drei Verkaufsleitern und zwei Wissenschaftsredakteuren.«

Ellis nimmt kunstgerecht die wesentlichen Behauptungen des Unternehmens auseinander und entlarvt die Auszeichnungen, mit denen Surgisphere hausieren geht, als Übertreibungen. Sein Resümee: »Es ist schrecklich zu glauben, dass die wahrscheinlichste Erklärung für das, was wir sehen, einfach darin besteht, dass die Daten gefälscht sind, in einer möglicherweise kriminellen Verschwörung, und dass der wissenschaftliche Publikationsprozess unterbrochen ist.«

Francesoir, die Online Ausgabe der früheren großen französischen Tageszeitung France Soir, veröffentlichte ein exklusives Interview mit Marcos Erbelin, Professor für Chemie. Er ist Mitglied der Brasilianischen Akademie der Wissenschaften und hat an der Universität von Campinas in Chemie promoviert.

Erbelin wunderte sich: »Die Studie mit 96.000 Patienten, von der noch niemand etwas gehört hat und die in einer der renommiertesten medizinischen Publikationen veröffentlicht wird.« Er vertritt eine Gruppe von 300 Wissenschaftlern. Sie beschreiben den Fall in einem offenen Brief und schilderte den einzigen Zweck der in der Lancet veröffentlichten Studie, Hydroxychloroquin als Behandlung gegen das Coronavirus zu diskreditieren.

Zwei Gruppen machten sich an die Arbeit und überprüfen diese Studie. Eine Gruppe arbeitete in Frankreich, wo der Gesundheitsminister das Verfahren mit dem Hydroxychloroquin brutal zu unterdrücken versuchte. Die andere Gruppe sitzt auf der anderen Seite der Erde in Brasilien. Das Land ist ebenfalls von der Pandemie stark betroffen, Präsident Jair Bolsonaro entschied sich in Absprache mit seinen Experten für die Verwendung von Hydroxychloroquin und wird gleich heftig niedergemacht.»Wir hatten Chemiker, Biologen, Statistiker, Virologen, die alle versuchten, die Auswirkungen von Covid 19, die Behandlungen, einschließlich Hydroxychloroquin, und die Eindämmung zu verstehen.« Geholfen hat der Arbeitsgruppe Erfahrungen mit Infektionen durch den Zika-Virus und die Arbeit in multidisziplinären Arbeitsgruppen.

Erbelin: »Was Hydroxychloroquin betrifft, so waren wir alle schockiert über den Widerstand, den es in Frankreich hervorrief, obwohl dort einer der besten Experten der Welt in Virologie und Epidemiologie tätig ist. Wir haben uns auch angesehen, was in den Vereinigten Staaten geschah.« Die politischen Gegner kontrollierten die Medien (Globo) und wollten Hydroxychloroquin disqualifizieren«, so Erbelin. Die Wissenschaftler benötigten einige Zeit, um sich mit der Studie zu beschäftigen, sie zu verstehen und zu dem Ergebnis zu kommen: Diese Studie ist getürkt.

Mit zu besonderer Vorsicht und Gründlichkeit beigetragen hat, dass diese Studie im renommierten Lancet erschienen ist, ansonsten eine seriöse und zuverlässige Publikation. Das ließ die Gruppe an Wissenschaftlern nicht unbeeindruckt. Doch sehr bald erkannte das Kollektiv nach den Worten von Erbelin den »Versuch, das Hydroxychloroquin schließlich als duale medikamentöse Therapie zu diskreditieren.«
Erbelin: »Wir analysierten alles, mit 300 war es ziemlich schnell, wir teilten die Arbeit. Aber alles schien fragwürdig: die Methodik, die Stichprobenziehung, die verwendeten statistischen Methoden.« Er und seine Gruppe sind entgeistert: »Das ist keine Wissenschaft, das ist eine Instrumentalisierung der Wissenschaft. Wir waren alle schockiert, denn das ist es, was den Ruf der Wissenschaft zerstört.«

In Frankreich sitzen, so Erbelin, die Gegner der Behandlung mit Hydroxychloroquin in Regierung und elitären Kreisen: »In Brasilien ist es wirklich anders, es gibt eine direkte Korrelation zwischen den Gegnern von Hydroxychloroquin und den Gegnern der an der Macht befindlichen Regierung. Über den politischen Teil hinaus konnten wir diese Studie auch mit großen pharmazeutischen Labors in Verbindung bringen.«

Der Skandal um die gefälschten Studien schlägt hohe Wellen. Die WHO hat verkündet, ihre Studie wieder fortzusetzen. Währenddessen eskaliert die Lage um Surgisphere. Elsevier, der Eigentümer der Fachzeitschrift Lancet, erklärte mittlerweile gegenüber der Financial Times, ungefähr 20 Originalartikel zu überprüfen, die Daten von Surgisphere enthalten. Auf Twitter werden Forderungen laut, Lancet und das New England Journal sollten sich sofort einer unabhängigen Untersuchung über den Standard ihrer Redaktions- und internen Überprüfungsverfahren unterziehen.

In Frankreich rollt eine Klagelawine auf die Regierung zu. Tausende von Medizinern und Angehörige von Verstorbenen wollen Klagen einreichen. Angesichts der Tragweite des Skandals dürfte auch der milliardenschwere Pharmasektor unter Beschuss geraten, dem offenbar das preiswerte Malariamittel das Geschäft mit einem möglichen neuen Impfstoff zu verhageln drohte. Nicht überschaubar sind die Verwerfungen, die der Skandal in der französischen Politik hinterlassen wird.

Der Beitrag erschien zuerst bei TE hier




Ein amerikanischer Drachen – Bewährung im gnadenlosen Weltraum

Physik

Lassen Sie uns zunächst einen Blick auf die Physik dieser Reise werfen.

Die ISS umkreist die Erde in 400 km Höhe; das ist auch etwa die Distanz München-Frankfurt. Ist da oben denn die Schwerkraft schon so schwach, dass die Station nicht mehr runterfällt? Keineswegs. Die Erdanziehung da oben ist kaum schwächer als hier unten, und die ISS, so wie jeder andere Satellit, fällt auch andauernd runter. Allerdings hat sie eine so große Geschwindigkeit vorwärts, dass sie an der Erde vorbei fällt. Würde man ihre Geschwindigkeit drosseln, dann fiele sie weiter, so wie vorher, allerdings würde sie jetzt auf die Erde auftreffen.

Genau das passiert, wenn ein Raumschiff zur Landung zurückgeholt wird. Es fällt Richtung Erde, taucht in die Atmosphäre ein, wo es weiter abgebremst wird, und landet schließlich an Fallschirmen baumelnd im Ozean oder in der Steppe.

Damit ein Objekt da oben im Kreis – genannt Orbit – kontinuierlich um die Erde „fällt“, braucht es eine Geschwindigkeit von 27.500 km/h, das ist etwa 30 mal so schnell wie eine Boeing und 1000-mal so schnell wie ein (sportlicher) Radler. Das geht nur im luftleeren Raum. Denn dass die Luft bremst, das merken wir ja schon auf dem Fahrrad.

Die Technik des Drachen

Um also in den Orbit zu kommen, geht es erst einmal senkrecht nach oben, um so schnell wie möglich der hinderlichen Atmosphäre zu entfliehen. Dann geht es horizontal weiter, das Gaspedal am Anschlag, bis die gewünschte Speed erreicht ist. Genau so startete die Dragon 2.

Die Dragon 2 ist die von SPACEX gebaute Raumkapsel mit Platz für sieben Astronauten. In unserem Fall waren nur drei an Bord, wenn man den kleinen Dino mit zählt. Sie wurde von einer Rakete namens „Falcon 9“ in den Himmel geschossen.

Den senkrechten Teil der Reise besorgt die erste Stufe des Falken, die sich nach 3 Minuten vom Rest der Gruppe verabschiedet, nachdem sie ihren Job getan hat. Sie fällt jetzt aber nicht antriebslos zurück auf die Erde und zerschellt, sondern landet, wie von Geisterhand gesteuert, auf einer Plattform, die im Meer auf sie wartet.

FAST AM ZIEL

Nach weiteren neun Minuten hat die zweite Raketenstufe ihre Arbeit erledigt und trennt sich vom Drachen. Auf sie aber wartet kein freundlicher Empfang im Ozean. Sie wird noch einige Orbits hinter sich bringen, bis sie an Höhe verliert und in der Atmosphäre verglüht. Undank ist der Welt Lohn.

Nun ist die Kapsel allein in ihrem Orbit, aber nicht antriebslos. Sie wird jetzt einen halben Tag damit verbringen, sich der ISS zu nähern und bei ihr anzudocken. Es dauert so lange, einerseits weil das Weltall so groß ist, andererseits weil beide Objekte mit acht Kilometer pro Sekunde durch den Raum schießen. Da muss man sich ganz vorsichtig annähern, wenn man Blechschäden vermeiden will.

All das klappte am Samstag, dem 30. Mai 2020 ganz reibungslos und wurde live übertragen. Auch das Ankoppeln ging glatt, voll automatisch, wenn auch einer der Audiokanäle Probleme mit dem Mikro hatte. Das kennen Sie vielleicht aus eigener Erfahrung: Sie bekommen einen Skype-Anruf, stöpseln hektisch mit dem Headset herum, aber der andere hört Sie trotzdem nicht.

Inzwischen schweben die Neuankömmlinge gemeinsam mit denen, die schon länger da oben sind, durchs All, und überlegen, was sie am Abend machen wollen.

VERGLEICH ZUM SHUTTLE

Die Frage liegt nahe, wie sich das Falcon-Dragon Gespann vom Spaceshuttle unterscheidet, dem anderen Vehikel, das bis 2011 die USA mit dem Weltraum verbunden hatte.

Da sind zunächst die Ausmaße. Dragon verhält sich zum Shuttle wie ein VW Polo zu einem Tieflader. So brachte das Shuttle „Discovery“ 1980 das Teleskop „Hubble“ in den Weltraum, welches in der Folge sensationelle astronomische Beobachtungen machte. Mit seinen 13 Metern Länge hätte Hubble nicht in die Dragon Kapsel gepaßt.

Dann sind da die offensichtlichen Unterschiede in der Architektur der beiden Raumschiffe, sowie im Einsatz von Automation. Dem Shuttle, in den 7oer-Jahren entworfen, stand nur ein Bruchteil der Rechenleistung an Hardware und Software zur Verfügung, wie sie SpaceX bei Dragon und Falcon einsetzen konnte.

Die Landung der ersten Falcon-Stufe nach getaner Arbeit auf ihrem eigenen Hinterteil ist ein Zeugnis für den perfekten Einsatz moderner IT. Es ist eine epochale Leistung, sowohl in Automation als auch hinsichtlich Regelungstechnik, die in Millisekunden hunderte Tonnen Schub regeln, bis hin zum finalen „MECO“ – dem “Main Engine Cut Off”.

NEUE GENERATION

Aber nicht nur in der Technologie gibt es Unterschiede, sondern auch in der Kultur der beiden Programme.

Nach Apollo war die NASA von der Regierung beauftragt worden ein Raumfahrzeug zu bauen, das wiederverwendbar sein müsste. Es war nicht mehr akzeptabel, dass die 100 Meter hohe Saturn Rakete wie eine Einmalspritze nach jedem Start entsorgt würde. Man brauchte etwas, das wie ein Flugzeug landet, aufgetankt wird und fertig ist zum nächsten Einsatz.

Daraus wurde dann das Shuttle, das zwar landete wie ein (Segel)Flugzeug, aber keine der anderen Anforderungen erfüllte. Nach der Landung musste die Maschine zerlegt werden, Komponenten wurden überarbeitet oder ausgetauscht, sodaß am Ende oft nur der Name des Schiffes der gleiche war. Zwischen 1981 und 2011 absolvierten sechs Shuttles 136 Flüge. Im Durchschnitt musste also jedes Shuttle mehr als zwölf Monate lang überholt werden, bis es wieder starten konnte (siehe auch hier)

Die NASA hatte damals die Anforderungen der Regierung akzeptiert, wissend, dass sie unerfüllbar waren. Zugegeben, im Shuttle sind geniale technische Lösungen zu finden, aber das Gesamtkonzept war falsch.

Dieser Schwindel hat die Tugenden der NASA vergiftet, welche einst die grandiose Leistung der Mondlandung möglich gemacht hatten. Die Welt der reinen Wissenschaft und Technik war durch Politik kontaminiert worden.

Für die Entwicklung einer völlig neuen Generation von Raumfahrzeugen brauchte man jetzt eine neue Generation von Managern und Ingenieuren. Da waren SpaceX und Elon Musk die richtige Wahl.

Es scheint, dass hier niemand dem Auftragnehmer unmögliche Anforderungen stellte. Es scheint umgekehrt, dass SpaceX freie Hand hatte, alle verfügbare Technologie einzusetzen, um damit das optimale Raumschiff zu konstruieren. Das Ziel wurde von Experten gesetzt, die wussten, was möglich war, nicht von Geldgebern, die eine Wunschliste an den Weihnachtsmann schrieben.

Dazu kam der charismatische Elon Musk – ähnlich wie 50 Jahre früher Wernher von Braun – und man hatte die richtige Mischung.

AMERCA, GREAT AGAIN?

Das Jahrzehnt der Kooperation mit Rußland bei den Flügen zur ISS war zwar gut verlaufen, aber die Abhängigkeit von fremder Technologie war eine Demütigung für die USA. Man machte gute Miene, zahlte 50 Millionen Dollar für jeden „Round-Trip out of Kasachstan“ in der Sojus-Kapsel und knirschte mit den Zähnen.

So war es eine ersehnte Erlösung für die Amerikaner, die den Flug des Drachen am Fernseher verfolgten wie einst Apollo. Endlich hat wieder eine US-Firma eine epochale Leistung vollbracht, auf welche die Welt schaut. Es ist nicht mehr das Versagen ehemaliger industrieller Giganten wie Boeing oder General Motors, das im Rampenlicht steht. Man kann einen Erfolg feiern, der durch technologische Brillanz und charismatische Leadership möglich wurde, und der nicht von Medien künstlich konstruiert ist, sondern der sich im gnadenlosen Weltraum bewährt hat.

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“