1

Ist Begutachtung [peer review] schlecht für Wissenschaft?

Schauen wir uns zunächst einmal an, was Peer Review zu tun versucht. Es liegt auf der Hand, die Veröffentlichung von gefälschter Wissenschaft zu blockieren. Dies scheint jedoch in den meisten Wissenschaften ein seltenes Ereignis zu sein. Es werden jedes Jahr mehrere Millionen Zeitschriftenartikel veröffentlicht, die alle begutachtet wurden, in der Regel von zwei oder drei Gutachtern. Offensichtlich waren diese vielen Millionen Begutachtungen kein Hindernis hinsichtlich der Veröffentlichung dieser unzähligen Artikel.

Paradoxerweise wurden jedoch die meisten dieser Artikel tatsächlich auf der Grundlage von Peer-Review-Verfahren abgelehnt; viele wurden mehrmals abgelehnt. Spitzenzeitschriften rühmen sich oft mit hohen Ablehnungsquoten, etwa 80% oder so. Wenn dies die allgemeine Praxis ist, muss ein durchschnittlicher Artikel bei etwa fünf Zeitschriften eingereicht werden, bevor er akzeptiert und veröffentlicht wird. Wenn jede Einreichung einem Peer-Review-Verfahren unterzogen wird, dann sind das eine Menge Überprüfungen pro Artikel, vielleicht zehn bis fünfzehn im Durchschnitt.

Angesichts der Tatsache, dass all diese mehrfach abgelehnten Artikel schließlich veröffentlicht werden, muss etwas anderes als einfache Bewertung betrieben werden. Dieses Etwas scheint ein äußerst mühsamer Sortierprozess zu sein, bei dem jeder Artikel schließlich die „richtige“ Zeitschrift findet. Es ist schwer vorstellbar, dass durch diese vielen Millionen von Begutachtungen eine Aufwertung der Beiträge stattfindet. In welcher Zeitschrift ein Artikel schließlich erscheint, scheint angesichts moderner Suchtechnologien nicht mehr sehr wichtig zu sein.

Ein negativer Aspekt der Peer Review ist bekannt. Hier verhindert die Bewertung, dass großartige neue Ideen veröffentlicht werden. Max Planck, der die Quantennatur der Energie entdeckte, drückte es sehr schön aus und sagte so etwas wie: „Ihre Ideen werden (nur) dann akzeptiert, wenn Ihre Studenten Zeitschriftenredakteure werden. Das ist die dunkle Seite der Peer-Review, die die Wissenschaft blockiert, die neuartigen guten Ideen werden als schlechte Ideen blockiert.

Aber es gibt noch einige andere Nachteile, die sich aus dem Peer-Review ergeben, die ich nicht erwähnt gesehen habe. Diese Schattenseiten sind Merkmale der unglaublich zeit- und arbeitsintensiven Natur dieser Praxis.

Da ist zunächst die enorme Zeitverzögerung zwischen dem Zeitpunkt, an dem eine Arbeit geschrieben wird, und dem Zeitpunkt, an dem sie schließlich veröffentlicht wird. Nehmen wir an, dass die Begutachtung durch Fachkollegen vier Monate dauert, was wahrscheinlich ziemlich schnell ist. Wenn eine durchschnittliche Studie fünf Mal begutachtet wird, dann sind das fast zwei Jahre an Begutachtungen, bevor sie schließlich angenommen wird. (Außerdem liegen zwischen diesen Begutachtungen noch viele andere Schritte, so dass der Durchschnitt eher bei vier Jahren von der ersten Einreichung bis zur endgültigen Veröffentlichung liegen dürfte).

Wenn jedes Jahr zwei Millionen Arbeiten mit einer durchschnittlichen Verzögerung von etwa zwei Jahren aufgrund von Peer-Review-Verfahren veröffentlicht werden, bedeutet dies eine Anhäufung von vier Millionen Jahren Verzögerung pro Jahr. Man kann davon ausgehen, dass die Beseitigung dieser gewaltigen Flut von Verzögerungen den Fortschritt der Wissenschaft dramatisch beschleunigen würde.

Dann sind da noch die Kosten. Die Organisation und Verwaltung des Peer-Review-Verfahrens ist wahrscheinlich der größte Kostenfaktor für Zeitschriftenverlage. Man beachte, dass bei einer Ablehnungsquote von 80 % etwa fünf Artikel für jeden veröffentlichten Artikel begutachtet werden. Bei drei Begutachtungen bedeutet das jeweils fünfzehn Begutachtungen pro veröffentlichten Artikel.

Die hohen Kosten für Zeitschriften und Artikel sind ein großes Hindernis für den Zugang aller außer den reichsten Universitäten und Forschern. Dadurch wird der Fortschritt der Wissenschaft wahrscheinlich stark behindert.

Hinzu kommt die enorme Zeit, die Forscher damit verbringen, die Artikel der anderen zu überprüfen. Es wird erwartet, dass die Rezensionen umfassend sind, so dass sie wahrscheinlich jeweils 10 bis 20 Stunden dauern, vielleicht sogar mehr. Bei fünfzehn Rezensionen pro veröffentlichten Artikel sind das 150 bis 300 Stunden Rezensionszeit.

Man multipliziere das mit 2 Millionen veröffentlichten Artikeln, und wir erhalten unglaubliche 300 bis 600 Millionen Stunden pro Jahr, die eher der Rezension als der Forschung gewidmet sind. Geht man davon aus, dass ein Arbeitsjahr 2000 Stunden beträgt, ist das so, als ob man 150.000 bis 300.000 Forscher von ihrem eigentlichen Arbeitsplatz fernhält, nur um die Arbeiten der anderen zu begutachten. Man stelle sich vor, was man stattdessen an Forschungen durchführen könnte. Auch dies ist ein großer Verlust für den Fortschritt der Wissenschaft.

Schlussfolgerung: Peer-Review fügt dem wissenschaftlichen Prozess in erheblichem Umfang Verzögerungen, Kosten und Ablenkung hinzu. Es ist nicht gut genug, um diese enormen negativen Auswirkungen auf das Tempo des wissenschaftlichen Fortschritts zu rechtfertigen. Unter dem Strich ist Peer-Review also schlecht für die Wissenschaft.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2020/07/18/is-peer-review-bad-for-science/

Übersetzt von Chris Frey EIKE




Globaler ‚Great Reset‘* ist wie Klimapolitik zu Drogen – Sozialismus in Grün

Wie es die Befürworter des Grünen New Deal bei seiner Einführung taten, befleißigen sich diejenigen, die den Great Reset vorantreiben, der Angstmacherei und ungerechtfertigter Untergangsprophezeiungen, um die Menschen glauben zu machen, dass dies der einzige Weg sei, eine globale Apokalypse abzuwenden.

Klaus Schwab, Gründer und geschäftsführender Vorsitzender des Weltwirtschaftsforums, sagte: „Wir haben nur einen Planeten, und wir wissen, dass der Klimawandel die nächste globale Katastrophe mit noch dramatischeren Folgen für die Menschheit sein könnte. Wir müssen die Wirtschaft in dem kurzen noch verbleibenden Zeitfenster dekarbonisieren und unser Denken und Verhalten wieder in Einklang mit der Natur bringen.

Wir brauchen einen Mentalitätswandel, den Übergang vom kurzfristigen zum langfristigen Denken, den Übergang vom Aktionärskapitalismus zur Verantwortung der Aktionäre. Ökologische, soziale und gute Regierungsführung müssen ein angemessener Teil der Rechenschaftspflicht von Unternehmen und Regierungen sein“, sagte Schwab.

Dies klingt unheimlich nach der Prognose der Abgeordneten Alexandria Ocasio-Cortez (D-NY), der zufolge die Welt in 12 Jahren untergehen wird, wenn der Green New Deal nicht zum Gesetz des Landes wird.

Nicht zu übertreffen, beschrieb der Prinz von Wales die dringende Notwendigkeit des Great Reset so: „Um unsere Zukunft zu sichern und Wohlstand zu schaffen, müssen wir unser Wirtschaftsmodell weiterentwickeln und die Menschen und den Planeten in den Mittelpunkt der globalen Wertschöpfung stellen. Wenn es eine entscheidende Lektion aus dieser Krise zu lernen gibt, dann die, dass wir die Natur in den Mittelpunkt unseres Handelns stellen müssen. Wir dürfen einfach nicht noch mehr Zeit verschwenden“.

Es ist bezeichnend, dass fast alle sich für einen massiven wirtschaftlichen und sozialen Wandel als Reaktion auf den Klimawandel einsetzenden Staats- und Regierungschefs der Welt sagen, dass wir diese umfassenden Veränderungen sofort umsetzen müssen, sonst wird die Welt untergehen. Woher wissen sie das? Sie wissen es nicht.

UNO-Generalsekretär António Guterres fügte hinzu: „Der Great Reset ist eine willkommene Erkenntnis, dass diese menschliche Tragödie ein Weckruf sein muss. Wir müssen gleichberechtigtere, integrativere und nachhaltigere Volkswirtschaften und Gesellschaften aufbauen, die angesichts von Pandemien, des Klimawandels und der vielen anderen globalen Veränderungen, mit denen wir konfrontiert sind, widerstandsfähiger sind“.

Praktischerweise bieten weder Guterres noch die anderen eine spezifische Politik zur Erreichung dieser Klimaziele an. Stattdessen verlassen sie sich auf Plattitüden und Wohlfühlmechanismen, um Unterstützung für ihre Position zu gewinnen.

Die vielleicht aufschlussreichste Beschreibung der schieren Größe und des Umfangs des Great Reset stammt von Ma Jun vom China Green Finance Committee. Jun sagt, dass die im Great Reset skizzierten Veränderungen „grüner sein müssen als jede der früheren Konjunkturerholungen“.

Jun sagt, das Konjunkturpaket des Great Reset sei „sehr groß – größer als die historischen Zahlen“. Wie groß? Laut Jun etwa 20 Prozent des BIP der USA oder 8 Prozent des BIP Chinas. Das ist größer als groß.

Jun bezeichnete auch die folgenden politischen Maßnahmen als wesentlich im Rahmen des Great Reset:

1. „Stellen Sie sicher, dass der Prozentsatz grüner Projekte höher ist als jemals zuvor in der Geschichte“.

2. „Stellen Sie sicher, dass Projekte, die nicht als grün gekennzeichnet werden können, strenge Umweltstandards einhalten.

3. „Konsumanreize müssen grün sein. Regierungen könnten eine Liste grüner Konsumgüter erstellen, und diese sollten auf einer Liste von Verbrauchersubventionen und Coupons bevorzugt werden.

4. Programme zur Schaffung von Arbeitsplätzen müssen grün sein. Wanderarbeiter haben Arbeitsplätze verloren. Statt ihnen Arbeitslosengeld zu zahlen, sollten wir sie auffordern, Bäume zu pflanzen und sie dafür zu bezahlen.

5. Regierungen [müssen] grüne Anleihen so weit wie möglich in Betracht ziehen. Das erhöht die Marktteilnahme und ermutigt den Privatsektor, sich ebenfalls zu beteiligen.

6. Alle Zentralbanken, die eine quantitative Lockerung in Betracht ziehen, sollten grüne Anleihen verwenden.

Es ist ironisch, dass China auf diese übergrüne Politik drängt. China ist bei den Kohlendioxidemissionen weltweit führend und einer der weltweit führenden Verbraucher fossiler Treibstoffe, einschließlich Kohle. „Tu, was ich sage, und nicht, was ich tue“ scheint hier in höchstem Maße zu gelten.

Die Abbildung oben (Quelle Data source: EDGAR – Emissions database for Global Atmospheric Research.)

Beim Great Reset geht es nicht um die Rettung der Umwelt, ebenso wenig wie beim Green New Deal. In Wahrheit sind beide Programme Trojanische Pferde für eine massive Umverteilung des Reichtums und sozial gerechter Systeme auf einem bisher nicht gekannten Niveau. Bis heute haben viele prominente Demokraten und Organisationen der extremen Linken (insbesondere Pseudo-Umweltinstitutionen) den Green New Deal und/oder den Great Reset unterstützt.

Nächstes Jahr wird der WEF ein Gipfeltreffen ausrichten, um „wichtige globale Regierungs- und Wirtschaftsführer in Davos mit einem globalen Multistakeholder-Netzwerk in 400 Städten auf der ganzen Welt für einen zukunftsorientierten Dialog zu verbinden, der von der jüngeren Generation vorangetrieben wird“.

Das Letzte, was die Welt braucht, ist ein Haufen verirrter Eliten, die im schweizerischen Davos Urlaub machen, um die Weltwirtschaft auf der Grundlage von Junk Science und Klischees über soziale Gerechtigkeit neu zu gestalten, um der demografischen Bevölkerung von Greta Thunberg zu gefallen.

Wenn diese Eliten wirklich über den weltweiten Klimawandel besorgt sind, sollten sie ihrem Jet-Set-Lebensstil entsagen und wie wir alle leben. Leider erscheint das so unwahrscheinlich, wie wenn Greta ihre 15 Minuten Ruhm aufgeben und wieder Vollzeit zur Schule gehen würde.

Guest essayist Chris Talgo (ctalgo@heartland.org) is an editor at The Heartland Institute.

Quellen: Stopping Socialism; World Economic Forum; United States House of Representatives

Link: https://www.heartland.org/news-opinion/news/global-great-reset-is-climate-policy-on-steroids-socialism-in-green

Übersetzt von Chris Frey EIKE




Fact-checking the fact-checkers*

Forbes kapitulierte tatsächlich unter dem Druck und zog seinen Artikel zurück.

Andere Online-Plattformen bezeichneten den Artikel als „fact-checked false“.

Der Klimawissenschaftler Roger Pielke jr. überprüfte die selbsternannten Faktenprüfer und befand ihre Angriffe auf Shellenberger für „unbestreitbar falsch“. Besonders genau zielte er auf MIT-Professor Kerry Emanuel, der Shellenbergers Behauptungen, der Klimawandel mache Naturkatastrophen oder menschliches Leid nicht schlimmer, als „unhaltbar“ bezeichnete. Die Fakten stehen, wie Pielke offenbart, genau im Gegensatz zu dem, was Emanuels so genanntes „fact-checking“ zu behaupten versucht. „Jede Studie, die die globalen wirtschaftlichen Verluste nach der Normalisierung (für das BIP oder andere Faktoren) untersucht hat, hat durchweg keine Zunahme der Verluste überhaupt festgestellt“, enthüllte Pielke.

Selbst das oberste klimawissenschaftliche Gremium der UNO, das IPCC, unterstützt Shellenberger und Pielke und steht im Widerspruch zum Faktenprüfer Emanuel. „Der IPCC-Sonderbericht über Extremereignisse kam (auf einer viel dünneren Evidenzbasis) zu dem Ergebnis, dass ‚langfristige Trends bei normalisierten Verlusten nicht dem natürlichen oder anthropogenen Klimawandel zugeordnet wurden’“, erklärte Pielke.

Voreingenommene Faktenprüfer stellen eine Bedrohung für einen offenen, fairen und freien Dialog im Internet dar.  Sie nehmen einen unverdienten Mantel der Autorität an und benutzen ihn, um die Debatte zu verzerren.  Facebook, Google, YouTube, Amazon und der Rest sollten sich nicht auf sie verlassen.

Werfen Sie einen Blick auf Marc Moranos vollständigen Beitrag bei Climate Depot mit allen unterstützenden Diagrammen, Grafiken und Daten. Dr. Pielke legt einen erschütternden Fall dar.

Autor: Craig Rucker is a co-founder of CFACT and currently serves as its president

Link: https://www.cfact.org/2020/07/16/fact-checking-the-fact-checkers/

Übersetzt von Chris Frey EIKE




DAS KLIMA UND SEINE RISIKEN

Die Mutter der Angst

Es geht in diesem Artikel um Risikomanagement. Das betreiben wir ganz intuitiv schon von Kindesbeinen an: Wir überlegen uns gut, ob wir dem großen Bruder einen der Schokoriegel klauen und ob wir mit Nachbars Schäferhund fangen spielen.

Das Verhalten gegenüber Risiken bestimmt ganz wesentlich unseren Charakter und den Verlauf unseres Lebens. Manche halten es für zu gefährlich, ein Flugzeug zu besteigen, andere, eine Rede zu halten.

Ratlosigkeit gegenüber Risiken erzeugt ein Gefühl, dass als Angst bezeichnet wird. Das Schüren dieser Angst durch verzerrte Darstellung von Risiken ist probates Mittel der Politik. Atomausstieg oder Corona-Lockdown wären von der Bevölkerung nicht so willig hingenommen worden, hätten Staatsfunk und Presse nicht durch schreckliche Bilder und falsche Zahlen psychologische Vorarbeit geleistet.

Dem Bürger wurde ganz dramatisch seine Hilflosigkeit vor Augen geführt. In dieser Situation würde er dann bei „Mutti“ Schutz suchen. Inzwischen sind wir aber erwachsen und sind in der Lage, mit Logik und System an das Thema Risiko heranzugehen.

 

Wahrscheinlichkeit und Schaden

Offensichtlich sind es zwei Parameter, die ein Risiko kennzeichnen: zum einen die Wahrscheinlichkeit des Eintreffens und zum anderen das Ausmaß des befürchteten Schadens. Die realistische Einschätzung von Wahrscheinlichkeit und Schaden ist nicht einfach.

So unterschiedlich diese beiden Aspekte sind, so schwer ist es, sie auseinanderzuhalten. Wir reden von „großem Risiko“, ohne zu wissen, ob wir damit die Wahrscheinlichkeit oder den Schaden meinen.

Betrachten wir Risiken im täglichen Leben:

  • Sie wollen weg, aber der Hund hat Ihren Autoschlüssel versteckt
  • Sie werden gekidnappt
  • Eine Puffotter beißt Sie ins Bein

Oder:

  • Eine Möwe lässt einen Klecks auf Ihren Kopf fallen
  • Sie kommen abends nach Hause und es ist eingebrochen worden
  • Sie erleiden einen Sportunfall

Oder:

  • In Ihrem Lieblingsrestaurant ist kein Tisch mehr frei
  • Sie erleiden einen Autounfall
  • Ihr anstrengender Lebensstil verursacht gesundheitlichen Schaden

Versuchen Sie nun, jedes Risiko nach Wahrscheinlichkeit und Schaden zu bewerten. Fragen Sie sich: „Wie schlimm wäre das, wenn es geschähe“ und „wie wahrscheinlich ist es / ist es mir schon passiert / oder anderen?“ Klassifizieren Sie nach „niedrig“, „mittel“ und „hoch“.

Sie haben es sicher gleich gesehen: Die Wahrscheinlichkeit wird von Ansatz zu Absatz größer; der Schaden wächst von Zeile zu Zeile. Das volle Restaurant etwa ist mit hoher Wahrscheinlichkeit zu erwarten, aber der Schaden ist minimal; daher klassifizieren wir dieses Risiko als hoch/niedrig.

 

Aktiv und passiv

Die Faustregel ist nun,  dass wir die Kandidaten niedrig/niedrig oder mittel/niedrig ignorieren. Wir haben nicht immer eine Million in bar dabei, um die Kidnapper auszuzahlen, wir setzen keinen Tropenhelm gegen „Bird Dropping“ auf, und dem Hund kaufen wir keinen eigenen Wagen, damit er unsere Autoschlüssel liegen lässt.

Gegen die drei Risiken hoch/hoch, hoch/mittel und mittel/hoch schützen wir uns auf jeden Fall;  alles andere wäre verantwortungslos. Nehmen wir den Autounfall: Wir fahren auf gut profilierten Reifen, die der Jahreszeit entsprechen, unser Bremssystem ist auf neuestem Entwicklungsstand und das Wageninnere mit Airbags tapeziert. Die Sicherheitsgurte brauche ich hoffentlich gar nicht zu erwähnen.

Ganz offensichtlich helfen gute Reifen und Bremsen, die Wahrscheinlichkeit eines Unfalls zu mindern, während Airbag und Gurt den Schaden verringern, falls es dann doch kracht. Minderung der Wahrscheinlichkeit ist „aktives Risikomanagement“, Minderung des Schadens „passives“.

Das Risiko Atomkraft ist übrigens vom Typ niedrig/hoch, so wie die Puffotter. Die Wahrscheinlichkeit eines Unfalls ist sehr niedrig, der Schaden wäre hoch. Der deutsche Atomausstieg, der uns als aktives Risikomanagement verkauft wurde, hat die ohnehin geringe Wahrscheinlichkeit nicht wesentlich reduziert, denn es gibt gleich nebenan noch die Reaktoren in Tihange, Fessenheim und Temelin. Der wirtschaftliche Schaden des Atomausstiegs ist allerdings gewaltig.

 

Die Macht der Angst

Die Krone der Täuschung aber trägt den Namen „Klimawandel“. Wir wollen jetzt nicht in die wissenschaftliche Diskussion des Themas einsteigen, sondern für unsere Zwecke das offizielle Narrativ akzeptieren. Auf Basis dieser – mehr als fragwürdigen – Grundlage lassen Sie uns das globale Risikomanagement der angeblich größten jemals dagewesenen Bedrohung analysieren.

In unserer Systematik wäre der Klimawandel natürlich hoch/hoch. Es ist also absolut geboten, Gegenmaßnahmen zu implementieren, um die Welt zu retten. Die weltweit beschlossene Maßnahme ist die Reduktion des von Menschen verursachten CO2 in Richtung null. Das ist „aktives Risikomanagement“, denn es verringert die Wahrscheinlichkeit des Eintretens.

Das Kyoto-Protokoll von 1992 legte die Rahmenbedingungen für diese Anstrengung fest. Seither sind die CO2-Emissionen um 50% gestiegen, trotz jährlicher Konferenzen mit Tausenden von Teilnehmern. Siehe auch https://think-again.org/corona-statt-klima/

 

Die Senkung der CO2-Konzentration in der Atmosphäre gelingt also offensichtlich nicht, sei es aus technischen, politischen oder wirtschaftlichen Gründen. Es geht einfach nicht – Punkt. Das hat man jetzt 25-mal auf gigantischen Kongressen festgestellt.

Auch die Zerstörung der Natur in Deutschland durch Windräder hat keinen Beitrag geleistet. Auch diese Medizin namens Energiewende ist wieder einmal schädlicher als die Krankheit.

 

Wo bleibt unser Airbag?

Warum also setzt man nicht passives Risikomanagement ein? Warum sorgt man nicht dafür, dass die Folgen des unausweichlichen Desasters so gering wie möglich ausfallen? Das wäre doch logisch. Und noch dazu könnten wir es unabhängig vom Rest der Welt machen! Passives Risikomanagement wäre eine lokale Angelegenheit. Aktives Risikomanagement verlangt globale Maßnahmen. Die Eindämmung von CO2 geht ja nur, wenn die ganze Welt mitmacht, denn das Zeug verteilt sich spontan über den ganzen Erdball, egal woher es kommt.

Und noch etwas: Unsere passiven Maßnahmen würden auch greifen, falls nicht die Menschheitdie Ursache für den Klimawandel wäre, sondern „jemand“ anderes!

Ein Airbag hilft ja auch, wenn der andere den Unfall verursacht hat. Die Reduzierung von CO2 aber, auch wenn sie gelänge, wäre ein sinnloses Unterfangen, wenn etwa die Sonne oder die Erdachse Schuld am Klimawandel wären. Unsere nagelneuen Reifen helfen auch nicht, wenn an der Ampel jemand auf uns auffährt. Wenn der andere schuld ist, dann helfen hoffentlich die passiven Maßnahmen: Nackenstütze oder Gurtstrammer.

 

Her mit den passiven Maßnahmen.

Die Erwärmung wird bei uns dazu führen, dass bislang unbekannte Insekten und Reptilien heimisch werden. Warum also hat man nicht längst dafür gesorgt, dass Babybetten Moskitonetze haben, um die Kleinen vor Malaria zu schützen? Warum hat man Bauernhöfe im Allgäu nicht längst gegen Hyänen und Krokodile abgesichert, die dorthin aus ihrer afrikanischen Heimat einwandern? Wann endlich wird Lübeck evakuiert, bevor es ganz im Meer versinkt? Und wo sind die Haifischnetze vor Sylt, um unsere Urlauber zu schützen?

Sie sehen, solche Maßnahmen würden der Menschheit die Absurdität der ganzen Klimahysterie zu deutlich vor Augen führen.

Vielleicht wenden Sie ein, dass man in Nordfriesland längst an den Deichen baut, um sich gegen Sturmfluten zu schützen – ein Musterbeispiel für passives Risikomanagement. Das ist wahr, und Ihr Wort „längst“ trifft den Nagel auf den Kopf: schon seit Jahrhunderten! Deiche sind und waren permanente Bauprojekte, seit Menschen auf die Idee kamen, sich an flachen Küsten anzusiedeln. Es ist wieder einmal pfiffiges Marketing der Klimajünger, dieses Projekt nun als Schutz vor Gefahren des Klimawandels zu verkaufen. Sturmfluten gab es schon immer, man lese nur die Erzählung „Der Schimmelreiter“ von Theodor Storm aus dem Jahr 1888.

Es wären die neuen, speziell gegen vermeintliche Klimarisiken gerichteten Schutzmaßnahmen, welche das ganze Klima-Narrativ ad absurdum führen würden. Im eingangs geschilderten persönlichen Risikomanagement wäre das so, als trügen Sie auf dem Kopf einen Tropenhelm, über die Schulter ein gekühltes Umhängetäschchen und an den Beinen kräftige Schaftstiefel. So kommen Sie dann morgens ins Büro und die Kollegen fragen: Na, geht’s auf Safari? Und Sie antworten ganz gelassen: Nein, aber man kann nicht vorsichtig genug sein. Der Helm schützt vor den Möwen, die Stiefel gegen Schlangenbisse und in meinem Täschchen hab ich das Serum gegen die häufigsten Reptiliengifte, ach ja, und außerdem eine Million Dollar in bar für die Kidnapper.

 

Die Bilanz

Das ist also die Situation: Sinnvolle passive Maßnahmen zum Management der Risiken durch den Klimawandel sind derzeit nicht denkbar. Die aktiven Gegenmaßnahmen aber, die ergriffen wurden, sind astronomisch teuer und haben nichts bewirkt. Die Arznei war nutzlos und schädlicher als die Krankheit.

Unter dieser Überschrift wird Angela Merkels gesamtes Wirken in die Geschichtsbücher eingehen.

 

Dieser Artikel erschien zuerst bei www.think-again.orgund im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/

 




Nutzloser und gesundheitsgefährdender Mund-Nasen-SchutzMasken sind weder wirksam noch sicher

Drucken Sie diesen Artikel aus und geben Sie ihn verängstigten Maskenträgern, die den alarmierenden Medien, Politikern und Technokraten in weißen Kitteln geglaubt haben. Masken sind erwiesenermaßen unwirksam gegen Coronaviren und potenziell schädlich für gesunde Menschen und Menschen mit Vorerkrankungen.

In den Vereinigten Staaten wie auch in anderen Ländern hat die Verwendung von Gesichtsmasken an öffentlichen Orten, auch über längere Zeiträume, in jüngster Zeit zugenommen. Die Öffentlichkeit wurde von ihren Regierungen und Masssenmedien darüber aufgeklärt, der Gebrauch von Masken könne auch dann, auch wenn man selbst nicht krank sei, vor einer Infektion mit SARS-CoV-2, dem infektiösen Erreger von COVID-19, schützen.

Ein Bericht über die von Fachkollegen überprüften medizinischen Literatur untersucht die Auswirkungen auf die menschliche Gesundheit, sowohl in immunologischer als auch in physiologischer Hinsicht. Der Zweck dieser Arbeit ist es, Daten zur Wirksamkeit von Gesichtsmasken sowie Sicherheitsdaten zu untersuchen. Der Grund dafür, dass beide in einer einzigen Abhandlung untersucht werden, liegt darin, dass für die breite Öffentlichkeit als Ganzes sowie für jeden Einzelnen eine Risiko-Nutzen-Analyse notwendig ist, um Entscheidungen darüber zu treffen, ob und wann eine Maske getragen werden soll.

Sind Masken wirksam bei der Verhinderung einer Übertragung von Atemwegserregern?

In dieser Meta-Analyse wurde festgestellt, dass Gesichtsmasken keine nachweisbare Wirkung in Bezug auf die Übertragung von Virusinfektionen haben. Es wurde festgestellt: „Im Vergleich zum Nichtragen einer Maske gab es beim Tragen einer Maske weder in der Allgemeinbevölkerung noch bei den Beschäftigten im Gesundheitswesen eine Verringerung der Fälle von grippeähnlichen Erkrankungen oder Grippe.“

Diese Meta-Analyse von 2020 ergab, dass das aus kontrollierten Studien (die mit Gesichtsmasken durchgeführt wurden) resultierende Datenmaterial keinen Beweis für einen wesentlichen Effekt auf die Übertragung der im Labor bestätigten Influenza ergaben, weder wenn sie von infizierten Personen (Quellenkontrolle) noch wenn sie von Personen aus der Allgemeinbevölkerung getragen werden. Eine Verringerung der Anfälligkeit wurde nicht festgestellt.

Eine andere kürzlich durchgeführte Untersuchung ergab, dass Masken keine spezifische Wirkung gegen Covid-19 hatten, auch wenn die Verwendung von Gesichtsmasken in drei von 31 Studien mit einer „sehr leicht verringerten“ Wahrscheinlichkeit, eine grippeähnliche Erkrankung zu entwickeln, in Verbindung gebracht wurde.

Diese 2019 durchgeführte Studie mit 2.862 Teilnehmern zeigte, dass sowohl N95-Atemschutzmasken als auch Operationsmasken „zu keinem signifikanten Unterschied in der Inzidenz der im Labor bestätigten Grippe führten“.

Eine andere, 2016 durchgeführte Meta-Analyse ergab, dass sowohl randomisierte kontrollierte Studien als auch Beobachtungsstudien zu N95-Atemschutzmasken und Operationsmasken, die von medizinischem Personal verwendet werden, keinen Nutzen gegen die Übertragung von akuten Atemwegsinfektionen zeigten. Es wurde auch festgestellt, dass eine akute Übertragung von Atemwegsinfektionen „durch die Kontamination von bereitgestellten Atemschutzgeräten während der Lagerung und Wiederverwendung von Masken und Beatmungsgeräten während des Arbeitstages stattgefunden haben könnte“.

Eine weitere, 2011 durchgeführte Meta-Analyse von 17 Studien zu Masken und ihrer Wirkung auf die Übertragung von Influenza ergab, dass „keine der Studien eine schlüssige Beziehung zwischen dem Gebrauch von Masken/Atemschutzmasken und dem Schutz vor einer Influenza-Infektion hergestellt hat“. Die Autoren spekulierten jedoch, dass die Wirksamkeit von Masken möglicherweise mit einer frühen konsistenten und korrekten Anwendung zusammenhängt.

Die Verwendung von Gesichtsmasken erwies sich im Vergleich zu Kontrollen ohne Gesichtsmaske bei medizinischem Personal ebenfalls als nicht schützend vor Erkältungen.

Luftstrom um Masken

Es wurde angenommen, dass Masken die Vorwärtsbewegung von Viruspartikeln wirksam behindern. Betrachtet man diejenigen, die neben oder hinter einem Maskenträger positioniert sind, so ist die Übertragung virusbeladener Flüssigkeitspartikel von maskierten Personen weiter fortgeschritten als von unmaskierten Personen, und zwar durch „mehrere Leckstrahlen, einschließlich intensiver Rückwärts- und Abwärtsstrahlen, die große Gefahren darstellen können“ sowie einen „potenziell gefährlichen Leckstrahl von bis zu mehreren Metern“. Es wurde davon ausgegangen, dass alle Masken den Vorwärtsluftstrom um 90 Prozent oder mehr reduzieren, als wenn keine Maske getragen wird. Die Schlieren-Bildgebung zeigte jedoch, dass sowohl chirurgische Masken als auch Tuchmasken einen weiter reichenden Brauenstrahl (ungefilterter aufwärts gerichteter Luftstrom an den Augenbrauen vorbei) hatten als ohne, 182 bzw. 203 Millimeter, im Gegensatz zu keiner Auffälligkeit beim Nichtragen einer Maske. Der rückwärts gerichtete ungefilterte Luftstrom erwies sich bei allen Maskenträgern im Vergleich zu Nicht-Maskierten als stark.

Sowohl bei N95- als auch bei chirurgischen Masken wurde festgestellt, dass ausgestoßene Partikel von 0,03 bis ein Mikron um die Ränder jeder Maske abgelenkt wurden und dass eine messbare Penetration von Partikeln durch den Filter jeder Maske erfolgte.

Durchdringung von Masken

Eine Studie mit 44 Maskenmarken ergab eine mittlere Durchdringung von 35,6 Prozent (plus 34,7 Prozent). Die meisten medizinischen Masken hatten eine Penetration von über 20 Prozent, während „allgemeine Masken und Taschentücher keine Schutzfunktion hinsichtlich der Aerosol-Filtrationseffizienz hatten“. Die Studie ergab, dass „medizinische Masken, allgemeine Masken und Taschentücher nur einen geringen Schutz gegen Atemaerosole bieten“.

Es mag hilfreich sein, sich daran zu erinnern, dass ein Aerosol eine kolloidale Suspension von flüssigen oder festen Partikeln in einem Gas ist. Bei der Atmung ist das relevante Aerosol die Suspension von bakteriellen oder viralen Partikeln im ein- oder ausgeatmeten Atem.

In einer anderen Studie lag die Durchdringung von Stoffmasken durch Partikel bei fast 97 Prozent und bei medizinischen Masken bei 44 Prozent.

N95-Atemschutzgeräte

Honeywell ist ein Hersteller von N95-Atemschutzmasken. Diese werden mit einem 0,3-Mikron-Filter hergestellt. N95-Atemschutzmasken werden deshalb so genannt, weil 95 Prozent der Partikel mit einem Durchmesser von 0,3 Mikron von der Maske mithilfe eines elektrostatischen Mechanismus gefiltert werden. Coronaviren haben einen Durchmesser von etwa 0,125 Mikrometern.

Die Meta-Analyse ergab, dass N95-Atemschutzmasken keinen besseren Schutz vor Virusinfektionen oder grippeähnlichen Infektionen bieten als Gesichtsmasken. In dieser Studie wurde festgestellt, dass N95-Atemschutzmasken bei der Passformprüfung im Vergleich zu chirurgischen Masken einen besseren Schutz boten.

Die Studie ergab, dass 624 von 714 Personen, die N95-Masken trugen, beim Aufsetzen ihrer eigenen Masken sichtbare Lücken hinterließen.

Chirurgische Masken

Eine Studie ergab, dass chirurgische Masken überhaupt keinen Schutz gegen Grippe boten. In einer anderen Studie wurde festgestellt, dass chirurgische Masken einen Penetrationsgrad von etwa 85 Prozent der aerosolisierten inaktivierten Influenza-Partikel und etwa 90 Prozent der Staphylococcus-aureus-Bakterien aufwiesen, obwohl die Staphylococcus-aureus-Partikel etwa den sechsfachen Durchmesser der Influenza-Partikel aufwiesen.

In einer Studie mit 3.088 Operationen wurde festgestellt, dass die Verwendung von Masken bei chirurgischen Eingriffen die Inzidenz von Infektionen im Vergleich zum Nicht-Maskieren leicht erhöht. Es wurde festgestellt, dass die Masken der Chirurgen keine schützende Wirkung in Bezug auf die Patienten haben.

Andere Studien fanden keinen Unterschied in der Wundinfektionsrate mit und ohne chirurgische Masken.

Eine Studie von C. DaZhou und P. Sivathondan kam zu dem Ergebnis, dass „es an substanziellen Beweisen für die Behauptung fehlt, dass Gesichtsmasken entweder den Patienten oder den Chirurgen vor infektiöser Kontamination schützen“.

Die Studie ergab, dass es bei den medizinischen Masken eine große Bandbreite an Filtrationseffizienz gibt, wobei die meisten eine Effizienz von nur 30 bis 50 Prozent aufweisen.

Insbesondere: Sind chirurgische Masken wirksam, um die Übertragung von Coronaviren beim Menschen zu stoppen? Sowohl bei den Versuchs- als auch bei den Kontrollgruppen, jeweils maskiert und unmaskiert, wurde festgestellt, dass sie „kein nachweisbares Virus in Atemwegströpfchen oder Aerosolen absondern“. In dieser Studie konnte die Infektiosität des Coronavirus, wie sie im ausgeatmeten Atem gefunden wurde, nicht bestätigt werden.

Eine Untersuchung der Aerosolpenetration zeigte, dass zwei der fünf untersuchten Operationsmasken zu 51 bis 89 Prozent von polydispersen Aerosolen durchdrungen waren.

In einer anderen Studie, die Probanden beim Husten beobachtete, „filterten weder chirurgische noch Baumwollmasken wirksam SARS-CoV-2 während des Hustens von infizierten Patienten“. Und es wurden mehr Viruspartikel auf der Außenseite als auf der Innenseite der getesteten Masken gefunden.

Tuchmasken

Es wurde festgestellt, dass Tuchmasken eine geringe Effizienz für das Blockieren von Partikeln von 0,3 Mikron und kleiner haben. Die Aerosoldurchdringung durch die verschiedenen in dieser Studie untersuchten Tuchmasken lag zwischen 74 und 90 Prozent. Ebenso lag die Filtrationseffizienz der Gewebematerialien bei lediglich drei bis 33 Prozent.

Es wurde festgestellt, dass Beschäftigte im Gesundheitswesen, die Stoffmasken tragen, ein 13-mal höheres Risiko einer grippeähnlichen Erkrankung haben als diejenigen, die medizinische Masken tragen.

Diese 1920 durchgeführte Analyse der Verwendung von Stoffmasken während der Pandemie von 1918 untersucht das Versagen von Masken, die Grippe-Übertragung zu dieser Zeit zu behindern oder zu stoppen, und kam zu dem Schluss, dass die zur Verhinderung des Eindringens von Krankheitserregern erforderliche Anzahl von Gewebelagen eine erstickende Anzahl von Lagen erfordert hätte und aus diesem Grund nicht verwendet werden konnte; es wurde außerdem das Problem der Leckageöffnungen an den Rändern von Stoffmasken nachgewiesen.

Masken gegen Covid-19

Der Leitartikel des New England Journal of Medicine zum Thema Maskengebrauch versus Covid-19 beurteilt die Angelegenheit wie folgt:

„Wir wissen, dass das Tragen einer Maske außerhalb von Gesundheitseinrichtungen, wenn überhaupt, nur wenig Schutz vor Infektionen bietet. Die Gesundheitsbehörden definieren eine signifikante Exposition gegenüber Covid-19 als persönlichen Kontakt innerhalb von sechs Fuß mit einem Patienten mit symptomatischem Covid-19, der mindestens einige Minuten lang (manche sagen, mehr als zehn Minuten oder sogar 20 Minuten) andauert. Die Chance, Covid-19 bei einer vorübergehenden Interaktion in einem öffentlichen Raum aufzufangen, ist daher minimal. In vielen Fällen ist der Wunsch nach einer weit verbreiteten Maskierung eine reflexartige Reaktion auf die Angst vor der Pandemie“.

Sind Masken sicher beim Gehen oder anderen sportlichen Betätigungen?

Chirurgische Maskenträger hatten nach einem sechsminütigen Fußmarsch eine signifikant höhere Dyspnoe als Nicht-Maskenträger.

Die Forscher sind besorgt über die mögliche Belastung des Lungen-, Kreislauf- und Immunsystems durch Gesichtsmasken bei körperlicher Aktivität, da die Sauerstoffreduktion und der Lufteinschluss den Kohlendioxidaustausch reduzieren. Als Folge der Hyperkapnie kann es zu einer Überlastung des Herzens sowie der Nieren und schlimmstenfalls sogar zur metabolischen Azidose kommen.

Risiken von N95-Atemschutzgeräten

Es wurde festgestellt, dass schwangere medizinische Fachkräfte beim Tragen von N95-Atemschutzmasken im Vergleich zu unmaskierten Kontrollpersonen einen Volumenverlust beim Sauerstoffverbrauch von 13,8 Prozent aufwiesen. Es wurde 17,7 Prozent weniger Kohlendioxid ausgeatmet. Patienten mit Nierenerkrankungen im Endstadium wurden während der Verwendung von N95-Atemschutzmasken untersucht. Ihr Sauerstoffpartialdruck (PaO2) nahm im Vergleich zu den Kontrollpersonen signifikant ab und erhöhte die Nebenwirkungen auf die Atemwege. 19 Prozent der Patienten entwickelten während des Tragens der Masken verschiedene Grade von Hypoxämie.

Die N95-Atemschutzmasken des Gesundheitspersonals wurden mit persönlichen Bioaerosol-Messgeräten auf die Beherbung von Influenzaviren untersucht. Und bei 25 Prozent der Gesichtsmasken von Beschäftigten des Gesundheitswesens wurde in einer Notaufnahme während der Grippesaison 2015 festgestellt, dass sie Influenza enthielten.

Risiken von chirurgischen Masken

Die chirurgischen Masken der Beschäftigten des Gesundheitswesens wurden ebenfalls mit persönlichen Bioaerosol-Probennehmern auf Influenzaviren untersucht.

Auf der Außenfläche gebrauchter medizinischer Masken wurden verschiedene Atemwegserreger gefunden, die zu einer Selbstkontamination führen könnten. Es wurde festgestellt, dass das Risiko bei längerer Dauer der Maskenbenutzung höher ist.

Es wurde auch festgestellt, dass chirurgische Masken ein Lager für bakterielle Kontamination sind. Als Quelle der Bakterien wurde die Körperoberfläche der Chirurgen und nicht die Umgebung des Operationssaals ermittelt. Angesichts der Tatsache, dass Chirurgen bei Operationen von Kopf bis Fuß bekleidet sind, sollte dieser Befund besonders für Laien, die Masken tragen, bedenklich sein. Ohne die Schutzkleidung von Chirurgen haben Laien im Allgemeinen eine noch exponiertere Körperoberfläche, die als Quelle für Bakterien dient, die sich auf ihren Masken ansammeln.

Risiken von Stoffmasken

Beschäftigte im Gesundheitswesen, die Stoffmasken trugen, wiesen nach vier Wochen ununterbrochener Anwendung am Arbeitsplatz im Vergleich zu den Kontrollen signifikant höhere Raten grippeähnlicher Erkrankungen auf.

Die erhöhte Infektionsrate bei Maskenträgern kann auf eine Schwächung der Immunfunktion während der Maskenanwendung zurückzuführen sein. Es hat sich gezeigt, dass Chirurgen nach Operationen, die sogar nur 30 Minuten dauern, eine geringere Sauerstoffsättigung haben. Niedriger Sauerstoff induziert Hypoxie-induzierbaren Faktor 1 Alpha (HIF-1). Dadurch werden wiederum CD4+-T-Zellen herunterreguliert. CD4+-T-Zellen wiederum sind für die virale Immunität notwendig.

Abwägen von Risiken und Nutzen der Maskenanwendung

Im Sommer 2020 erleben die Vereinigten Staaten einen Anstieg des Maskengebrauchs in der Bevölkerung, der häufig von den Medien, politischen Führern und Prominenten propagiert wird. Selbstgemachte und im Laden gekaufte Stoffmasken und chirurgische Masken oder N95-Masken werden von der Öffentlichkeit vor allem beim Betreten von Geschäften und anderen öffentlich zugänglichen Gebäuden verwendet. Manchmal werden auch Halstücher oder Schals verwendet. Die Verwendung von Gesichtsmasken, ob Tuch, chirurgische Masken oder N95-Masken, stellt ein geringes Hindernis für aerosolisierte Krankheitserreger dar, wie wir aus den Meta-Analysen und anderen Studien in diesem Papier erkennen können, da sie sowohl die Übertragung von aerosolisierten Krankheitserregern auf andere Personen in verschiedene Richtungen als auch die Selbstkontamination ermöglichen.

Es muss auch berücksichtigt werden, dass Masken die für einen adäquaten Sauerstoffaustausch erforderliche Lufteintrittsmenge behindern, was zu den beobachteten physiologischen Effekten führt, die unerwünscht sein können. Schon sechsminütige Spaziergänge, ganz zu schweigen von anderen anstrengenderen Aktivitäten, führten zu Atemnot. Die normale Menge Sauerstoff in einem Atemzug beträgt etwa 100 Milliliter, die für normale physiologische Prozesse verwendet wird. 100 Milliliter O2 übersteigt bei Weitem das Volumen eines Erregers, das für die Übertragung erforderlich ist.

Die vorstehenden Daten zeigen, dass Masken eher als Instrumente zur Obstruktion der normalen Atmung und nicht als wirksame Barrieren gegen Krankheitserreger dienen. Daher sollten Masken nicht von der Allgemeinheit, weder von Erwachsenen noch von Kindern, verwendet werden, und ihre Einschränkungen bei der Prophylaxe gegen Krankheitserreger sollten auch in medizinischen Einrichtungen in Betracht gezogen werden.

Patrick Wood ist Herausgeber und Chefredakteur der Website technocracy.news. Er verfasste zusammen mit dem verstorbenen Historiker Antony C. Sutton das zweibändige „Trilaterals over America“. Wood schreibt regelmäßig über die Gefahren der heraufziehenden globalen Technokratie.

Dieser Artikel erschien zuerst auf der Seite Technocracy News & Trends und wurde von Axel B. C. Krauss exklusiv für eigentümlich frei ins Deutsche übersetzt.

Mit freundlicher Genehmigung von eigentümlich frei wo der Beitrag zuerst in Deutsch erschien hier

Quellen

Endnotes

1  T Jefferson, M Jones, et al. Physical interventions to interrupt or reduce the spread of respiratory viruses. MedRxiv. 2020 Apr 7.

https://www.medrxiv.org/content/10.1101/2020.03.30.20047217v2

2  J Xiao, E Shiu, et al. Nonpharmaceutical measures for pandemic influenza in non-healthcare settings – personal protective and environmental measures.  Centers for Disease Control. 26(5); 2020 May.

https://wwwnc.cdc.gov/eid/article/26/5/19-0994_article

3  J Brainard, N Jones, et al. Facemasks and similar barriers to prevent respiratory illness such as COVID19: A rapid systematic review.  MedRxiv. 2020 Apr 1.

https://www.medrxiv.org/content/10.1101/2020.04.01.20049528v1.full.pdf

4  L Radonovich M Simberkoff, et al. N95 respirators vs medical masks for preventing influenza among health care personnel: a randomized clinic trial.  JAMA. 2019 Sep 3. 322(9): 824-833.

https://jamanetwork.com/journals/jama/fullarticle/2749214

5  J Smith, C MacDougall. CMAJ. 2016 May 17. 188(8); 567-574.

https://www.cmaj.ca/content/188/8/567

6  F bin-Reza, V Lopez, et al. The use of masks and respirators to prevent transmission of influenza: a systematic review of the scientific evidence. 2012 Jul; 6(4): 257-267.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5779801/

7  J Jacobs, S Ohde, et al.  Use of surgical face masks to reduce the incidence of the common cold among health care workers in Japan: a randomized controlled trial.  Am J Infect Control. 2009 Jun; 37(5): 417-419.

https://pubmed.ncbi.nlm.nih.gov/19216002/

8  M Viola, B Peterson, et al. Face coverings, aerosol dispersion and mitigation of virus transmission risk.

https://arxiv.org/abs/2005.10720https://arxiv.org/ftp/arxiv/papers/2005/2005.10720.pdf

9  S Grinshpun, H Haruta, et al. Performance of an N95 filtering facepiece particular respirator and a surgical mask during human breathing: two pathways for particle penetration. J Occup Env Hygiene. 2009; 6(10):593-603.

https://www.tandfonline.com/doi/pdf/10.1080/15459620903120086

10 H Jung, J Kim, et al. Comparison of filtration efficiency and pressure drop in anti-yellow sand masks, quarantine masks, medical masks, general masks, and handkerchiefs. Aerosol Air Qual Res. 2013 Jun. 14:991-1002.

https://aaqr.org/articles/aaqr-13-06-oa-0201.pdf

11  C MacIntyre, H Seale, et al. A cluster randomized trial of cloth masks compared with medical masks in healthcare workers.  BMJ Open. 2015; 5(4)

https://bmjopen.bmj.com/content/5/4/e006577.long

12  N95 masks explained. https://www.honeywell.com/en-us/newsroom/news/2020/03/n95-masks-explained

13  V Offeddu, C Yung, et al. Effectiveness of masks and respirators against infections in healthcare workers: A systematic review and meta-analysis.  Clin Inf Dis. 65(11), 2017 Dec 1; 1934-1942.

https://academic.oup.com/cid/article/65/11/1934/4068747

14  C MacIntyre, Q Wang, et al. A cluster randomized clinical trial comparing fit-tested and non-fit-tested N95 respirators to medical masks to prevent respiratory virus infection in health care workers. Influenza J. 2010 Dec 3.

https://onlinelibrary.wiley.com/doi/epdf/10.1111/j.1750-2659.2011.00198.x?fbclid=IwAR3kRYVYDKb0aR-su9_me9_vY6a8KVR4HZ17J2A_80f_fXUABRQdhQlc8Wo

15  M Walker. Study casts doubt on N95 masks for the public. MedPage Today. 2020 May 20.

https://www.medpagetoday.com/infectiousdisease/publichealth/86601

16  C MacIntyre, Q Wang, et al. A cluster randomized clinical trial comparing fit-tested and non-fit-tested N95 respirators to medical masks to prevent respiratory virus infection in health care workers. Influenza J. 2010 Dec 3.

https://onlinelibrary.wiley.com/doi/epdf/10.1111/j.1750-2659.2011.00198.x?fbclid=IwAR3kRYVYDKb0aR-su9_me9_vY6a8KVR4HZ17J2A_80f_fXUABRQdhQlc8Wo

17  N Shimasaki, A Okaue, et al. Comparison of the filter efficiency of medical nonwoven fabrics against three different microbe aerosols. Biocontrol Sci.  2018; 23(2). 61-69.

https://www.jstage.jst.go.jp/article/bio/23/2/23_61/_pdf/-char/en

18  T Tunevall. Postoperative wound infections and surgical face masks: A controlled study. World J Surg. 1991 May; 15: 383-387.

https://link.springer.com/article/10.1007%2FBF01658736

19  N Orr. Is a mask necessary in the operating theatre? Ann Royal Coll Surg Eng 1981: 63: 390-392.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2493952/pdf/annrcse01509-0009.pdf

20  N Mitchell, S Hunt. Surgical face masks in modern operating rooms – a costly and unnecessary ritual?  J Hosp Infection. 18(3); 1991 Jul 1. 239-242.

https://www.journalofhospitalinfection.com/article/0195-6701(91)90148-2/pdf

21  C DaZhou, P Sivathondan, et al. Unmasking the surgeons: the evidence base behind the use of facemasks in surgery.  JR Soc Med. 2015 Jun; 108(6): 223-228.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4480558/

22  L Brosseau, M Sietsema. Commentary: Masks for all for Covid-19 not based on sound data. U Minn Ctr Inf Dis Res Pol. 2020 Apr 1.

https://www.cidrap.umn.edu/news-perspective/2020/04/commentary-masks-all-covid-19-not-based-sound-data

23  N Leung, D Chu, et al. Respiratory virus shedding in exhaled breath and efficacy of face masks Nature Research.  2020 Mar 7. 26,676-680 (2020).

https://www.researchsquare.com/article/rs-16836/v1

24  S Rengasamy, B Eimer, et al. Simple respiratory protection – evaluation of the filtration performance of cloth masks and common fabric materials against 20-1000 nm size particles. Ann Occup Hyg. 2010 Oct; 54(7): 789-798.

https://academic.oup.com/annweh/article/54/7/789/202744

25  S Bae, M Kim, et al. Effectiveness of surgical and cotton masks in blocking SARS-CoV-2: A controlled comparison in 4 patients.  Ann Int Med. 2020 Apr 6.

https://www.acpjournals.org/doi/10.7326/M20-1342

26  S Rengasamy, B Eimer, et al. Simple respiratory protection – evaluation of the filtration performance of cloth masks and common fabric materials against 20-1000 nm size particles. Ann Occup Hyg. 2010 Oct; 54(7): 789-798.

https://academic.oup.com/annweh/article/54/7/789/202744

27  C MacIntyre, H Seale, et al. A cluster randomized trial of cloth masks compared with medical masks in healthcare workers.  BMJ Open. 2015; 5(4)

https://bmjopen.bmj.com/content/5/4/e006577.long

28  W Kellogg. An experimental study of the efficacy of gauze face masks. Am J Pub Health. 1920.  34-42.

https://ajph.aphapublications.org/doi/pdf/10.2105/AJPH.10.1.34

29  M Klompas, C Morris, et al. Universal masking in hospitals in the Covid-19 era. N Eng J Med. 2020; 382 e63.

https://www.nejm.org/doi/full/10.1056/NEJMp2006372

30  E Person, C Lemercier et al.  Effect of a surgical mask on six minute walking distance.  Rev Mal Respir. 2018 Mar; 35(3):264-268.

https://pubmed.ncbi.nlm.nih.gov/29395560/

31  B Chandrasekaran, S Fernandes.  Exercise with facemask; are we handling a devil’s sword – a physiological hypothesis. Med Hypothese. 2020 Jun 22. 144:110002.

https://pubmed.ncbi.nlm.nih.gov/32590322/

32  P Shuang Ye Tong, A Sugam Kale, et al.  Respiratory consequences of N95-type mask usage in pregnant healthcare workers – A controlled clinical study.  Antimicrob Resist Infect Control. 2015 Nov 16; 4:48.

https://pubmed.ncbi.nlm.nih.gov/26579222/

33  T Kao, K Huang, et al. The physiological impact of wearing an N95 mask during hemodialysis as a precaution against SARS in patients with end-stage renal disease.  J Formos Med Assoc. 2004 Aug; 103(8):624-628.

https://pubmed.ncbi.nlm.nih.gov/15340662/

34  F Blachere, W Lindsley et al. Assessment of influenza virus exposure and recovery from contaminated surgical masks and N95 respirators. J Viro Methods.  2018 Oct; 260:98-106.

https://pubmed.ncbi.nlm.nih.gov/30029810/

35  A Rule, O Apau, et al. Healthcare personnel exposure in an emergency department during influenza season.  PLoS One. 2018 Aug 31; 13(8): e0203223.

https://pubmed.ncbi.nlm.nih.gov/30169507/

36  F Blachere, W Lindsley et al. Assessment of influenza virus exposure and recovery from contaminated surgical masks and N95 respirators. J Viro Methods.  2018 Oct; 260:98-106.

https://pubmed.ncbi.nlm.nih.gov/30029810/

37  A Chughtai, S Stelzer-Braid, et al.  Contamination by respiratory viruses on our surface of medical masks used by hospital healthcare workers.  BMC Infect Dis. 2019 Jun 3; 19(1): 491.

https://pubmed.ncbi.nlm.nih.gov/31159777/

38  L Zhiqing, C Yongyun, et al. J Orthop Translat. 2018 Jun 27; 14:57-62.

https://pubmed.ncbi.nlm.nih.gov/30035033/

39  C MacIntyre, H Seale, et al. A cluster randomized trial of cloth masks compared with medical masks in healthcare workers.  BMJ Open. 2015; 5(4)

https://bmjopen.bmj.com/content/5/4/e006577

40  A Beder, U Buyukkocak, et al. Preliminary report on surgical mask induced deoxygenation during major surgery. Neurocirugia. 2008; 19: 121-126.

http://scielo.isciii.es/pdf/neuro/v19n2/3.pdf

41  D Lukashev, B Klebanov, et al. Cutting edge: Hypoxia-inducible factor 1-alpha and its activation-inducible short isoform negatively regulate functions of CD4+ and CD8+ T lymphocytes. J Immunol. 2006 Oct 15; 177(8) 4962-4965.

https://www.jimmunol.org/content/177/8/4962

42  A Sant, A McMichael. Revealing the role of CD4+ T-cells in viral immunity.  J Exper Med. 2012 Jun 30; 209(8):1391-1395.




Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 2

Weiterhin besteht das „Klimawissen“ alleine in dem felsenfesten Glauben: CO2 = Klimagift und muss mit allen Mitteln und notfalls unter Ausschaltung der Demokratie verhindert werden

Im ersten Teil konnte man nachlesen, dass das Klimafolgen-Forschungsinstitut in Potsdam nur bezüglich Personenzahl und Budget „einzigartig“ ist. Bayern dem jedoch folgt und seine „lokalen“ Klimaalarmisten vorweisen kann.

Mit der globalen Betrachtung wird die illustre Sonntagsrunde allerdings interessant, weil sie die Problematik, in welche sich die Politik hineinmanövriert hat – und mit dem sich der auf einmal übergrün gebärenden, bayerischem Landesvater – zunehmend bloßstellt – nicht mehr in den Griff bekommt.
Erschreckend allerdings, dass der CSU-Politiker zwar die Probleme erkennt, aber nicht entfernt Lösungen weiß.
Die Wichtigste – den Klimawandel und CO2-Budgethysterie zu hinterfragen – liegt im absolut fern.
Die nächste, wie man die technischen und wirtschaftlichen Probleme der (sich selbst) vorgeschriebenen Vermeidung im Griff behalten will ebenfalls. Dazu fällt ihm nur ein, dass zukünftige Entwicklungen es lösen werden …

Gegen die vielen NGOs (inclusive der GRÜNEN), und den Klima-Pseudowissenschaftlern mit ihren immer extremer werdenden Forderungen fehlt ihm jegliche Argumentation; nur das „Herumreiten“ auf Kosten und Verlust der Wettbewerbsfähigkeit fallen ihm ein, wissend, dass genau diese Argumentation in solchen Kreisen ein absolute NoGo und „rotes Tuch“ darstellt.

Greta-Double“ sprießen mit dem sich stetig wandelnden Klima wie Pilze

Moderator gibt an die ER-Aktivistin Botzki weiter.
Anmerkungen Autor: Diese erweist sich als ein typisches „Greta-Double“, was Wissen zum Klima anbelangt (siehe Tweets von ihr in der Anlage), ansonsten ist sie austauschbar mit ihrem FfF-Pendant „Luisa“:
Botzki: … wir haben Angst nicht nur vor den gerade beschriebenen regionalen Klimaereignissen, sondern wir steuern gerade auf eine globale Klimakatastrophe zu. Wir haben 9 von 15 Klipppunkten … angestoßen und wir steuern gerade auf ne 4-Grad-Welt zu. Das heißt, Europa würde zu einer Wüste werden …
… wir stören dort vor Ort, um auf diese Katastrophe aufmerksam zu machen und fordern Handlung … wir müssen anfangen, den Protest weiterzudenken, weil die Regierung gescheitert ist, diese Klimakatastrophe aufzuhalten. Wir sehen immer weiter leere Versprechen. Gerade ist ein Kohlekraftwerk ans Netz gegangen, wir bauen Gas-Infrastruktur auf. Das sind leere Versprechen der Regierung und Petitionen und Demonstrationen reichen dazu einfach nicht mehr …

Kipppunkte allerorten

Nichts scheint so „belegt“, wie die Klima-Kipppunkte. Dabei sind die, welche die Apokalyptiker meinen, ausschließlich in Klimasimulationen existent und „bewiesen“ schon gar nicht.

Aber es war der geniale Einfall von Herrn Schellnhuber, seine Simulationen „mit Kipppunkten“ zu programmieren. Denn diese treffen die Psyche mancher Personen so sehr, dass seitdem sie davon erfahren haben, sie nicht mehr ruhig schlafen können. Der Autor hat den ehemaligen BUND-Vorsitzenden – Hubert Weiger – in einer Talkrunde „erlebt“, in welcher dieser als er von den Kipppunkte erzählte, in Tränen ausbrach, denn diese seien bereits, oder fast, getriggert und werden den Globus unstoppbar in den Abgrund reißen.
Das ist schon etwas her und man sieht an Frau Botzki, wie fleißig voneinander „abgeschrieben“ wird.
Von Herrn Weiger hat der Autor seitdem (und immer neu mit fast jedem Interview von ihm) eine ganz eigene Meinung.

Es gibt in der Klimageschichte wirklich Kipppunkte. Allerdings führend diese zu den folgenden Aussagen:
– frühere Warmzeiten (und auch die aktuelle) waren erheblich wärmer, ohne die ominösen, programmierten Kipppunkte zu aktivieren
– noch nie in der Milliarden Jahre langen Klimageschichte gab es einen Kipppunkt zu heißen Temperaturen
– die Öetschger-Ereignisse belegen, dass es extrem kipppunktartige Klimaereignisse oft gab, sich das Klima davon aber immer „erholte“
– Politiker unterschrieben einen Welt-Klimavertrag auf Basis einer Klimakurve, deren Ersteller seine Daten als „privates Eigentum betrachtet“ und deshalb nicht einmal auf gerichtliche Aufforderung hin offenlegt, weshalb man ihn in Kanada als Lügner bezichtigen darf
-die Öeschger-Ereignisse (und die Eiszeiten) belegen, dass man über die wirklichen Treiber des Klimas fast noch nichts weiß. Weder die Eiszeiten sind „verstanden – die Milankovitc-Zyklen sind Hypothese und können die gewaltigen Auswirkungen nicht erklären -, die Öschger-Ereignisse waren so spontan und extrem, dass sie bisher mit keiner Theorie erklärt werden können – , aber die Erklärung der „Klimafachpersonen“, „noch nie hätte es eine so schnelle Temperaturveränderung wie aktuell gegeben“, schlichtweg ins Reich der Fabeln verweist.

Bild 1 [11] (Aktuelle Zeit links) Verlauf Meerespegel und Temperatur während der Eiszeiten Fig. 1. Comparison of two methods to assess past EDC temperature based on EDC ice core dD. Green, conventional approach taking into account past changes in sea water isotopic composition and a constant isotope–temperature slope. Red (Jouzel et al., 2007), same as green but also including a correction for ice sheet elevation changes derived from the glaciological model used for the age scale, displayed in grey on the top panel (Parrenin et al., 2007b). Horizontal dashed lines show the average Holocene and Last Glacial Maximum levels. Vom Autor ergänzt
Bild 2 [11] Typische Darstellung der Temperatur während der letzten Eiszeit (Ausschnitt von Bild 31) und darüber kopiert die Oeschger-Ereignisse. Grafik vom Autor erstellt
Es ist ein Treppenwitz der Geschichte, dass (nicht nur) junge Personen sonst niemals „alten, weißen Männern“ trauen, ihnen beim Klimawandel Fabeln der schlimmsten Sorte aber bedenkenlos glauben.

Dem Autor ist es jedenfalls ein Rätsel, wie man Personen wie Herrn Schellnhuber, welche offensichtlich an einem vielleicht schon therapiepflichtigem Narzissmus leiden, Glauben schenken kann. In Konzernen findet man solche Personen öfters in Vertriebsbereichen, weil solche keine Hemmungen haben, „das Blaue vom Himmel“ sicher zu versprechen“, wo sie dann regelmäßig nach einigen Jahren wegen Erfolglosigkeit ausgetauscht werden.
Ansonsten findet man sie als Regierungsberater. Ähnlichkeiten sind erkennbar, nur das „Austauschen“ macht man dort nicht. Schließlich muss man dort das Geld ja nicht verantworten, welches in die Beraterverträge abfließt.

Moderator an Frau Schulze: … den Klimawandel gibt es eben. Braucht es noch einen radikaleren Protest?
Frau Schulze: Also ich glaube, dass wir die Klimakrise immer nur gemeinschaftlich bekämpfen können. Und da muss die Regierung andere Maßnahmen ergreifen. Aber natürlich braucht es auch eine starke Zivilgesellschaft … Wir haben bei der Bekämpfung der Klimakrise ja kein Erkenntnisproblem mehr. Wir haben ein Umsetzungsproblem.
Warum geht Datteln 4 nochmal ans Netz? Warum wird die erneuerbare Energie nicht schneller ausgebaut? Es ist ja nicht so, dass wir nicht wissen, was wir tun könnten. Sondern das Problem ist … wir haben in Bayern immer noch das Windkraft-Verhinderungsgesetz 10H. Warum geht denn da nichts gscheit voran?

Moderator an Frau Schulze: … Warum sind sie gegen die 10H Regelung?
Frau Schulze: Weil wir 100 % erneuerbare Energien brauchen … zur Einhaltung des Pariser Klimaabkommens, wozu wir glaube ich alle geeinigt haben dass wir das gerne erreichen möchten. Etwas, was absolut machbar sein kann.

Der CSU-Mann will den Klimakampf, dadurch aber keine Nachteile für sein Wählerklientel

Moderator an Kreuzer: 10H Regelung und Solar-Dächerprogram … wird Solar bevorzugt?
Kreuzer (sinngemäß): Die 10H Regelung stört nicht, da die Gemeinden diese über Bebauungspläne aushebeln können … Wenn eine Gemeinde Windräder will, kann sie diese jederzeit zulassen. Solar ist genau so wichtig und in Bayern ganz besonders weil wir eine hohe Ausbeute haben …. (Solar) begrüße ich ausdrücklich …

Bild 3 CSU Mann Kreuzer in seiner „weiß nicht ein, noch aus“ Haltung. Screenshot aus dem Video

Moderator nun an Fuest: Thema Wohlstand … gibt es Zielkonflikte?
Fuest: Ja das ist ein Ziel, das eindeutig miteinander vereinbar ist. Wohlstand heißt ja nicht, dass es sinnvoll ist, diese Klimaerwärmung einfach hinzunehmen. Wir wissen ja, dass die Kosten extrem hoch sind. Das sind …also wirtschaftliche Schäden. Also aus wirtschaftlicher Sicht würde man sagen – was letztlich die Zielsetzung ist, also die Menge an CO2, die man noch zulassen will. Das ist eine politische Entscheidung am Ende. Ich glaube, man soll nicht so tun, als wüssten wir, was da die objektiv richtige Zahl ist. Für den Wirtschaftswissenschaftler wirds interessant, wenn diese Ziele gesetzt sind. Die Frage dann: Wie kommen wir dahin?
Ja und da glaube ich, gibts in der Politik Fortschritte. die haben aber sehr lange gedauert. Da würde ich ihnen zustimmen. Die Ökonomen predigen ja seit Jahrzehnten, wir brauchen einen CO2-Preis. Wir müssen auch gar nicht so viel darüber verhandeln, wie wird jetzt planwirtschaftlich die Solarenergie ausgebaut und wieviel Windräder bauen wir auf. Sondern man muss einfach der CO2-Emission Grenzen setzen, zum Beispiel durch ein Zertifikatesystem ud dann wars das eben. Und wie das erreicht wird, das regelt sich am Markt über den CO2-Preis. Wir haben aber bislang keinen CO2-Preis. Und dass wir ihn nicht haben ist eben nicht nur für uns ein Problem, sondern auch für den globalen Klimaschutz, denn man muss sich ja klar machen: Was wir hier in Bayern tun, oder in Deutschland, das wird den Klimawandel nicht besonders beeinflussen. Sondern es ist ein globales Problem …

Moderator an Frau Botzki (sinngemäß): Wie sollen die Menschen noch heizen, wenn Kohle, Erdöl, Gas weg sind?
Botzki: Das ist ja keine politische Entscheidung, wie viel CO2 wir noch in die Atmosphäre blasen können. Das ist eine wissenschaftliche Frage. Und wir steuern, das ist naturwissenschaftlich, wir steuern Kipppunkte an. Und das ist unverantwortlich, weiterhin so zu tun, als … das ist eine Gefährdung der Zivilisation, sagen führende Klimawissenschaftler. Und das ist die Situation. Wir können nicht ein bisschen an den Zahlen drehen … es ist, wir müssen die Emission auf Null fahren. Kohle, Öl und Gas so schnell wie möglich

Moderator: zum Heizen
Frau Botzki: Da liegen die Lösungen schon seit Jahren – Jahrzehnten – auf dem Tisch. Da gibts klimafreundliche Alternativen. Und wir können extrem viel auch einsparen. Da gibts Möglichkeiten. Wir sagen … wir brauchen eine Bürger*innen versammlung, die sich genau um diese Lösungsansätze Gedanken macht. Wir sehen, dass das in Frankreich sehr sehr gut geklappt hat … die werden per Losverfahren ausgewählt und die entscheiden dann mit genau solche Fragestellungen: Wie wird Energieversorgung sichergestellt auf soziale Art und Weise.

Moderator an Kreuzer: … sie lächeln …
Kreuzer: Wir müssen realistisch bleiben. Wir wollen natürlich das Klima schützen. Aber wir wollen genau auch Arbeitsplätze erhalten. Wir wollen den Wirtschaftsstandort erhalten, auch die sozialen Fragen in Zukunft vernünftig lösen … wenn sie in ihrem Buch schreiben (an Frau Botzki): Sie wollen die Klimaneutralität bis 2025 erreichen, dann will ich ihnen sagen. Also keine Treibhausgase mehr bis 2025. … die würden in eine Wirtschaftskrise gigantischen Ausmaßes … und das hätten sie zu verantworten … (an Frau Botzki) das was hier gefordert wird, ist völlig utopisch und würde unser Land ruinieren.

Einwurf Frau Schulze: Ich glaube schon, dass man mit grünen Ideen schwarze Zahlen schreiben kann. Dass man auch die Kreativität in der Gesellschaft heben sollte um die Lösungen herbeizuführen. Ich wollte noch einmal einen kurzen Aspekt einbringen, weil ich den mit dem Thema Budget total spannend finde. Weil, ich gebe ihnen recht. Es gibt einfach wissenschaftliche Fakten. Und bei der Coronakrise ist es so toll, dass wir auf die Wissenschaftlerinnen und Wissenschaftler hören und ich wünsche es mir bei er Klimakrise genau so. Und da kann man ja relativ gut runterrechnen. Wie viele Tonnen CO2 darf beispielsweise Bayern bis 2050 noch ausstoßen. Das ist eine Milliarde Tonnen. wenn wir das jetzt runterrechnen, kann man ja leicht sagen: OK, jetzt müssen wir in den Sektoren Wärme, Energie, Verkehr, Landwirtschaft um soundsoviel reduzieren. Und das war auch die Idee von unserem Klimaschutz …. was wir auch in den Bayerischen Landtag eingebracht haben. Lasst uns doch an konkreten, messbaren Zielen, damit eben auch die Regierung an etwas gemessen werden kann und die Bürgerinnen und Bürger sehen können, ob es klappt mit der Reduzierung … (nun geht es um die Lufthansa) … dass wir alles mit der Brille: Wie schaffen wir eine nachhaltigere Gesellschaft, wie können wir die Innovation vorantreiben, wie können wir die klügsten Köpfe zusammenbringen, wie können wir Ideen, die es i anderen Ländern vielleicht schon längst gibt. Es ist ja nicht so auf unserer Welt, dass sich noch nie jemand Gedanken darüber gemacht hat, wie man CO2 einsparen kann. Sondern wir brauchen den Ordnungsrahmen – da ist die Regierung gefragt – um den Bereich voranzugehen. deshalb 100 % Zustimmung zum CO2-Preis – i love it.

Fuest,(sprach wirklich so „zerfahren“): Ja, ich glaube, das ist ein wichtiger Punkt. Das ist nicht eine Sache, die Wissenschaftler entscheiden können. Da wäre ich anderer Meinung. Ich glaube das sehen wir zum Beispiel auch in der Coronakrise. Wie in wissenschaftlichen Studien über den Klimawandel gibt es sehr sehr große Unsicherheit. 1970 wurde vorausgesagt, dass es in Dreissig Jahren kein Erdöl mehr gibt. Jetzt haben wir massenhaft Erdöl. die Wissenschat kann einiges leisten. Aber man kann nicht politische Entscheidungen ersetzen. Wir leben nicht in einer Expertokratie, sondern in einer Demokratie. Am Ende müssen die Menschen dabei sein. Also muss man Menschen überzeugen. Und wir haben auch – glaube ich – Bürgerversammlungen – das sind die Parlamente. Hier sitzen sie die sind von den Bürgern gewählt. Ich glaube, wir können keinen anderen Weg gehen. Sicherlich nicht den der Expertokratie. Dafür ist die Wissenschaft nicht legitimiert. Das ist mir sehr sympathisch, dass sie dagegen … , das muss man lesen. Das finde ich auch sehr wichtig. Dass der Klimawandel große Bedrohung mit sich bringt ist auch richtig. Aber wir haben andere Risiken und die einzuschätzen – wenn wir etwa einen wirtschaftlichen Niedergang einleiten würden – dann würden die Menschen in kürzester Zeit sich überhaupt nicht mehr für den Klimawandel interessieren, sondern nur noch dafür: Kann ich morgen heizen, haben meine Kinder etwas zu essen, gibts offene Schulen und so weiter.
Deshalb ist es glaube ich wichtig, den Klimawandel entschlossen zu bekämpfen, aber so, dass die Menschen an Bord bleiben.

Der Klimaprofessor redet um den Brei herum, denn er jongliert mit absoluten Extremzahlen. In der Runde müsste nun jeder was er dazu nicht sagt, parat haben

Moderator sinngemäß an Kunstmann: hat der Klimawandel wegen Corona eine Verschnaufpause bekommen …
Kunstmann: Lassen sie mich vorweg sagen, dass wir in der Wissenschaft, in der Klimawissenschaft sehr genau wissen, wieviel CO2 und wieviel Kohle wir noch verheizen können. Um die Ziele, zum Beispiel 1,5 Grad zu erreichen, so wie es in Paris beschlossen worden ist, dürften wir im Moment noch acht Jahre so weiter leben und so weiter emittieren, wie wir es im Moment tun. Danach, das wäre also schon in acht Jahren müssten wir auf Netto Null sein. Das verdeutlicht nochmal eigentlich wie groß die Anstrengungen sein müssen.
Jetzt fragen sie konkret nach Corona. Die neuesten Zahlen sagen Folgendes: Wir erwarten, dass wir ja durch „Corona“ für das Jahr 2020 ungefähr 8 % weniger Treibhaugasemissionen haben wie vorher. Um nun bis 2030 eine Reduktion – wie wir sie uns wünschen von ungefähr 50 % zu erreichen, müssten wir also 8 Jahre lang sukkzessiv 8 % immer weniger Emission haben. .. und das zeigt eigentlich, was für eine extrem große Anstrengung das ist.

Moderator: Heißt es, wir müssten uns für den Klimawandel noch stärker umstellen als in der Coronakrise?
Kunstmann: Ja, auf alle Fälle. Und ich glaube, aus der Coronakrise können wir sehr gut lernen, was eigentlich auch anders passieren könnte. Ja, dass wir tatsächlich auf Fernreisen verzichten. Ja, dass wir unser Verkehrsverhalten massiv ändern. Es sind also sehr viel unterschiedliche Maßnahmen notwendig, um das zu erreichen. Bis hin zur Arbeitswelt und insbesondere in der Mobilität. Ich glaube, da fällt es uns tatsächlich am Schwersten.

Anmerkungen Autor: Leider sagt Herr Kunstmann nicht, wie hoch das CO2-Budget ist, welches er im Kopf hat. Bleibt nur übrig, sich die Zahl abzuleiten, was (nicht nur in dieser) in der Runde aber sicher keinem spontan möglich ist.
Anbei der Versuch:
Die Menschheit emittiert derzeit laut Hochrechnungen des Global Carbon Projektes jährlich 37 Milliarden Tonnen CO2Äquivalent (Schätzwert für das Jahr 2019). In acht Jahren demnach 296 Milliarden Tonnen.
In welcher absolut unwirklichen Extremsituation Herr Kunstmann damit „lebt“, wissentlich publiziert, nur um zu Schocken, zeigt sich erst beim Nachsehen anderer Quellen.
M
it ziemlicher Sicherheit (rein persönliche Überzeugung des Autors), stimmt die von Herrn Kunstmann genannte Zahl für das restliche CO2-Budget nicht entfernt. Von Herrn Rahmstorf hätte so eine Aussage nicht gewundert. Es zeigt sich aber, seit Klimaalarmismus Geld einbringt, stehen auch Bayerische Professoren den Klima-Simulationsapokalyptikern des PIK in nichts nach.

Bild 4 CO2-Budget. Auszug aus einem Foliensatz des Autors

Bild 5 CO2-Budget. Auszug aus einem Foliensatz des Autors

Bild 6 CO2-Budget. Auszug aus einem Foliensatz des Autors

Anmerkung des Autors: Von solchen einfachen Plausibilitätsbetrachtungen zu CO2-Budgetnennungen sind die anderen Teilnehmer der Runde weit entfernt, nicht einmal der Gedanke dazu fällt. Ein deutlicher Hinweis, dass diese keinerlei Ahnung von dem haben, was sie zum angeblich so schlimmen Klimawandel herunter plappern. Womit ihnen nur ständiges Laborieren – und „Anscheissen“ durch Aktivisten-NGOs – übrig bleibt.

Moderator: Herr Kreuzer, können wir uns solche noch härteren Klimaschutzmaßnahmen – die ja hier im Raum stehen – eigentlich wirtschaftlich leisten?

Der CSU-Mann Kreuzer braucht einem nicht leidtun. Keine Ahnung vom Klima, aber beseelt vom Klimakampf. Nur sein Wählerklientel mach ihm dabei Sorgen

Anmerkungen Autor: Es gibt ganz einfache Lösungen: Nachsehen, was wirklich im Klimavertrag steht:
Artikel 2, 1, a: der Anstieg der durchschnittlichen Erdtemperatur deutlich unter 2 °C über dem vorindustriellen Niveau gehalten wird und Anstrengungen unternommen – 4 – werden, um den Temperaturanstieg auf 1,5 °C über dem vorindustriellen Niveau zu begrenzen, da erkannt wurde, dass dies die Risiken und Auswirkungen der Klimaänderungen erheblich verringern würde;

Artikel 15, 1: Jede Vertragspartei hat eine Stimme, sofern nicht in Absatz 2 etwas anderes bestimmt ist

Der Rest ist die Beschreibung einer aufzubauenden, gewaltigen Überwachungs- und Kontrollbürokratie und die Sicherheit, dass die reichen, westlichen Staaten Klima-Reparationszahlungen leisten …

Bild 7 Welt-Klimavertrag. Auszug aus einem Foliensatz des Autors

Bild 8 Welt-Klimavertrag. Auszug aus einem Foliensatz des Autors

Und zusätzlich einfach einmal hinterfragen, wie das ominöse CO2-Restbudget eigentlich ermittelt wird und sich dabei laufend verändert.

Das Heil liegt in den technischen Entwicklungen der Zukunft

Anmerkungen Autor: Erstaunlich, wie der CSU-Vertreter die Probleme des Klimawandelkampfes kennt – und trotz dieses Wissens vollkommen hilflos agiert. Doch in der Not weiß er die Rettung: Zukünftige (Wunsch-)Entwicklungen werden es sein (müssen) …

Kreuzer: Ja, wir müssen zusätzlich etwas tun. Aber wir müssen natürlich schon sehen, dass wir in einer Rezession stecken und die Wirtschaft sowieso große Schwierigkeiten hat. Und deswegen muss man den Weg Klimaschutz weiter gehen, aber wir müssen uns jetzt mal konzentrieren auf Maßnahmen, die uns auch wirtschaftlich voranbringen, wie beispielsweise die Entwicklung der Wasserstofftechnik, wie beispielsweise eine massive Verstärkung der Gebäudesanierung … Und ich würde jetzt davon absehen, der Wirtschaft – vor allem einseitig in Deutschland – zusätzliche Kosten und Bürokratie aufzuerlegen. Dies ist jetzt nicht der richtige Zeitpunkt. Wir müssen schauen, dass die Wirtschaft jetzt wieder in Schwung kommt ….
Wir müssen also – wie Herr Professor Küstring schon richtig sagt, die Maßnahmen so wählen, dass wir Erfolg haben, und dies ist meines Erachtens nur durch einen Durchbruch in der Technik möglich. Und wenn es nicht gelingt, Energie zu speichern, was wir im Moment nicht können … zum Beispiel mit Wasserstoff, dann wird es ganz ganz schwierig, die Ziele zu erreichen.
Aber, wir dürfen nicht unser Land gefährden. Wenn Deutschland nicht mehr leistungsfähig ist, ist die deutsche Industrie auch nicht mehr in der Lage, diese neuen Techniken zu entwickeln, die wir brauchen. die werden nicht in Afrika entwickelt … die Wasserstoffproduktion …

Hier unterbricht Frau Botzki: … sind an einem interessantem Punkt. Und warum werden dann 8 Milliarden Euro an Kohlekonzerne verteilt? Warum bekommt die Lufthansa – die noch nicht einmal einen Klimaplan vorlegt – Milliarden von Euro.?
Da wird Geld verschleudert, was sehr wohl in Klimaschutzmaßnahmen fließen könnte. Und das ist unverantwortlich. was sie sagen klingt wunderbar, und es ist nicht Klimaschutz oder Arbeitsplätze. Aber wir müssen jetzt wirklich das Geld dahin stecken, wo es benötigt wird. Und wirklich diese Transformation starten.
Und Bürgerinnen entscheiden eben nicht genug mit. Wir warten zuhause. Wir dürfen nicht mal auf die Straße. Und wir hatten direkten Draht zur Regierung. Das ist Lufthansa, das ist RWE, Wir sehen, wie ein Wirtschaftsminister zum Fleischkonzern Tönnes wechselt und die berät. Das ist die Demokratie in der wir gerade leben und wir wollen ne Ergänzung. Unsere Aktionen richten sich sehr wohl darauf, dass wir die Demokratie ergänzen. Das Parlamentarische System ist wertvoll; wir wollen mehr. Frankreich hat gezeigt: Die Bürgerinnenversammlung kann wirklich Klimaschutzmaßnahmen vorschlagen, die für Bürgerinnen funktioniert und nicht nur Konzerne.

Moderator: Herr Füst meldet sich schon … ist das nicht ein wenig linke Tasche – rechte Tasche. Also, die Bundesregierung sagt, wegen Corona muss jetzt unbedingt mit einem Konjunkturpaket geholfen werden. Wenn man gleichzeitig jetzt sagt: den Unternehmen, ihr müsst aber auch mehr für CO2 zahlen … ist das dann ein Entlastungseffekt, den die Wirtschaft gerade braucht?

Fuest: Ahm, nur noch mal kurz zum Thema Frankreich. Ich glaub in Frankreich haben wir gesehen, wie schnell Klimapolitik an die Grenzen stößt, wenn man’s falsch macht, wenn man an die Gelbwesten denkt. So eine Entwicklung muss man bei uns verhindern, sonst ist man in einer Sackgasse.

Moderator erklärt dazu

Fuest: ... das was sie beschreiben, dieses Konjunkturprogramm, das eben diese klimapolitischen Elemente enthält, ich glaube das zeigt nur dass wir hier ein Problem haben, wenn wir Konjunktur- und Klimapolitik vermischen
Also, die Politik meint das gut, es hört sich auch gut an: Ja, jetzt machen wir Konjunkturpolitik und gleichzeitig Klimapolitik. Ich halte das aber für einen Fehler. Ich glaube, Klimapolitik wird dann funktionieren, wenn wir uns auf sie konzentrieren. Konjunkturpolitik ist etwas anderes ….

Aber beim CO2-Preis haben wir schon das Problem. Also entschlossene Erhöhung eines CO2-Preises ist aus meiner Sicht kein so großes Problem. Denn da Geld ist ja nicht weg, sondern das kann man zurückgeben. Es geht ja einfach darum, andere Anreize zu setzen … man sammelt Geld ein, das kann man ja zurückerstatten. E ist nicht weg. insofern entsteht die Belastung nicht durch den CO2-Preis per se, sondern durch den Strukturwandel. Ja und d bin ich bei ihnen, Herr Kreuzer. Das ist begrenzt, was man Menschen dort zumuten kann. Aber ich denke schon, es ist verpasst worden – da würde ich ihnen zustimmen – über Jahrzehnte einen Rahmen anzusetzen, der erfolgreich sein kann in der Klimapolitik.
Wir konnten mit dem deutschen Ansatz in der deutschen Energie und Klimapolitik der rein planwirtschaftlich war keinen Erfolg haben.

Ich glaube ein Punkt von dem man sich verabschieden muss ist diese Vorstellung, dass man Menschen und Firmen dafür bezahlt, die Umwelt nicht zu belasten. Wir müssen zurück zum Verursacherprinzip. Und da ist der CO2-Preis so gut. Wir müssen das Verschmutzen belasten. Denn wenn wir jeden bezahlen, wenn jeder der ein Elektroauto kauft, noch ne Prämie kriegt, dann sind wir irgendwann in der Tat arm. Das kann der Staat nicht. Hier braucht man mehr Entschlossenheit und weniger Lobby. Da bin ich bei ihnen, unsere Umweltpolitik ist ein Paradies für Lobbyisten. Da sind jede Menge Leute reich geworden, weil sie eben Subventionen abgreifen können … Es geht ganz einfach: Man macht einen CO2-Preis, ein Zertifikatesystem und dann hat man die Menge im Griff.
Wir sollten nur nicht vergessen: Wir dürfen nicht allein über Deutschland … wir 2025 klimaneutral sind, ändert das am Klima überhaupt nichts. Wir müssen also stärker darüber nachdenken, wie wir die anderen ins Boot holen.

Moderator: Gutes Stichwort: Was tun eigentlich die anderen Länder zum Klimaschutz und um die Treibhausgase zu beschränken

Einspieler: Deutschland verursacht 2% der Emissionen … viele deutsche Firmen produzieren im Ausland. Verursachen dort Emissionen und belasten die Umwelt.

Moderator an Fuest: Entledigen sich deutsche Unternehmen der Klimaschutzauflagen, indem sie im Ausland produzieren?

Fuest: Das würde ich pauschal so nicht bejahen. Wir müssen nur aufpassen, dass sie das nicht in größerem Umfang als bisher tun. Wenn wir hier sehr rigide Klimaschutzregeln einführen, dann können die unter Umständen ins Ausland abwandern.
Es gibt gewisse Instrumente dagegen, aber damit ist uns ja nicht geholfen. Nochmal: Wir müssen andre ebenfalls gewinnen, CO2-Preise einzuführen, dann ist es ganz egal, wo die Unternehmen hingehen.
Das ist ja die große Herausforderung beim Klimawandel. Er ist ein globales Problem und das ist frustrierend … Wir wissen: national können wir handeln, lokal können wir handeln, global zu handeln ist ungeheuer schwierig. Aber es gibt, beim Klimaschutz gibt es keine Alternative zu diesem globalen Ansatz.

Frau Schulze: Also ich finde den Satz: Global denken, lokal handeln passt da total perfekt. Natürlich wäre es am allerbesten, wenn wir uns sofort mit allen einig wären und die gleiche Richtung gehen. Aber, daran müssen wir hin arbeiten. Aber das befreit uns ja nicht davon in unserem Bereich unser Bestmögliches zu tun.
Und mein Gedanke, den ich da immer wieder habe ist es: Ich glaube, dass man mit gutem Beispiel und dem Aufzeigen wie ein nachhaltiges Leben ebenfalls sehr gut ist, total viele Leute auch überzeugen und gewinnen kann. Ich mein: das ist in unserer Gesellschaft doch schon so, dass immer mehr Menschen sich Gedanken machen. Im Kleinen beginnen. Und ich hab immer so das Gefühl es wird manchmal so ein Gegensatz aufgemacht: Ach, wenn man Klimaschutz macht, dann ist es irgendwie freudlos und das Leben ist nicht mehr so wie vorher … da gilt doch auch das Vorbild, Das Thema, Mut geben, statt Angst machen …

Moderator: Herr Kreuzer, wenn man sich jetzt aber das Argument aufgreift , dass es außenpolitisch wichtig ist, Einfluss u nehmen, und wenn sie dann mal blicken auf einen Verbündeten Deutschlands seit vielen Jahrzehnten – USA – wünschen sie sich da nicht auch, dass Herr Trump nicht noch einmal gewählt wird, weil er Klimaschutz im Grund ablehnt

Einwurf Frau Schulze: ich glaub, das wünschen sich alle

Wer an der Regierung sitzt, hat mit dem Klimawandel Probleme. Der Kampf dagegen bringt nichts, (zer-)stört aber die Wirtschaft. Man darf es aber nicht wirklich sagen

Kreuzer: Also zunächst muss man ja sagen, wir haben international ja doch einiges erreicht. Das Pariser Klimaschutzabkommen, wo sich die meisten Länder ja verpflichtet haben …. allerdings ist die USA dort ausgestiegen.
Ich halte dies für falsch. Ich bin aber nicht sicher, ob dies bei einem Regierungswechsel auch wieder geändert wird.
Niemand soll glauben, dass wenn der Präsident wechselt, die amerikanische Politik wieder so wird, wie sie vorher gewesen ist. Denn es hat sich einiges in den Beziehungen grundlegend geändert.
Ich halte es für richtig, dass man sich an die Vereinbarung hält, aber ich sage ganz klar, wir müssen natürlich aufpassen … mit der Konkurrenzfähigkeit. China hat beim CO2-Ausstoß groß Luft nach oben in den nächsten Jahrzehnten, weil es auf den Kopf der Bevölkerung umgerechnet wird. Und die Vereinigten Staaten machen nicht mit. Sie sind Hauptkonkurrenten der Deutschen Wirtschaft und da muss man natürlich schon aufpassen, dass wir als exportorientiertes Land – Automobil: Sie wissen, Bayern 2/3 Export – dass wir überhaupt noch international konkurrenzfähig sind.

Und deswegen ist für uns diese Internationalität so wichtig. Wenn nur bei uns CO2 teuer ist und überall dort, wo auch produziert wird, nicht, dann wirds schwierig. Und wir haben es mit unseren Maßnahmen schon geschafft, dass wir einen der teuersten Strompreise in der ganzen Welt haben. Auch dies belastet Firmen. Ich kenne Allgäuer Firmen, die Zweigwerke in Österreich gebaut haben – wenige Kilometer über der Grenze – weil dort der Strompreis nur halb so hoch ist wie im Allgäu.

Und wenn es stromintensiv ist, dann ist das ein wichtiger Faktor. Also, des is schwierig. Wir müssen vorwärtskommen in dem Thema, müssen des aber vernünftig machen. Durch Innovation – und dürfen nicht den Wirtschaftsstandort gefährden, weil dann werden wir auch klimapolitisch – und da stimme ich ihnen zu – keinen Erfolg haben, weil die Leute des nicht mehr mitgehen werden.

Frau Schulze: Nur ein kurzer Punkt: Es gibt den CO2-Preis ja schon in anderen Ländern. Es ist ja nicht so, als gäb`s des noch nirgens.

Die „Industrievertretung“ hat keine Probleme mit dem Klimakampf – sofern alle die hohen Kosten haben …

Fuest: Ja, wenn ich das noch ergänzen darf: der Strompreis ist ja eine politische Entscheidung. Der ist ja gemacht. Es ist falsch, die hohen Strompreise zuhaben, weil Strom belastet nicht das Klima, sondern die Emissionen.
Wir müssen die Emission verteuern. Wir haben mit einem völlig unsinnigen, Erneuerbare-Energien-Gesetz den Strom verteuert. Das sind einfach wirtschaftspolitische Fehler. Das hätte man viel besser machen können und müssen. Ich habe überhaupt kein Verständnis dafür – muss ich ihnen sagen – dass es dieses EEG-Gesetz in dieser Form noch gibt. Es verteuert überflüssigerweise Strom, und wir verzichten darauf, die CO2-Emissionen zu verteuern. Ich glaube, da muss sich schneller was ändern.

Moderator: Herr Kunstmann, was sagen sie zu der These?

Kunstmann: So schön wie der Parisvertrag ist. Er wird uns erstmal nicht alleine helfen. Das ist … Es ist schön, ihn erreicht zu haben, aber dem Klima hilft er erstmal nichts, wenn nicht wirklich die Emissionen dazu nach unten gehen. Und das was die Staatengemeinschaft, was jedes einzelne Land von sich aus beigesteuert hat, gesagt hat, OK, soviel wollen wir reduzieren, da landen wir nicht bei 1,5 Grad Celsius, global, da landen wir bei drei Grad Celsius global.
Zusätzlich muss man sagen: Es sind auch keine Strafen verbunden; es sind keine Einschränkungen verbunden. Wenn ein Land seine Ziele nicht erreicht hat, hat es erst mal keinerlei Konsequenzen. Deshalb sage ich: So lange wir nicht deutliche Änderungen an dem CO
2-Gealt der Atmosphäre am Steigungsverhalten sehen, sind alles nur Redewendungen, Verträge und wir haben keine berechtigte Hoffnung, dass wir diese Klimaänderung noch einigermaßen in den Griff bekommen.

Moderator: Bekommt man die Klimaänderungen in den Griff, wenn man sieht, wie es vorher geheißen hat, dass Firmen abwandern. Aber auch wenn man Kraftwerke schließt in Deutschland – Kohle, Atomkraft – . Aber der Strom kommt dann eben doch aus dem Ausland zu uns.

Anmerkung des Autors: Schweden hat die Probleme bereits, die Deutschland beim EEG noch bevorstehen. Die hemmungslose Einspeisung von Ökostrom hat den Strommarkt vollständig kaputt gemacht.
WELT 22.07.2020: STROMVERSORGUNG Der Fall Schweden offenbart, was Deutschland beim Atomausstieg droht
… Deutschland steht kurz vor dem endgültigen Atomausstieg. In Schweden wird deutlich, welche Risiken damit verbunden sind: Bei Göteborg musste ein Meiler reanimiert werden, um den Strombedarf zu decken. Auch Deutschland muss sich auf so ein Szenario vorbereiten.
… Strom ist in Skandinavien derzeit also nahezu wertlos. Die Strukturen, die zu dem Preisverfall geführt haben, sind mit denen in Deutschland vergleichbar, auch wenn sie unter den schwedischen Bedingungen deutlicher hervortreten.

Alte, weiße Herren erzählen vom Zusammenbruch der Zivilisation – das glaube ich

Anmerkungen Autor: Die vergangenen Eiszeiten – und die aktuelle Warmzeit mit ihren schon vergangenen, höheren Temperaturen – belegen, dass auch bei höherer Temperatur keine Kipppunkte zu noch höheren existieren. Der Glaube an die Klimaapokalypse ist jedoch viel einfacher – da plötzlich alles alleine mittels CO2-Verhinderung lösbar wird -, als solche Kenntnisse zur Klima-Vergangenheit.
Damit lassen sich auch die Probleme der seit Jahrtausenden in vielen Gegenden existierenden „Hungerbrunnen“ „lösen.

Frau Botzki: Also ich finde das interessant, dass Wissenschaftler vom Zusammenbruch der Zivilisation sprechen. Das sind alles technisch Fragen, die wir klären müssen. Die kann man auch klären (Einwurf Moderator: welche Wissenschaftler sprechen vom Zusammenbruch der Zivilisation?) Rockström, Schellnhuber, Will Steven zum Beispiel von der Australien University … bei 4 Grad ist Leben auf dem Planeten so wie wir es kennen nicht mehr möglich. Und wenn wir 2 Grad erreichen, dann erreichen wir diese Kippelemente, die jetzt schon angestoßen sind.

Das is was, was sich nicht mehr aufhalten lässt. Konkurrenzfähigkeit ist wichtig, Wettbewerbsfähigkeit, Exportweltmeister. Davon können wir uns nichts kaufen, wenn unsere Lebensgrundlagen weg sind. Wenn wir kein stabiles Klima mehr haben. Und die Regierung muss, wenn sie das weiß – sie wird beraten von den besten Wissenschaftlern – endlich sagen: das ist ein planetarer Notfall und wir handeln dementsprechend. Und Menschen werden mitgehen mit diesen Maßnahmen, wenn sie wissen, auf was sie gerade zusteuern.

Es werden gerade Trinkwasser-Versorgungspläne gemacht – in Teilen von Deutschland –. Im Schwarzwald versiegen die Brunnen. Das ist die Situation, in der wir jetzt schon sind, bei 1, zwei, drei Grad. Wo wir gerade schon ehrlicherweise stehen. Und dann gehen Leute auch mit. Und dann finden sich auch Lösungen, wie wir Energiebedarf runterschrauben, wie wir Strom da herstellen, wo er günstig und sauber ist.

Energieautarke Gemeinden

Moderator: Lösungen, auch wieder ein schönes Stichwort. Da gibt es nämlich Lösungen, die haben Gemeinden, die Gemeinde Ascha in Niederbayern. Die hat eine Lösung gefunden, wie man die Energieversorgung für alle im Dorf regeln kann.

Es kommt ein Einspieler darüber. Stimme: Ascha in Niederbayern … doch diese 2000 Seelen Gemeinde steht für eine Klimarevolution , mit angeführt von Maria Kulzer. Als Erste hat sie im Dorf ihren eigenen Solarstrom produziert. Kulzer: Da hat man schon ein ganz tolle Gefühl, wenn man weiß – die Sonne schickt ja bekanntlich keine Rechnung und man weiß dass es praktisch die Energie die ich da verbrauch umsonst ist.
Stimme: Ihr eigenes Dach war nur der Anfang. Mehrere Familien beziehen heute ihren Strom von einer Solaranlage auf einer Mehrzweckhalle im Dorf. Weitere 300 Haushalte werden von diesen Solarpanels am Dorfrand versorgt (Groß-Solaranlage auf einer Wiese). Doch Solarenergie ist nur ein Teil. Holz aus der Region spielt eine wichtige Rolle für hunderte Menschen in Ascha. Das landet in einer Hackschnitzelheizung. Jedes Haus muss einen Anschluss haben.
Maria Kulzers Neffe engagiert sich seit Jahren für diese Art der Nahwärme. Damit ist Ascha unabhängig.

Neffe vor der Hackschnitzelheizung: Weil das Material einfach bei uns aus der Region kommen kann. Man ist nicht angewiesen auf irgendwelche europäischen oder Weltmärkte. Doch trotz der Investitionen: Auf Dauer lohnt sich die Nahwärme für Maria Kulzer: Die Folgekosten sind dann plötzlich billiger oder günstig. Weil bei der herkömmlichen Heizung muss ich zum Beispiel den Kaminkehrer bezahlen. Ich muss die Wartung bezahlen.

Anmerkung des Autors: Wie sich solche „Autarkie“ wirklich darstellt, würde sich sofort herausstellen, wenn gleichzeitig die Leitung zum Grundlast-Notversorger gekappt würde und auch keine Subventionen fließen.
Für solche stark ländlichen Gemeinden mit wenig Einwohnern und viel Fläche mag das Konzept im Ansatz denkbar sein. Eine globale Möglichkeit ist es niemals- auch wenn Herr Eiwanger (Parteispitze der durch einen Treppenwitz der Geschichte in eine Koalition gespülte Provinzparte) dies behauptet.

Ein Lob auf die EEG-Subventionen – unbedingt weiter so

Stimme: Die Gemeinde produziert heute doppelt so viel Strom als sie verbraucht. Ascha, ein Vorbild für Selbstversorgung?

Frau Schulze: Mein Herz ging grad auf, wo ich den Beitrag gesehen hab. Wei, des ist genau des, die Bilder und die Botschaften, die wir brauchen. Dass es funktionieren kann. Dass es funktioniert. Dass dank des EEG es auf einmal möglich war, Solaranlagen sich aufs Dach zu setzen. also, des is des … was ich vorhin immer gesagt hab mit Rahmenbedingungen. Da muss die Politik mit Rahmenbedingungen schaffen, dass Menschen umstellen sozusagen können. Und das können wir jetzt bei der Energie durchdeklinieren. Machen wir weiter beim Thema Mobilität und Verkehr.

Ich mein, wenn ich möchte, dass die Leute ihren Verbrenner stehen lassen, dann muss ich als Regierung den öffentlichen Nachverkehr ausbauen . Ich kann ja nicht von den Leuten verlangen: ja du kannst nicht mehr mit dem Verbrenner fahren, aber ich bau keine Radfahrschnellwege und ich …

Moderator unterbricht: Bleiben wir mal bei Ascha, Herr Kreuzer: Weil das ist so ein schönes Beispiel. Über Automobilindustrie kann man lange reden. Aber Asch, da fragen sich jetzt viele andere Gemeinden vielleicht: Ja wenn wir das auch machen wollen, bekommen wir dann ne Förderung das ist schon ein Riesen-Investment erstmal.

Kreuzer: Ich find des toll. Ich habe auch so eine Gemeinde in meinem Stimmkreis, die Gemeinde Wilpoltsried. Die haben noch zusätzlich Windkraft, die haben noch zusätzlich Biogas, sind schon längst autonom.

Natürlich gibts für Erneuerbare Energien die ganz normalen Förderungen … ist durchaus möglich, dass sich dies lohnt. Die Wilpoldsrieder haben auch ein großes Batterieforschungsprogramm zusammen mit ihrem E-Werk. also die speisen am Tag ein und nehmen in der Nacht raus. Aber wir müssen auch sehen … Jeder soll tun was er kann. Und ich bin dafür, Dass jeder tut was er kann und dann sind solche Dinge möglich.

Aber wir müssen schon sehen: in beiden Gemeinden steht kein BMW-Werk und kein Chemie-Werk und auch kein Stahlwerk. Und da sind natürlich andere Voraussetzungen gegeben. Und wir müssen natürlich auch solche Industrien zukünftig mit Energie bedienen können. Aber trotzdem ist dies super. Ich unterstütze jeden, der dies versucht und man kann hier viel machen. Im Übrigen gibts auch im Allgäu, zum Beispiel in Wilpoldsried jede Menge Windräder – Frau Schulze – und die führen auch zu einer erheblichen Einspeisung. Zum Beispiel in Wilpoldsried …

Moderator: Herr Kunstmann. Ich würde sie noch gerne fragen, weil Frau Schulze das Stichwort Verkehr gebracht hat. Kommen wir vielleicht jetzt auch über Corona, weil sich viele schützen wollen und sagen: ich gehe jetzt besser nicht in den Bus, in eine ganz andere Phase dass der Individualverkehr wieder steigt, also im Sommer vielleicht ganz leicht auf das E-Bike steigen, den E-Roller oder vielleicht muss man ganz neue Autos produzieren, die für eine Person gedacht sind aber ganz klein und auch elektrobetrieben. Gibt es eine Umkehr zum Individualverkehr, der auch klimafreundlich sein kann?

Kunstmann: Ja das ist leider eine wirklich negative Auswirkung der Pandemie … dass der öffentliche Nahverkehr massiv an Zahlen eingebüßt hat. Also hier, ich denk im Mobilitätsbereich, da trifft uns die Umstellung wirklich am Schwierigsten. Ja und hier erwarte ich … ich glaub, hier erwarte ich wirklich von der Politik, dass sie uns Einzelnem hilft. Ich persönlich als Bürger, ich möchte nicht jeden Tag immer wieder vor der neuen Entscheidung stehen: Fahre ich jetzt mit dem Auto zum Einkaufen oder in die Arbeit oder mit dem Fahrrad oder mit dem öffentlichen Nahverkehr. Hier möchte ich als Bürger, dass man mir hilft. Ich möchte, dass es extrem viel Angebot gibt, dass auch das Letzte, kleine Dorf in den öffentlichen Nahverkehr angebunden ist und dass es auch ein finanzielle Vorteil ist, wenn ich nicht mit dem Auto fahr. Und wenn das Auto zu Hause stehen bleiben kann. Da müssen wir hinkommen. Und da werden wir es auch nicht mit der Freiwilligkeit schaffen. Ja, da muss es verpflichtende und verbindliche Vorgaben geben und da brauchen wir Bürger auch wirklich die Politik, die Rahmenbedingungen setzt.

Frau Schulze: Deshalb fordern wir Grüne eine Mobilitätsgarantie. Jeder Ort in Bayern muss mindestens einstündig am ÖPNV angebunden sein.

Moderator: Wir sind am Ende der Sendung. Herr Fuest, sie haben das letzte Wort. Nur ein, zwei, drei Stichworte: Vorangehen im Klimaschutz fördern.

Nur ein weltweiter CO2-Preis ist die Lösung

Fuest: Welche Verantwortung? Also wir brauchen einen Gesamtrahmen. Ich glaube, wir haben gesehen, es gibt gute, einzelne Beispiele. Es fehlt der Gesamtrahmen … überall stehen unsere Windräder, wir haben so tolle Gemeinden, trotzdem hat Deutschland seine Klimaziele ohne die Krise verfehlt. Da liegt das Problem. Wir brauchen einen Gesamtrahmen. Die Politik muss entscheiden: Wie viel Erwärmung können wir uns noch leisten und wenn dieser Gesamtrahmen existieren würde – und der CO2-Preis ist der Weg dorthin – dann schafft die Wirtschaft das auch. Nur, der muss eben von der Politik vorgegeben werden.

Moderator:das war eine spannende Diskussion ...

Ergänzung des Autors: Um die Hilflosigkeit der Politik und das vollkommene Fehlen einer auch nur im Ansatz kritischen Betrachtung der Aussagen von Klimaapokalyptikern quer über die gesamte „Intelligenz“ – aufzuzeigen.
Über Nordkorea braucht man da nicht mehr zu lächeln, wie das „Dritte Reich“ bei solcher „Intelligenz“ so schnell stark werden konnte ahnt man. Im Gegensatz zur GRÜNEN Frau Schulze, wünschen manche bei uns sehr wohl so etwas wie einen Trump … und nicht das dauernde „Hieven“ politisch höriger „Merkelpupser*innen“ in immer höhere Positionen.

Quellen

[1] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[2] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[3] KLIWA Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[4] KLIMA Klimawandel in Süddeutschland Veränderungen von meteorologischen und hydrologischen Kenngrößen Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[5] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[6] EIKE 03.07.2019: Wozu (gegenteilige) Messwerte betrachten? Den Klimawandel fühlt doch jeder

[7] O. BÖHM & K.-F. WETZEL 2006: Flood history of the Danube tributaries Lech and Isar in the Alpine foreland of Germany

[8] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
[9] DWD Schrift, Paul Becker at al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung

[10] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten

[11] EIKE 04.07.2020: Ist die aktuelle Meerespegeländerung im Vergleich mit historischen Zeiten einzigartig?




Die Mehrkosten für die Erzeugung wetterabhängiger erneuerbarer Energie in der EU (28): 2020 – Teil 1

Alle Tabellen und Daten stammen überwiegend von https://www.eurobserv-er.org/ und sind vom Autor zusammengestellt

Observ’ER, screenshot-2020-07-06-at-10.13.35

Installed GW = installierte Nennleistung
Output GW = Durchschnittsleistung – aufs Jahr gerechnet, wenn diese Leistung kontinuierlich abgerufen werden könnte

Diese einfachen Berechnungen werden genutzt um die einfache Frage beantworten:

„Wie viel würde es ungefähr kosten, die gleiche Menge Strom zu erzeugen, die von der gegenwärtigen Flotte wetterabhängiger erneuerbarer Energien der EU (28) unter Verwendung herkömmlicher Erzeugungstechnologien (Kern- oder Gasfeuerung) erzeugt wird? Und wie vergleichen sich diese Zahlen?“.

Dementsprechend quantifiziert der Beitrag das Ausmaß der Steuerverschwendung und die Belastung der Stromrechnungen, die durch die Nutzung der wetterabhängigen erneuerbaren Energien der EU (28) verursacht werden, wie sie Ende 2019 installiert waren. Sie kombiniert die von US Energy veröffentlichten Vergleichskosten für Erzeugungstechnologien, veröffentlicht im Jahr 2020 mit Informationen zur Nennleistung (Typenschild) der installierten wetterabhängigen erneuerbaren Anlagen der EU (28) und ihrer tatsächlichen Produktionsleistung ab 2019. Auf diese Daten zur Leistung erneuerbarer Energien Ende 2019 kann über EurObserv’ER zugegriffen werden.

Nach diesem Kalkulationsmodell, betragen die ungefähren Kosten für die EU(28):

  • Die Kapitalkostenverpflichtung für die derzeit installierten erneuerbaren Energien in der EU beträgt ~ 520 Mrd. EUR.
  • Gegenüber Gasfeuerung […-Menge Strom aus Gaskraftwerken] ergibt das Mehrkosten um ~ 450 Mrd. EUR und ~ 85 Mrd. EUR gegenüber den Kosten für Kernkraftwerke.
  • Die langfristige Kostenbindung der derzeitigen EU (28) für die Erzeugung erneuerbarer Energien mit einer installierten Leistung von ~ 65 Gigawatt beträgt ~ 2.000 Mrd. EUR. Gegenüber einer Stromerzeugung aus Gasfeuerung sind das ~ 1.800 Mrd. EUR Mehrkosten und ~ 980 Mrd. EUR Mehrkosten gegenüber Kernkraft.

[In meinen Worten wiederholt: der Autor hat festgestellt, dass alle Erneuerbaren einer Gesamtleistung auf Jahr gesehen von 65,3 GW entsprechen.  Multiplikation mit den Jahresstunden: 65,3 GW mal 8750 Std. ergibt die abgegebene Energie in ~ 572 TWh – denken Sie daran, dass Wind und Sonne nur volatil liefern

Der Autor lebt in Frankreich, das inzwischen keinerlei Kohlekraftwerke mehr betreibt.  Er betrachtet daher nur die gasbetriebenen und nuklearen Kraftwerke im Vergleich – der Übersetzer]

Wie später zu sehen ist, zeigen diese Schätzungen, dass die Nutzung wetterabhängiger erneuerbarer Energien in der EU (28) das 7- bis 9-fache der Nutzung von Erdgas zur Stromerzeugung und etwa das 1,2- bis 2-fache der Kernenergie kostet.

Die Auswirkungen der schlechten Produktivität wetterabhängiger erneuerbarer Energien werden in diesen beiden Kreisdiagrammen dargestellt:

Observ’ER, screenshot-2020-07-07-at-10.25.23

Die in der EU (28) installierten wetterabhängigen erneuerbaren Energien, haben nach Typenschild eine Kapazität von ~ 344 GW, produzierten jedoch im letzten Jahr in Summe nur so viel, wie es einer Kapazität 65 GW entspricht, was eine Produktivität von insgesamt ~ 19% ergibt.

Vergleichendes Kostenmodell für Stromerzeugungstechnologien

Die Vergleichskosten basieren auf Daten der US- EIA [Energie Information Behörde], die im Januar 2020 aktualisiert wurden.

Die in diesem Modell verwendeten Werte ignorieren den oben genannten „EIA Technological Optimism Factor“, der die Vergleichskosten von Offshore-Windenergie (um etwa 9 Mrd. EUR / Gigawatt: langfristig) und in viel geringerem Maße die Kernenergie nachteilig beeinflussen würde. Diese Kosten sind in der folgenden Tabelle zusammengefasst und in Mrd. EUR / Gigawatt umgerechnet.

Observ’ER, screenshot-2020-07-06-at-10.14.06

In der US-EIA-Tabelle sind die overnight capital costs [vergleichende Annahme der Projektkosten, ohne Finanzierung, Zinsen u.ä, als ob „das Projekt über Nacht“ fertig gestellt wurde] jeder Technologie aufgeführt. Außerdem die Wartungskosten auf 60 Jahre Betrieb hochgerechnet, ausgedrückt als Mrd. EUR / Gigawatt. Für diese Vergleiche werden 60 Jahre gewählt, da dies der Lebensdauer der aktuellen Generation von Kernkraftwerken nahe kommen sollte.

Observ’ER, screenshot-2020-07-18-at-07.40.41

Die obigen Vergleichsdaten sollen die verzerrenden Auswirkungen der staatlichen Steuer- und Subventionspolitik zur Unterstützung wetterabhängiger erneuerbarer Energien realistisch vermeiden. Oft wird behauptet, dass erneuerbare Energien die Kostenparität mit herkömmlichen Erzeugungstechnologien erreichen können. Die Befürworter von wetterabhängigen erneuerbaren Energien scheinen die Produktivitätsunterschiede bei der konventionellen und verfügbar planbaren Stromerzeugung immer bequem zu vergessen [„dispatchable“ – im Weiteren als prägnanter Ausdruck genutzt, der Übersetzer]

Die oben den erneuerbaren Energien zugewiesene Lebensdauer ist durchaus großzügig, insbesondere für Offshore-Wind- und Solarphotovoltaik. Es hat sich gezeigt, dass sich die Produktionskapazität aller erneuerbaren Technologien im Laufe ihrer Lebensdauer erheblich verschlechtert.

Die jüngsten EIA -Aktualisierungen für 2020 berücksichtigen vollständig alle Kostensenkungen oder Minderangebote für erneuerbare Technologien, insbesondere für Solarmodule. Die Kosten für Solarmodule selbst können sich verringern, aber diese Preissenkung kann nur etwa 1/4 der gesamten Installationskosten betreffen. Preisbestimmend sind die anderen Kosten der Solaranlagen, diese (Neben-) Kosten bleiben unveränderlich und steigen mit der Inflation.

Mit hoher Gewissheit kann man daher annehmen, dass diese Ergebnisse eine gültige vergleichende Analyse der tatsächlichen Kosteneffizienz wetterabhängiger erneuerbarer Energien liefern. Es ist zu beachten, dass im Gegensatz zu echten Mikroprozessortechnologien, das „Mooresche Gesetz“ nicht auf Solarmodule angewendet werden kann. Da die Sonnenenergie, die sie sammeln, von geringer Konzentration und diffus ist, müssen sie von großer Fläche sein, um nennenswerte Energie sammeln zu können. [Die im Laborversuch gefundene Verbesserung der Umwandlung von Sonnenergie in Strom ergibt nur noch marginale Verbesserungen, eine fortschreitende Miniaturisierung der Fläche daher für die Solar-PV-Technologie irrelevant.]

Zum Thema: https://www.manhattan-institute.org/green-energy-revolution-near-impossible

Die oben gezeigten tatsächlichen Kosten der Stromerzeugung berücksichtigen jedoch nicht die Produktivität der Erzeugungstechnologien. Die nachstehende Tabelle zeigt daher die realen Vergleichskosten von wetterabhängigen erneuerbaren Energien, wenn die Produktivität der Erzeugungstechnologien berücksichtigt wird, die 2019 erzielt wurde.

Observ’ER, screenshot-2020-07-06-at-07.50.41

Darüber hinaus lassen diese Vergleichszahlen alle anfallenden Kosten für die Nutzung wetterabhängiger erneuerbarer Energien unberücksichtigt. Die obigen Ergebnisse beinhalten nur die Kapital- und Betriebskosten der Erzeugungsanlagen selbst, wobei die gemessene Produktivitätsfähigkeit jeder Erzeugungstechnologie, d.h. die tatsächlich erzeugte elektrische Energie berücksichtigt wird.

Die oben angesprochenen Nebenkosten, die unvermeidlich mit Windkraft und Solarenergie verbunden sind, ergeben aus:

  • Unzuverlässigkeit sowohl hinsichtlich der Kontinuität [Beginn und Zeitdauer] als auch des abgegebenen Stromes [Leistungsvariabilität].
  • die Nicht-dispatchablity von erneuerbaren Energien: Der Wind weht nicht und die Wolken verziehen sich nicht auf Bestellung, wenn dies erforderlich ist.
  • Ungünstiger Zeitpunkt der Stromerzeugung, der oft nicht mit der Nachfrage koordiniert werden kann: Beispielsweise fehlt im Winter praktisch meist Solarenergie, oft nur 1/9 der abgegebenen Leistung als in der Sommerperiode mit geringerer Nachfrage.
  • lange Übertragungsleitungen zu entfernten Standorten, die sowohl kostspielige Leistungsverluste bei der Übertragung als auch erhöhte Wartung verursachen
  • zusätzliche Infrastruktur für den Anschluss abseits gelegener oder dafür nicht vorgesehener Standorte erforderlich
  • Unbedingt notwendige Backup-Kraftwerke, die unplanbar einspringen müssen. Aber oft im unökonomischen Stand-by laufen (müssen).
  • Jede elektrische Speicherung mit Batterien, würde sehr erhebliche zusätzliche Kosten verursachen. Langfristige Kapazitäten (einige Tage) sind für ein ganzes Land nicht real [Hardware] und nicht wirtschaftlich machbar
  • Den Wechselrichtern der Wind- und Solar-PV Anlagen fehlt die inhärente Trägheit zur Aufrechterhaltung der Netzfrequenz
  • wetterabhängige erneuerbare Energien können keinen sicheren „Schwarzstart“ nach einem größeren Netzausfall bewirken

Weiterhin wird gerne verschwiegen, dass diese Kostenanalysen nicht Folgendes berücksichtigen:

  • unvermeidliche Umweltschäden und Zerstörung von Wildtieren durch wetterabhängige erneuerbare Energien
  • Der sonst so gerne beschworene „CO2-Fußabdruck“ wetterabhängiger erneuerbarer Technologien: Sie sparen während ihrer Lebensdauer möglicherweise nie so viel CO2, wie sie wahrscheinlich für die Beschaffung, Herstellung, Installation, Wartung und den eventuellen Abbruch von Materialien benötigen. Realistisch betrachtet, hängen alle diese Anlagen vollständig von der Verwendung erheblicher Mengen fossiler Brennstoffe für die Herstellung und den Betrieb ab.
  • Der Ertrag aus der vorher investierten Energie: Wetterabhängige erneuerbare Energien produzieren während ihrer Lebensdauer möglicherweise nicht so viel Energie, wie für ihre ursprüngliche Herstellung und Installation erforderlich war. Sie bieten sicherlich nicht die reguläre überschüssige Energie, die ausreicht, um die vielfältigen Bedürfnisse eines entwickelten Industrielandes zu befriedigen.

Renewables K.O.-ed by EROI?

Weitere Grafiken finden Sie auf

https://edmhdotme.wordpress.com/uk-eu28-renewables-productivity/

https://edmhdotme.wordpress.com/the-excess-costs-of-weather-dependent-renewable-power-generation-in-the-eu28w/

(Auf seiner Webseite ist die jeweils aktive Schlagzeile fett markiert, dann nach unten scrollen)

***

Wer sich das Original ansieht, erkennt, dass noch sehr viel mehr Grafiken und Information gespeichert sind.

In Teil 2 nehme ich mir den folgenden Part zum Kostenvergleich der Installationen nach europäischen Ländern vor.

Übersetzt durch Andreas Demmig

 




Masse statt Klasse – Die Antwort der Bundesregierung auf eine Kleine Anfrage der AfD, welche IPCC kritischen Wissenschaftler sie zur Beratung hinzugezogen hätte.

Wissenschaftlichen Marxismus – Leninismus als Lehrmeister

Die Theorie des wissenschaftlichen Marxismus – Leninismus wurde (und wird) auf der ganzen Welt gelehrt, war im Ostblock Staatsdoktrin und wurde von tausenden von Wissenschaftlern tagtäglich durch neue Belege und Beweise bereichert. Sie erwies sich indes nicht einmal als falsch, sondern als Nicht-Wissenschaft, allein aus Ideologie bestehend. Aber menschgemacht versteht sich.

Doch selbst unter den Gelehrten, die dieser Ideologie anhingen, gab und gibt es – bis heute – Streit über den rechten Weg. Deswegen hätte eine Umfrage oder Literaturstudie unter den sicher hunderttausenden von Studien – allesamt peer reviewed – zwar sehr hohe Zustimmungsraten, aber niemals von fast 100 % gefunden,

Diese Zustimmungsrate bleibt der Hypothese vom menschgemachten Klimawandel vorbehalten, wie die Bundesregierung gerade wieder mal verkündete.

Denn geht es nach ihr, dann würden 99,94 % „allesamt von Fachkollegen und Fachkolleginnen geprüfte (peer reviewed) wissenschaftliche Artikel(n)“, und nur die von 1991 bis 2015, die Hypothese vom menschgemachten Klimawandel, der zudem wie es im Mandat des IPCC festgehalten wird, riskant sei, „bejahen“.

Doch, das schreibt Bundesregierung tatsächlich, 99,94 % und bezieht sich dabei auf die Meta-Studie eines James Powell von 2016.  Den Anlass dazu gab eine Kleine Anfrage der AfD Fraktion vom 6.Juli 2020, welche die Fragen der NGO Klimafragen.org wohl der Reihe nach der Bundesregierung in Form „Kleiner Anfragen“ vorlegt.

Die Antwort der Bundesregierung auf eine Kleine Anfrage

In dieser Kleinen Anfrage wurden nur zwei Fragen gestellt:

  1. Sind der Bundesregierung der U.S. Senate Minority Report, die Eingabe an den damaligen US-Präsidenten Barack Obama, der Offene Brief an UN- Generalsekretär Ban Ki-Moon, die Petition an den US-Präsidenten Donald Trump oder die jüngst erfolgte Eingabe im Namen von 500 Wissenschaft- lern an den UN-Generalsekretär Antonio Guterres mit ihren Inhalten bekannt (sämtliche Dokumente vgl. Vorbemerkung der Fragesteller)?
  1. Wen hat die Bundesregierung zu ihrem eigenen Verständnis und zu ihrer Auseinandersetzung mit Klimafachveröffentlichungen, die die Hypothese vom gefährlichen menschgemachten Klimawandel ablehnen oder den menschlichen Beitrag als weniger entscheidend einstufen, für ihre Entscheidungsfindung konsultiert?

In Ihrer Antwort, die seit dem 16.7.20 vorliegt und im Internet abrufbar ist (hier) schrieb die Bundesregierung zu Frage 1:

„Der Bundesregierung sind genannte Schriftstücke bekannt.“

Und zu Frage 2 zwar einen längeren Sermon – auf den ich gleich noch ein wenig eingehen werde- der zusammengefaßt aber sinngemäß lautet:

„Keinen“

Das war´s, aber noch nicht ganz. Denn in diesem längeren Sermon verteidigte sich die Bundesregierung mit der Behauptung, dass ja das IPCC schon alles erforscht und geprüft hätte, und zu 95 bis 100 % „ äußerst wahrscheinlich“ sei, dass der Mensch den Klimawandel verursache und weil „die Berichte des IPCC beruhen auf tausenden von Veröffentlichungen aus aller Welt und zehntausenden von Gutachterkommentaren“ die „ausgewogen, verlässlich und vollständig“ seien, es kein Bedarf mehr an anderen evtl. abweichenden wissenschaftlichen Meinung gäbe.

Das IPCC ist wohl zu befangen und kann allein nicht zur Rechtfertigung dienen

Doch weil Ihr selber diese Darstellung wohl auch zu dürftig vorkam, schließlich folgt das IPCC bekannterweise nur seinem strikten Mandat, nachzuweisen, dass der Klimawandel menschgemacht und riskant sein, verwies sie im Folgenden auf die Metastudie des James Powell von 2016, dass 99,94 % von 54.195 der von „Fachkollegen und Fachkolleginnen geprüften (per reviewed) wissenschaftliche Artikel aus dem Zeitraum von 1991 bis 2015“ den menschengemachten Klimawandel bejahen würden.

Abgesehen von der Tatsache, dass selbst zu Sowjet- bzw. DDR Zeiten eine solche  Zustimmungsrate, s.o. auch unter „Wissenschaftlern“ des Marxismus-Leninismus ungewöhnlich hoch gewesen wäre, also in diesem Fall zu einer echten Pseudowissenschaft, wobei die Zustimmungsverweigerung auch noch ganz praktisch schwer sanktioniert wurde, ist diese Aussage der Bundesregierung auch sachlich falsch.

Denn der Studienautor James Powell suchte nicht nach der Zustimmung der Studienautoren – ebenso fälsch als Bejahung der Hypothese vom menschengemachten Klimawandel interpretiert-, sondern nach der vermuteten Ablehnung dieser Hypothese. Und das auch nicht in den viele Seiten umfassenden Studien selber, sondern allein in deren Zusammenfassungen (Abstracts).

Und er suchte auch nicht in Studien zu den Ursachen des Klimawandels, sondern zu allen Studien in denen die Suchwörter „Global Warming“ und „Climate Change“ vorkamen. Deshalb findet er hauptsächlich Arbeiten, die gar nicht nach den Ursachen der Erderwärmung fragen, und übersieht dabei viele, die danach fragen. Aber auch darin sucht er nicht danach, ob die „Bejahung“ der Hypothese von der menschgemachten Erwärmung  expressiv verbis erklärt wäre, sondern allein darauf, ob das Wort „reject“ (zurückweisen) vorkäme.

Da er überdies nicht weiß, was und in welchem Umfang „reject“ also zurückgewiesen wurde, erweist sich seine Meta-Studie, mit der die Bundesregierung ihre Verweigerung begründet, nur als wissenschaftlicher Betrug. Als Pseudowissenschaft. Ebenso hätte er nach einem Abzählreim wie eene, meene, muh suchen können, bzw. dessen Rückweisung. Es wäre auf dasselbe hinaus gekommen.

 

Nach der Betrugs-Masche Powell als richtig zu erkennende Hypothesen

Wäre sie es nicht so, kann mit Fug und Recht, als durch Fachliteratur bestätigte Hypothesen, ebenso bewiesen, feststellen:

  1. Die Regierung Merkel hat das Ziel, die deutsche Wirtschaft zu zerstören und Armut herbeizuführen.
  2. Die UN ist ein kommunistisches Regime, das den vermeintlich menschengemachten Klimawandel nutzt, um Armut herbeizuführen.
  3. Unter den Parteien des Bundestages herrscht Konsens darüber, dass ihr Daseinszweck in Korruption und Selbstbereicherung besteht.

Alle 3 Hypothesen wurden durch den Soziologen Michael Klein nach der Methode Powell mit deutlich über 97 % bestätigt. Dabei wurden für die Hypothese 1 über 49.000 wissenschaftliche Studien überprüft, für die Hypothese 2 über 420.000  und für die Hypothese 3 immer noch 373 Arbeiten.[1]

 

Ein Irrtum wird zur Lüge, wenn er bewusst beibehalten und nicht korrigiert wird.

In seiner Rede vor dem Plenum am 12.9.19 wies der AfD Abgeordnete Hilse die Bundesregierung auf diesen Wissenschaftsbetrug des James Powell hin. Und gab ihr so Gelegenheit sich zu korrigieren, bzw. in diesem Fall auch zu distanzieren. Doch die Reaktion der Bundesregierung war so wie oben beschrieben. Und damit erkennt sie automatisch auch die Richtigkeit der oben aufgeführten drei Hypothesen an.  Millionen Fliegen können eben nicht irren.

Bleibt nachzutragen, dass auch ein tragisch komischer Teil in der Antwort vorkommt. Das sei hier noch kurz erwähnt.

Obwohl die Bundesregierung direkt nach Konsultationen, die sie durchgeführt hat, gefragt wurde, verweist sie zu ihrer Entlastung auf den Fachvortrag des Sachverständigen Prof. Dr. Nir Shaviv im Umweltausschuss – übrigens auf Vorschlag der AfD – anlässlich des öffentlichen Fachgespäches im November 2018.

Zitat  Dabei werden im Umweltausschuss des Deutschen Bundestages unterschiedliche Perspektiven angehört; so wie die von Nir Shaviv, auf den auch im U.S. Senate Minority Report ver- wiesen wird (vgl. S. 97 f.). Er nahm zur Klimakonferenz der Vereinten Nationen im Jahr 2018 an einem öffentlichen Fachgespräch teil und hatte dabei Gelegenheit seine Zweifel am menschengemachten Klimawandel öffentlichkeits- wirksam zu äußern (siehe www.bundestag.de/dokumente/textarchiv/2018/kw4 8-pa-umwelt-klima-578906).

Zitatende

Und führt damit gezielt in die Irre, bzw. betreibt damit wieder Etikettenschwindel, denn an diesem, ausschließlich von den Parlamentariern veranstaltetem Fachgespräch, nahm zwar der unbedarfte Florian Pronold als Mitglied der Regierung teil, hütete sich aber wohlweislich auch nur eine einzige Frage zu stellen, und machte eher den Eindruck nicht anwesend zu sein, wohl aber wurde Prof. Shaviv in ungebührlicher Weise und entgegen aller wissenschaftlichen Tradition, von seinem Kollegen Prof. Levermann verbal niedergemacht, ohne sich dafür einen Ordnungsruf seitens der Vorsitzenden (Grüne) Frau Kottig -Uhl einzuhandeln.

Das also war die „Konsultation“, welche die Bundesregierung uns unterjubeln will. Sehen Sie hier das Video dazu.

Dieser Text wurde unter Verwendung von Teilen (hier und hier und hier) einiger früheren EIKE News erstellt.

[1] Quelle Quelle mit weiteren Details dazu: https://eike.institute/2019/09/01/unabweisbare-schlussfolgerung-nach-vorgabe-der-bundesregierung-975-wissenschaftler-konsens-merkel-ruiniert-deutsche-wirtschaft/

 




Wiedergeburt der Solarindustrie in Deutschland?

Der Grünen-Mitgründer Frank Asbeck nutzte den von ihm mitgeschürten technikfeindlichen Zeitgeist, um ein kleines Solarkraft-Imperium aufzubauen, das aber 2018 wegen der chinesischen Konkurrenz pleite ging. Für Asbeck hatte es sich trotzdem gelohnt: Der Grüne kaufte das rheinische Schloß von Thomas Gottschalk und richtete Jagdgesellschaften aus.

Für die Mitarbeiter lief es nicht so gut; der Standort in Freiberg mit 600 Arbeitsplätzen wurde geschlossen.

Nun will die Meyer-Burger Technology AG aus der Schweiz im ehemaligen Solar Valley von Bitterfeld-Wolfen investieren. Der Standort gehört zum Halleschen Chemie-Dreieck und war führend in der Herstellung von Foto-Filmen (Agfa bzw. Original Wolfen/ Orwo).

Was hat sich geändert seit dem Abbau um 2010? Der Chef von Meyer-Burger hofft auf den EU-Green Deal post corona und positive Effekte durch die deutsche Elektroauto-Initiative. Rechnet er also mit üppigen Steuermillionen? Was sonst. Er will Solaranlagen für Hausdächer und kleine „Kraftwerke“ bauen und im Jahr Photovoltaik mit 400 Megawatt Leistung ausstoßen. Bis Juni 2021 will die Firma in Freiberg und Bitterfeld loslegen und langfristig 3.000 Arbeitsplätze schaffen.

So ganz stillgelegt wurde der Standort Bitterfeld-Wolfen übrigens nicht: Eine Firma namens Q-Cells ging zwar bankrott und wurde von Koreanern gekauft, die die Produktion nach Asien verlegten; aber die Forschung vor Ort beließen. Demnächst sollen Solarzellen einer neuen effizienteren Generation entwickelt werden. Es gibt zudem ein weiteres interessantes Geschäftsmodell: Q-Cells pachtet private Hausdächer und baut darauf Photovoltaik-Anlagen, um unter anderem beim Staat als Stromanbieter zu kassieren.

Die Lobby-Organisation der Solarhersteller hält das eigene Produkt zum Erreichen der Klimaziele unserer Regierung für unverzichtbar; 2030 sollen zwei Drittel des deutschen Stroms aus den „Erneuerbaren“ kommen. Was zu flächendeckenden Stromausfällen führen wird, da mindestens 50% der Kraftwerke grundlastfähig sein müssen, wie unser Pressesprecher Horst-Joachim Lüdecke ausführt. Da die im Volke verhaßten Windräder von örtlichen Naturschützern und Anwohnern aber seit 2019 derart heftig beklagt werden, daß kaum ein neues ohne jahrelange Prozessiererei errichtet werden kann, wird man wohl verstärkt auf die Photovoltaik zurückgreifen, die keine metertiefen Betonfundamente benötigt, keinen Krach macht und nicht die Vogel- und Fledermaus-Fauna Deutschlands vom Himmel holt.

Um auf die angepeilten 65% zu kommen, müsse daher die jährliche Neuinstallation von Solarzellen ab 2022 verdreifacht werden, so ein Manager von Q-Cells.

Mal sehen, was die Bürger dazu sagen. Wenn die Firmen hauptsächlich Haus- und Garagendächer bepflastern, und sich das für den privilegierten Hausbesitzer via Steuersubvention auch noch rentiert, wird es wohl leider keine Proteste geben. Die Bewohner von Mietwohnungen, die die gesellschaftliche Umverteilung von unten nach oben finanzieren, werden dagegen so schnell nicht auf die Straße gehen.

 

 

 




Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 1

Weil es so exemplarisch ist und Klimaskeptikern drastisch vor Augen führt, dass Deutschland in aller Regel immer erst nach einem (finanziellen) Untergang zur Vernunft kommt, eine längere Ausführung darüber.

Sechs Personen mit der festen Überzeugung: Das CO2 ist unserer bekannten Welt ihr Untergang, gelenkt durch einen klimagläubigen Moderator, angestachelt durch einen Professor der Klimaapokalypse, unterstützen und beweihräuchern sich im Klimakampf

In der Schule gibt es Themaverfehlung. Ein „Öffentlicher“ ist zum Glück darüber hinweg und so kann der GRÜNE Propagandasender mit Namen BR eine Runde einberufen, in welcher viel geredet, das angegebene Thema zu Bayern jedoch fast unberücksichtigt bleib. Außer jemand ist wie die BR-Redaktion – und die Teilnehmer – der Meinung, das Alarmgeschrei des Augsburger „Klimaforschers“ würde die Klimawirklichkeit in Bayern beschreiben.

Bild 1 BR Mediathek Screenshot. Link zur BR Mediathek

– Professor Clemens Fuest, Präsident des ifo-Instituts
– Thomas Kreuzer, Vorsitzender der CSU-Fraktion im Bayerischen Landtag (Jurist)
– Harald Kunstmann, Klimaforscher, Universität Augsburg
Katharina Schulze, Grünen-Fraktionschefin im Bayerischen Landtag, Studium: Interkulturelle KommunikationPolitikwissenschaft und Psychologie.

Ein Professor klärt auf

Bild 2 Link zum YouTube-Video

Wie üblich, kommt zu Beginn ein Einspieler. Schlimme Fluten im Alpenvorland und um Simbach, sowie die Kommentare Betroffener zeigen: Bayern ist vom Klimawandel ganz, ganz schlimm getroffen. Nur wie weit der Klimauntergang gerade noch entfernt ist, fehlt.
Die Stimme berichtet: … Katastrophen wie diese nehmen zu. Erdrutsche, Überschwemmungen, Hitze und Dürre. Der Klimawandel trifft uns mit voller Wucht. Wie können wir uns schützen? Was kommt noch auf uns zu? Und: Wie gefährlich wird der Klimawandel für Bayern?

Den Anfang macht Klimaforscher Professor Harald Kunstmann aus Augsburg.
Moderator: Wird das die neue Zukunft in Bayern? Dürre in Franken und abrutschende Berghänge im Süden?
Prof. Kunstmann: Ja wir sehen tatsächlich eine Vielzahl von Klimaänderungen. Wir sehen für die Vergangenheit, sehen wir sehr viele sogenannte „laute“ Klimaänderungen. Dazu zähle ich zum Beispiel die Starkregenereignisse. Wir sehen also eine Häufung der Anzahl der Tage von Starkregen. Wir sehen gleichzeitig auch eine Häufung von großen, starken Hochwasserereignissen. Also die Häufung zum Beispiel innerhalb von weniger Jahre mehrere, sogenannte Hundertjährige Hochwasser. Dann sehen wir auf der anderen Seite aber auch sogenannte, „leise, stille“ Veränderungen. Zum Beispiel dass der Blattaustrieb und die Vegetation teilweise Wochen früher beginnt. Wir sehen auch hier im Alpenraum den Rückgang der allerletzten verbliebenen Gletscher die wir in Deutschland haben, zum Beispiel auf der Zugspitze und auch in Berchtesgaden.

Zu den leisen Klimaänderungen würde ich aber gerne auch die Trockenheit zählen, die wir grad seit dem Sommer 2018 so massiv erlebt ham. Und die uns ins Bewusstsein gerufen hat, dass auch wir in Bayern, wo wir gedacht ham, wir sind eigentlich in einem vergleichsweise wasserreichen Land, doch auch von Dürren und all ihren Auswirkungen auf die Landwirtschaft und die Forstwirtschaft betroffen sein können … Also wir sehen eine Vielzahl von Auswirkungen.

Moderator: Wir blicken in die Alpen. Was richtet da der Klimawandel an?
Wieder Einspieler von Unwetterereignissen

Stimme: … in den Bayerischen und österreichischen Alpen häufen sich solche Erdrutsche. Egal ob Berchtesgaden, Garmisch oder Tirol, sogenannte Murgänge sind für Wanderer und Anwohner eine Bedrohung … Für die Bewohner der Alpen: Ein Wettlauf gegen die Zeit … Am Plansee (Zugspitze) haben sich Intensität und Zahl von 1980 – 2014 gegenüber 1947 – 1979 verdreifacht … Wie gefährlich wird das Leben in den Alpen?

Moderator an Prof. Kunstmann: … werden die Alpen zu einer Gefahrenzone?
Prof. Kunstmann: Also man muss unterscheiden zwischen den sehr hohen Lagen in den Alpen und den etwas niedrigeren Lagen in den Alpen.
In den hohen Lagen … wo der Permafrost auftaut, werden die Instabilitäten in den Bergen vergleichsweise gut überwacht …. da hätte ich jetzt weniger Bedenken, denn da gibt es Vorwarnzeiten.
Was wir hier im Voralpenraum sehen, … wo aufgrund von Starkregenereignissen in kurzer Zeit massive Murenereignisse abgegangen sind. Auf so etwas müssen wir uns tatsächlich häufiger einstellen. Wir müssen uns einstellen, dass die Gefahre, die durch kurze, schnelle Niederschlagsereignisse kommen, zunehmen. Insbesondere zum Beispiel die Gebirgsbäche, das erleben wir auch direkt in der Gegend, die können in ganz kurzer Zeit explodieren und stellen dann eine große Gefahr für den Wanderer dar.
Man muss aber dazu sagen, dass wir gerade mit der modernen Technik, den Smartphones uns mittlerweile sehr gut informieren können …

Doch der Professor sagt das Wichtigste nicht …

Wenn heutzutage ein Professor „öffentlich“ irgend etwas erzählt, muss man immer nachsehen, wie er seine Forschungsmittel generiert. In aller Regel erklären sich dann sofort seine „Zielrichtungen“ der Aussagen. Bei Professor Kunstmann ist es nicht anders.

Er ist sozusagen Bayerischer Klima-Apokalypse-Reisender; macht lokal also ungefähr das, was das PIK global durchführt. Und selbstverständlich ist entsprechend eine ganz große Leidenschaft die Klimasimulation:

Bild 3 Prof. Kunstmann, Wirkungsfeld

Kurz auf den Punkt gebracht: Von diesem Professor ist keinerlei unvoreingenommene Aussage zum Klima zu erwarten. Eine solche würde einmal seine sorgfältig aufgebaute Reputation – (zer-)stören und sein Institut fast überflüssig machen.

Im Alpenvorland nehmen die Extremniederschläge gar nicht zu

Der Autor versucht es an anhand von Beispielen zu zeigen:

Prof. Kunstmann behauptet: … Ja wir sehen tatsächlich eine Vielzahl von Klimaänderungen … Dazu zähle ich zum Beispiel die Starkregenereignisse. Wir sehen also eine Häufung der Anzahl der Tage von Starkregen. Wir sehen gleichzeitig auch eine Häufung von großen, starken Hochwasserereignissen …

Anmerkungen Autor: Solche Aussagen kennt man. Sie sind gängig und warum sollte man sie dann einem Professor nicht glauben, wie es die honorige Sonntagsrunde doch auch einvernehmlich macht?
Ganz einfach: Weil es gelogen nicht richtig ist. Eine solche Aussage „gelingt“ nur mit gezielt, selektiver Darstellung, wohl wissend, dass von den Teilnehmern keiner auch nur entfernt sich Wissen angeeignet hat, um es zu erkennen.
Was sagen „öffentliche“ Berichte? Ein Bayerisches Ministerium veröffentlicht zum Klima regelmäßig. Darin sind auch Angaben zu Starkregenereignissen hinterlegt. Vor einiger Zeit hat der Autor darüber publiziert:
[2] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

Im Bericht wird selbstverständlich „berichtet“, dass solch Ereignisse zunehmen:
[1] … Bei den Starkniederschlägen (hier: maximale eintägige Gebietsniederschläge im jeweiligen Bezugszeitraum) zeigen die Zeitreihen der halbjährlichen Tageshöchstwerte im Winterhalbjahr von 1931 bis 2010 fast überall positive Trendwerte, die im Nordosten Bayerns über +40 % erreichen. Die Signifikanz ist allerdings unterschiedlich und variiert räumlich sehr stark. Im Sommerhalbjahr sind die Trends uneinheitlich und überwiegend nicht signifikant. Die detektierte Zunahme der winterlichen Starkniederschläge blieb seit 2000 auf dem bisher festgestellten überwiegend hohen Niveau. Eine Bestätigung der vermuteten Zunahme von kleinräumigen und kurzzeitigen Starkniederschlägen hoher Intensität ist auf Basis der vorliegenden Auswertung nicht möglich ….
[1] Die Trends im Starkniederschlag (Dauer=24h) sind uneinheitlicher als im Gebietsniederschlag. Hier gibt es weiterhin regional klare positive Trends im Winterhalbjahr (bis +33 %), eine Voraussetzung für eine Zunahme der winterlichen Hochwasserlagen. Im Sommerhalbjahr sind die Trends regional uneinheitlich ohne eindeutige Entwicklung, aber häufig stärker ausgeprägt als beim Gebietsniederschlag. Aussagen über Kurzzeitereignisse (< 1 Tag) konnten mit dieser Studie wegen der zu kurzen Messreihen und dem weniger dichten Messnetz mit hoher zeitlicher Auflösung nicht getroffen werden.

In der Detailsichtung des Monitoringberichtes zeigt sich dann allerdings, dass dies eine unzulässige „Verdichtung“ ist, weil die Aussage so pauschal nicht aus den Berichtsdaten abgeleitet werden kann [2].

Bild 4 [1] Trends Gebietsniederschlag in Oberbayern (Bildausschnitt, Abb. 8)
Zu dem Hauptbericht gibt es einen Ergänzungsbericht. Dieser zeigt erheblich mehr Details und Grafiken:
[3] KLIWA Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

Beim Betrachten der Extrem-Tagesniederschläge fällt auf, dass in keinem Verlaufsbild eine weitere Zunahme des Mittelwertes vorkommt und häufig sogar eine Abnahme der Extreme seit ca. 2000 festzustellen ist. Was man in den folgenden Bildern nicht deutlich sieht: Eine Trendaussage ist aufgrund der extremen Variabilität und Verteilung auf kleine Umgebungen gar nicht möglich. Zudem hängt ein „Trend“ extrem vom betrachteten Zeitraum ab. Und dafür ist der „gewählte“ auf keinen Fall ausreichend.

[6] EIKE 03.07.2019: Wozu (gegenteilige) Messwerte betrachten? Den Klimawandel fühlt doch jeder
Nimmt man längere Zeiträume, zeigt es sich deutlich die extreme Variabilität von Niederschlag:

Bild 5 Darstellung der Hochwasserhäufigkeit im bayerischen Alpenvorland [6]
Dazu zeigen Extremniederschläge auch das Verhalten, nach langer Zeit spontan „wie aus dem Nichts“ aufzutreten.

Bild 6 [6] Jahreshöchststände Tegernsee seit 1895. Trendlinien vom Autor zugefügt
Im Kern hilft es da wenig – eigentlich nichts -, lediglich den Zeitraum seit 1930 zu betrachten. Die weit zurückreichenden Pegelbilder von Flüssen zeigen es deutlich und unbestechlich:

Bild 7 Kehlheim. Quelle: WIKIPEDIA, Stefan Daller

Bild 8 Intensität von Hochwasserereignissen von Lech und Isar seit 1300 [7]
Trotzdem sind die KLIWA-Berichte natürlich interessant. Sie zeigen die Probleme und wie man daraus die „richtige“ Interpretation ableitet.

Zu den KLIWA-Klimaberichten findet sich eine umfangreiche Sichtung in den folgenden Publikationen:
[2] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[5] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

Bild 9 [3] KLIWA-Berichte, Gebietsaufteilung
Bild 10 [3] Abbildung 8, Gebiet „Iller“ D3. Bildausschnitt Sommerhalbjahr Maximale Tagesniederschläge (+14.3 %)
Bild 11 [3] Abbildung 10, Gebiet „Lech“ D5. Bildausschnitt Sommerhalbjahr Maximale Tagesniederschläge (+12 %)
Bild 12 [3] Abbildung 18, Gebiet „Alz und Salzach“ D13. Bildausschnitt Sommerhalbjahr Maximale Tagesniederschläge (-2,4 %)
Verdichtungen sind erforderlich. Doch auch Messdaten von Einzelstationen geben Aufschlüsse. Deshalb anbei welche von Stationen der bayerischen Alpen.
An keiner Station zeigt sich eine Zunahme von Extremniederschlag:

Bild 13 Bad Reichenhall: Niederschlag Tages- und 2-Tageswerte. Grafik vom Autor anhand der DWD-Daten erstellt

Bild 14 Oberstdorf: Niederschlag Tages- und 2-Tageswerte. Grafik vom Autor anhand der DWD-Daten erstellt

Bild 15 Rosenheim: Niederschlag Tages- und 2-Tageswerte. Grafik vom Autor anhand der DWD-Daten erstellt

Bild 16 Garmisch: Niederschlag Tages- und 2-Tageswerte. Grafik vom Autor anhand der DWD-Daten erstellt

Immer wieder Simbach. Dazu Gefälligkeitsgutachten schlimmsten Ausmaßes

Alle Sichtungen von Niederschlag im Alpenvorland zeigen, dass über Extremniederschlag keine Trendaussage getroffen werden kann. Schlimmer, bezogen auf die Klima-Vergangenheit ein abnehmender Trend zu verzeichnen ist.

Kaltesonne kämpft dazu ebenfalls argumentativ an:
kaltesonne: Im Alpenraum kann kein Zusammenhang zwischen Hitze und Bergstürzen hergestellt werden
Kaltesonne: Überraschung! Weniger Extremwetter im Alpenraum

Kaltesonne: Flüsse im Alpenvorland halten sich nicht an die IPCC-Vorgaben: Mehr Überflutungen in Kälteperioden als in Wärmeperioden

Trotzdem behaupten „Wissenschaftler“, bewiesen zu haben, dass das Unwetter von Simbach ein „tausendjähriges“ Ereignis gewesen wäre.

Man erinnere sich: Die besonders schlimmen Auswirkungen der Flutereignisse von 2016 in Simbach und Braunsbach basieren auf Behördenversagen. Der Niederschlag war nur Anlass der Natur, die Versäumnisse „aufzuzeigen“.

Wie man damit „umgeht“ lässt sich schon an einem Text zu einem Schadensbild zeigen: Obwohl es sich auf dem Bild eindeutig um schön zugesägte Bretter handelt, hat die Redaktion keine Hemmung, auf „umgefallene Bäume“ hinzuweisen, weil um die „Bewohner“ – beim ganz genauen Hinsehen erkennbar – zusätzlich auch wenige „Bäume“ liegen. Die Leser hält die Redaktion anscheinend für besonders dämlich, oder gar blind.
Anmerkung: Die Bretter stammten vom Lagerplatz eines Sägewerkes, welches von der Flutwelle „abgeräumt“ und in den Ort „getragen“ wurde (wo diese sämtliche Abflüsse verstopften).

Bild 17 Original-Bildtext: „Anwohner sitzen in Simbach zwischen Schlamm und umgefallenen Bäumen“. ©dpa. Quelle: Merkur.de 05. Juni 201605. Juni 201605. Juni 2016: News-Ticker zu Hochwasser in Bayern und NRW

Will man das Flutereignis „Simbach“ rekonstruieren, stellt man verblüfft fest, dass der DWD den Datensatz der Messstation Simbach immer noch nicht ergänzt hat. Hintergrund: Die Station fiel kurz nach Beginn des Starkregens aus, zeigt für die zwei wichtigen Tage also eine viel zu geringe Niederschlagsmenge von lediglich 74,6 gegenüber ca. 180 mm. So viel zur Möglichkeit historischer Rekonstruktion historischer Niederschläge aus DWD-Daten.

Bild 18 [8] Niederschlags-Stundenwerte von Simbach und dreier Nachbarstationen vom 31.05. – 01.06.2016
Allerdings eröffnen sich damit Möglichkeiten veschiedenste Werte zu fabulieren rekonstruieren.
Der Autor hat es damals versucht und freut sich, mit seinen einfachen Mitteln – ohne vom LfU Bayern beauftragt gewesen zu sein – schon damals fast punktgenau den Wert des Professors aus Wien ermittelt zu haben:
[8] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
Und kam damit auf das folgende Niederschlagsbild:

Bild 19 [8] Niederschläge Simbach Tageswerte 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt
Das Beispiel der Niederschlagsdaten des nahe gelegenen Ortes Pfarrkirchen zeigt die extreme, lokale Begrenzung solcher Niederschlagszellen.

Bild 19a [8] Niederschläge Pfarrkirchen, Tageswerte seit 1951, das Extremereignis Juni 2016 gekennzeichnet. Bild vom Autor anhand der DWD-FTP-Daten erstellt
Das Niederschlagsbild der Station Hohenpeißenberg zeigt, welche extremen Datenlücken in historischen Messreihen vorhanden sind und damit mit Sicherheit jeglichen Versuch historischer Vergleiche verzerren:

Bild 20 [8] Niederschlag Hohenpeißenberg seit 1801 – 2016, 2-Tages-Summen. Grafik vom Autor anhand der DWD-FTP-Daten erstellt
Das Fazit des DWD sagt dazu:
[8]Für kürzere Dauerstufen von weniger als 24 Stunden liegen konkret für das Gebiet von Deutschland bislang noch recht wenige Erkenntnisse zum Trendverhalten von Starkniederschlägen vor. Zwar deuten Analysen von flächendeckenden Radardaten daraufhin, dass es in den vergangenen 15 Jahren zumindest regional eine Zunahme auch von Starkniederschlägen kurzer Dauer gegeben hat, jedoch sind diese Aussagen aufgrund der geringen Länge der Zeitreihen nicht sonderlich aussagekräftig.
DWD [9]: Gemäß erster Ergebnisse einer aktuellen Untersuchung dieser Daten weisen die hohen Niederschlagsschwellen der Dauerstufe 60 Minuten während der Monate Mai bis September in den meisten Regionen Deutschlands im Zeitraum 1965 bis 2015 häufiger einen negativen als einen positiven Trend auf.
Das beliebte Spiel, fehlende Daten mittels Simulationen zu erzeugen, klappt hier ganz und gar nicht:
DWD [9] Vergleich mit Klimaprojektionsergebnissen
Für den Sommer lassen sich auf Basis des im Rahmen dieser Untersuchung verwendeten Ensembles kaum Aussagen treffen, da die vier betrachteten Modelle die Änderung der Auftrittshäufigkeit von Starkniederschlägen widersprüchlich projizieren. Die Projektionen stimmen lediglich in der Aussage überein, dass der Anteil der Starkniederschläge am Gesamtniederschlag zukünftig steigen wird. Dabei bleibt aber offen, wie sich dieser Anstieg auf die Zunahmen von Häufigkeit und Intensität der Starkniederschläge verteilt.
[9] Zum einen simulieren die Klimamodelle – wenn überhaupt – erst ab etwa 2020 eine leichte Zunahme. Zum anderen existieren zumindest für den süddeutschen Raum Anzeichen für einen geringfügigen Anstieg in den vergangenen rund 50 Jahren.
[9] Der Zeitraum ist aber (noch) zu kurz um „klimafeste“ Aussagen über die Verteilung des Starkregenrisikos oder gar über Trends abzuleiten.

[10 … „Die Niederschlagssummen in Simbach liegen noch weit unter historischen Rekorden!“

Man kann sich demnach absolut sicher sein, dass niemand den wirklichen Niederschlag am 31.05./01.06.2016 bei Simbach ermitteln kann – und schon gar nicht, wie solche Extreme dort – auch in der jüngeren – Vergangenheit waren.

Professoren gelingt allerdings jeder Beleg, wenn ausreichend Auftragsgeld fließt:
[8] Martin Grambow am Donnerstag im Landtag, er ist Leiter der bayerischen Wasserwirtschaft und Professor an der Technischen Universität München.
„Phänomen neuer Ausprägung“
Tausendjähriges Hochwasser – im Fachjargon als „HQ 1000“ bekannt – bedeutet, dass ein Gewässer auf einen Rekordpegel anschwillt, der im statistischen Schnitt nur alle tausend Jahre einmal erreicht wird.
In
Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu.
Nach historischen Aufzeichnungen könnte es im Jahr 1766 einmal eine ähnliche Wetterlage gegeben haben, doch genau klären lässt sich das nach Grambows Angaben nicht.

Ein Professor aus Wien ging noch weiter. Im Auftrag des Landesamts für Umwelt (LfU) „belegte“ sein Team, dass die Flutwelle von 5 m in Simbach „natürlich“ war, wie es seine Simulierungen belegen:
Wissenschaftler der Wiener Universität für Bodenkultur: Abschlussbericht zur Flutkatastrophe von Simbach:
… Ziel der wissenschaftlichen Untersuchung war eine „Niederschlagsabflusssimulation“. Die Experten analysierten, wie viel Wasser ins Einzugsgebiet gekommen wäre, hätte der Damm gehalten. Ergebnis: Durch den Dammbruch ist der Abfluss des Simbachs etwa um 100 Kubikmeter/Sekunde höher gewesen.
Anhand der Abflussmenge haben die Wissenschaftler überschwemmte Fläche und die Wasserhöhen simuliert. Im Ortsbereich gab es durch den Dammbruch im Vergleich zur Simulation ohne Dammbruch eine Erhöhung des Wasserstands um gerade mal einen knappen halben Meter, erklärt Prof. Hübl. Im Bereich der B12 sei die Erhöhung durch den Dammbruch deutlich höher gewesen.

Die Perversion an Datenmanipulation dieser „Professoren“ erschließt sich erst, wenn man sich die damaligen Bilder vor Ort und den Dammbruch betrachtet. Aber erstmals ist somit in die Klimageschichte ein Dammbruch aus Behördenversagen als für den nach dem Bruch erreichten, riesigen Pegel einer Flutwelle als „nicht Ereignisrelevant“ eingestuft.

Fazit

Auch für das Alpenvorland lässt sich eine Aussage zu immer mehr Extremereignissen nicht belegen. Professor Kunstmann berichtet in der Runde nach rein persönlicher Überzeugung des Autors nicht die Wahrheit. Im Kern fabuliert er über Ergebnisse seiner Simulationen.

Dabei ist bekannt und in vielen Studien erhärtet, dass Niederschlagsprojektionen – besonders zu Extremniederschlag geradezu grottenschlechte Ergebnisse ausweisen.
Das gilt bereits für die Simulation der aktuellen Niederschläge, die sie nicht entfernt reproduzieren (zeigen die Niederschlagsbilder im DWD-Viewer mit den Klima-Simulationskurven bis 2100 überdeutlich).

Was machen die „Simulanten“ daraus: Sie lassen die „schlechten“ Simulationen weg, nehmen nur die „richtigen“ – ohne zu wissen, welche diese sein mögen – und behaupten einfach, dass die simulierten Werte zwar aktuell – wo man es nachprüfen und auch „kalibrieren“ kann – untauglich sind, in der ferneren Zukunft aber aus irgend einer „programmiertechnischen Eingebung“ heraus stimmen würden.

Bild 21 [7] Fig. 3 Observed (E-OBS, ALP-IMP, and EURO4M-APGD) and simulated area mean monthly mean precipitation from historical CORDEX simulations (mm day−1) for 1976–2005. The red crosses in Fig. 1 show the CORDEX grid used in the calculation of the area mean. The solid black line indicates the mean of all the CORDEX simulations, and the black dotted line is the mean excluding the cclm and smhi simulations. Grafik vom Autor ergänzt
In der Studie steht dazu:
[7]: … Runs with historical data (1975–2005) reveal errors up to 120% with an ensemble mean of around 50%. The results show a large spread between the simulations, which primarily results from deficiencies in the precipitation data. This makes an analysis of the extreme runoff values with the present investigation design difficult.

Und was in solchen Vorträgen immer und grundsätzlich untergeht: Mag es auch negative Einflüsse geben, die bisher bereits aufgetretenen Vorteile des sich stetig wandelnden Klima werden nirgens auch nur entfernt erwähnt. Und diese sind gewaltig. Auch im Alpenvorland (und dahinter).

Bis zu Beginn der angeblich so klimaschlimmen Neuzeit waren die Gletscher, Überschwemmungen, Murenabgänge usw. stetige Extrembedrohungen für die Alpenbewohner, die man sich heute gar nicht mehr vorstellen möchte. Die Bewohner (übrigens von ganz Bayern) waren bis in die 50er Jahre des letzten Jahrhunderts bettelarm und lebten im Armenhaus Deutschlands. Nichts mehr davon ist heute zu sehen. Man hat inzwischen das Geld (und technischen Mittel), sich gegen schlechtes Wetter zu wappnen. Und wenn nicht Behördenversagen – inzwischen auch Ablehnungen von Bürger-Protestgruppen – dazu kommt, gelingt es gut.
Die Stadt Rosenheim zeigte, wie es mit viel, viel Glück gelingen kann [6] :
Hemmungslos hatte man in das Überflutungsgebiet gebaut. Der Schutzdamm wurde dann gerade noch in letzter Sekunde fertig:

Bild 22 [6] Zeitungsartikel (Oberbayerisches Volksblatt 4.Juni 2013, Ausschnitt) der Flut von Rosenheim im Jahr 2013.
In der illustren Runde wurde davon aber nichts erwähnt. Die meisten Teilnehmer werden es auch gar nicht wissen oder hören (wollen), es hätte die traute Gemeinsamkeit im Klimaschmerz nur gewaltig gestört.

Quellen

[1] Bayerisches Landesamt für Umwelt: Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[2] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[3] KLIWA Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[4] KLIMA Klimawandel in Süddeutschland Veränderungen von meteorologischen und hydrologischen Kenngrößen Monitoringbericht 2016 Niederschlag Zusätzliche Auswertungen für die KLIWA-Untersuchungsgebiete

[5] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[6] EIKE 03.07.2019: Wozu (gegenteilige) Messwerte betrachten? Den Klimawandel fühlt doch jeder

[7] O. BÖHM & K.-F. WETZEL 2006: Flood history of the Danube tributaries Lech and Isar in the Alpine foreland of Germany

[8] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
[9] DWD Schrift, Paul Becker at al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung

[10] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten

[11] EIKE 04.07.2020: Ist die aktuelle Meerespegeländerung im Vergleich mit historischen Zeiten einzigartig?

Anlagen
Tweets von Frau Botzki https://twitter.com/annemariebotzki?lang=de




Woher kommt der Strom? Paradebeispiel für die Volatilität des Ökostroms

Zurück zur 28. Woche der Stromerzeugung in Deutschland. Am Sonntag, dem Tag mit dem geringsten Strombedarf der Woche, und am Montag war die Stromerzeugung mittels erneuerbarer Energieträger stark. Konventionelle Kraftwerke liefen auf Sparflamme. Dienstag begann eine Schwachwindphase mit Tiefpunkt am Donnerstag 0:00 Uhr mit einer Erzeugung von 1,944 GW On- und 0,542 GW Offshore = 2,486 GW. Bedarf um diese Zeit: 50,099 GW. Am Sonntag sah es noch ganz anders aus. Da lieferte der Wind noch 32,5 GW Strom. Schauen Sie sich unter Abbildung 1 die verschiedenen Charts auf einen Blick an. Sehen Sie, wie der Preis schwankt. Die konventionellen Kraftwerke passen sich, soweit es geht, an. Dennoch. Was an dem einen Tag zu viel und unter dem Strich stark preissenkend ist, reicht an dem anderen Tag nicht aus, um den Bedarf zu decken. Hochpreisiger Importstrom muss her. Zu den Preisen, die aufgerufen werden, mehr in den Tagesanalysen.

Die Tabelle mit den Werten der Energy-Charts und der daraus generierte Chart vertiefen die verwendeten Agora-Charts. Hinzu kommen noch die Im- und Exportcharts für die 28. Woche und das aufgelaufene Jahr.

Besonders möchte ich auf Abbildung 2 hinweisen. Dort finden Sie einen aktuellen Bericht des Deutschlandfunks (Dlf) zum Kohleausstieg in NRW. Es kommen auch Menschen zu Wort, die den Hambacher Forst besetzt halten. Die Speerspitze des Klimaschutzes sozusagen.

Die Tagesanalysen

Sonntag, 5.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 78,57 Prozent, davon Windstrom 50,79 Prozent, Sonnenstrom 15,08 Prozent, Strom Biomasse/Wasserkraft 12,7 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ab 3:00 Uhr bis 18:00 Uhr wurde überschüssiger Strom nicht nur verschenkt. Es wurde noch richtig Geld mitgegeben. In der Spitze 64,99 €/MWh. Macht bei exportierten 10,21 GW um 14:00 Uhr lockere 663.547,90 €. Um 12:00, 13:00, 15:00 und 16:00 Uhr fielen ähnliche Summen an. Macht zusammen gut geschätzte 3,2 Millionen €. Es freut die Nachbarn. Diesmal vor allem Österreich. Warum werden konventionellen Kraftwerke nicht weiter heruntergefahren? Es braucht große rotierende Massen, um das Stromnetz stabil zu halten. Wind- und Sonnenkraftwerke allein reichen nicht!

Montag, 6.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 73,97 Prozent, davon Windstrom 46,58 Prozent, Sonnenstrom 15,75 Prozent, Strom Biomasse/Wasserkraft 11,64 Prozent. Die Agora-Chartmatrix: Hier klicken.

Auch der Montag war noch stark in der Wind- und Sonnenstromerzeugung. Allerdings war der Bedarf höher. Das Preisniveau lag in der Mittagsspitze nur geringfügig im negativen Bereich. Österreich sahnte ab. Machte sogar einige Preisdifferenzgeschäfte. Da war es nicht weiter tragisch, dass der Importpreis für Österreich und andere am Vormittag in der Spitze bei 28.27 €/MWh lag.

Dienstag, 7.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 56,06 Prozentdavon Windstrom 24,24 Prozent, Sonnenstrom 18,94 Prozent, Strom Biomasse/Wasserkraft 12,88 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Stromerzeugung mittels erneuerbarer Energieträger lässt nach. Die konventionelle Stromerzeugung zieht an. Die ersten Lücken in der eigenen Stromversorgung entstehen trotzdem. Was sich selbstverständlich und direkt einsehbar bei den Preisen, die Deutschland zahlen muss, bemerkbar macht. Wer profitiert? Wer macht gute Preisdifferenzgeschäfte? Hier klicken.

Mittwoch, 8.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 39,83 Prozent, davon Windstrom 11,86 Prozent, Sonnenstrom 13,56 Prozent, Strom Biomasse/Wasserkraft 14,41 Prozent. Die Agora-Chartmatrix: Hier klicken.

Fast den ganzen Tag erzeugt Deutschland nicht genügend Strom, um den Bedarf zu decken. Deutschland importiert. Ab 7:00 Uhr liegt der Preis immer über 40 €/MWh. Ob sich das rechnet? Ich weiß es nicht. Halt, doch, für unsere Nachbarn rechnet es sich in jedem Fall, oder?

Donnerstag, 9.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 42,40 Prozent, davon Windstrom 13,60 Prozent, Sonnenstrom 15,20 Prozent, Strom Biomasse/Wasserkraft 13,60 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Donnerstag mit dem Windtiefpunkt bringt den ganzen Tag wenig Strom aus erneuerbaren Energieträgern. Lediglich am Nachmittag wird der Bedarf knapp gedeckt. Unter dem Strich bleiben hohe Importpreise. Wie gehabt. Sogar am frühen Morgen. Auch wenn es anders aussieht im Chart. Clever – wie immer – vor allem die kleine Schweiz. Die nutzt auch recht geringfügige Preisdifferenzen

Freitag, den 10.7.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 52,55 Prozent, davon Windstrom 26,28 Prozent, Sonnenstrom 13,87 Prozent, Strom Biomasse/Wasserkraft 12,41 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute zieht die Stromerzeugung mittels erneuerbarer Energieträger Richtung Tagesmitte an, so dass ab 8:00 Uhr der Strombedarf Deutschlands nahezu gedeckt ist. Die Preise bewegen sich uneinheitlich zwischen 29 und 43 €/MWh, wobei Deutschland ab und zu auch von hohen Preisen profitiert. Gewinner aber bleiben unter dem Strich unsere Nachbarn.

Samstag, 11.7.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 52,21 Prozent, davon Windstrom 17,70 Prozent, Sonnenstrom 19,47 Prozent, Strom Biomasse/Wasserkraft 15,04 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Einstieg ins Wochenende bringt recht wenig Windstrom. Über Tag scheint die Sonne befriedigend auf die Solarmodule. So wird in der Mittagsspitze der Bedarf gedeckt. Überschüssiger Strom wird relativ günstig verkauft. Vor und nach Sonnenuntergang wird Strom importiert. Relativ teuer. Nichts Neues also.

Immer wieder kommt die Frage auf, was unsere Nachbarn mit dem Strom machen, den sie aus Deutschland importieren. Polen z.B. nimmt regelmäßig – praktisch jeden Tag – 0,03 TWh zwecks eigener Stromversorgung ab. Da gibt es wohl auch Verträge, deren Preisgestaltung vom Börsenpreis abweicht, was sich in der Im-/Exportbetrachtung Deutschland bemerkbar machte. Die Alpenländer werden abgenommenen Strom ebenfalls selbst verbrauchen und/oder in Pumpspeicherkraftwerken speichern. Die Niederlande und Dänemark werden den Strom ebenfalls in den Eigenverbrach einkalkulieren oder, wenn Abnahmeboni gezahlt werden, diese einstecken und den womöglich nicht benötigten Strom über Generatoren „verarbeiten“. In Bewegungsenergie und Wärme. Dies sind Annahmen. Wenn ein Leser, gerne auch eine Leserin, ausführliche Infos, und seien es „nur“ solche zu einzelnen Ländern, liefern kann: Bitte an stromwoher@mediagnose.de senden.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen?

Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Zuerst erschienen bei der Achse des Guten; mit freundlicher Genehmigung.

Rüdiger Stobbe betreibt seit vier Jahren den Politikblog  www.mediagnose.de




Bericht zur Coronalage 23.07.2020: Massentests und künstliche Wellen

Seit Jahrzehnten gehen wir mit solchen Grippewellen um, ohne in Panik zu verfallen und ganze Länder durch Lockdowns schwer zu beschädigen. Im Gegenteil, es gibt immer mehr Hinweise, dass der Lockdown selbst in beträchtlicher Zahl Todesopfer fordert. Es fällt auf, dass die Infektionszahlen schon vor dem Lockdown rückläufig waren, aber dennoch die Übersterblichkeit genau mit dem Verhängen des Lockdowns beginnt.

Vielleicht auch deshalb, weil wir seit Monaten so tun, als gäbe es nur eine Erkrankung und die Behandlung anderer viel schwerer Krankheiten behindern oder verzögern.

Es geht schon lange nicht mehr um Gesundheit

Dennoch wird weiter die Angst geschürt.  Doch wer immer noch öffentlich fordert, Corona sei eine außergewöhnliche Bedrohung, die es weiter durch Schutzmaßnahmen von Masken bis Lockdown einzudämmen gilt, den treibt eine ganz andere Agenda an, die mit allem möglichen zu tun hat, aber ganz sicher nicht mit der Sorge um die öffentliche Gesundheit: das Rennen um die apokalyptischste Schlagzeile; die Angst, als Verharmloser von solchen Schlagzeilen politisch beschädigt zu werden. Sicher auch Fantasien, die künstliche Aufrechterhaltung eines permanenten Notstands undemokratisch für ökonomische wie politische Eigenzwecke zu nutzen. Oder vielleicht auch schlicht die Angst vor dem Eingeständnis, falsch gehandelt zu haben. Besonders perfide ist, dass die für diese Angststrategie Verantwortlichen letztlich die dadurch verursachte Beschädigung der psychischen und physischen Gesundheit der Menschen in Kauf nehmen.

Der Missbrauch unschuldiger Testergebnisse

Und dennoch wird weiter so getan, als stünden wir kurz vor einer zweiten Welle und damit vor dem Abgrund. Als Beweis gelten die täglichen Meldungen über hunderte Neuinfektionen. Man möchte das Wort Fake-News nicht mehr in den Mund nehmen, zu inflationär wird es nur noch als K(r)ampfbegriff benutzt. Aber wer ein eindrückliches Beispiel für den dilettantischen wie intentiösen Umgang mit Daten sucht, der findet es im aktuellen Umgang mit den Corona-Testergebnissen.

Um dies zu verstehen, muss man ein wenig über die grundsätzlichen Grenzen solcher Testungen Bescheid wissen. Es ist einfach zu verstehen. Das Kernproblem der aktuellen Testsituation lautet: falsch positive Fälle bei niedriger Prävalenz. Wie hier auch hinreichend dargestellt, verfälscht dieser immer vorhandene und nie gänzlich zu eliminierende Fehler eines Virusnachweises per Test das Ergebnis umso stärker, je mehr Tests negativ ausfallen. Je niedriger also der Anteil der tatsächlich Infizierten innerhalb der getesteten Gruppe ist.

Dazu ein Gedankenspiel: Stellen Sie sich zwei Städte vor.

In der ersten Stadt leben Menschen, die mit dem SARS-CoV-2 infiziert sind. Sagen wir 50 Prozent. In dieser Stadt leben dann auch weitere 50 Prozent nicht infizierte Einwohner. Von den zweiten 50 Prozent zeigen immer 1 Prozent ein falsch positives Ergebnis. Die Gesamtrate der falsch positiven ist dann auch um die Hälfte kleiner, weil ja die eine Hälfte schon richtig positiv ist. Sie reduziert sich deshalb um die Hälfte auf 0,5 Prozent. Und da bereits 50 Prozent der Einwohner positiv sind, verfälschen diese 0,5 Prozent das Gesamtergebnis kaum

Nun zur zweiten Stadt. In dieser leben nur noch Menschen, die kein SARS-CoV-2 in sich tragen. Die Rate von 1 Prozent falsch positiven Tests ist deshalb auf alle Einwohner anzuwenden, beträgt also auch insgesamt 1 Prozent. Und da niemand richtig positiv ist, bestehen in diesem Fall alle (!) positiven Testergebnisse in Wirklichkeit aus falsch positiven Fällen. Hier verfälscht die Rate an falsch positiven das Ergebnis maximal, da ja in Wirklichkeit niemand infiziert ist.

(Der Vollständigkeit halber sei erwähnt, dass ebenfalls das Problem der falsch negativen Testergebnisse existiert. Dieses spielt in Stadt 1 mit hoher Prävalenz eine bedeutende Rolle, also bei hoher Infektionsrate, aber – und das ist wichtig – nicht in Stadt 2 mit niedriger Prävalenz, also wenn kaum noch jemand infiziert ist.)

Wenn man nun wissen möchte, wie viele infizierte Einwohner sich in einer Stadt befinden, dann testet man eine Stichprobe. In dieser misst man, wie viele sind positiv, und wie viele sind negativ. Dabei gilt, je größer die Stichprobe, desto mehr Testungen, desto mehr positive Einwohner werde ich messen können. So wie in einem größeren Netz auch mehr Fische gefangen werden. Und je repräsentativer die Stichprobe, desto besser lassen sich die Ergebnisse auf die gesamte Stadt übertragen. Ein Vorgehen, welches zu Beginn der Epidemie hochgradig Sinn gemacht hätte, welches jedoch nur Professor Hendrik Streeck auf eigene Initiative durchgeführt hat. Das RKI zeigte Arbeitsverweigerung.

Kann man falsch positive Ergebnisse ausschließen?

Nun die derzeit vielleicht wichtigste Frage bezüglich der Deutung der Testergebnisse in Deutschland. Wie viele der derzeit gemeldeten „Infizierten“ beruhen auf falsch positiven Ergebnissen, also einem Fehlalarm? Die Frage, wie häufig ein bestimmter Test falsch positive Ergebnisse produziert, lässt sich in einer Gruppe ohne Infizierte leicht beantworten (bei allerdings realem, hohem Aufwand). Man muss eine ausreichend hohe Zahl an Placeboproben, die kein Virus enthalten, an die Labore senden und feststellen, wie viele davon als positiv zurückgemeldet werden, obwohl sie das Virus nicht enthalten. Die Gründe dafür können vielfältig sein: Fehler der Messmethode, der Messapparate, Verwechslungen, Verunreinigungen und dergleichen. Daraus kann man dann in Prozent die Rate an falsch positiven Testergebnissen errechnen.

In dem inzwischen öfters zitierten ersten Ringversuch im Auftrag der Deutschen Akkreditierungsstelle kam man dabei auf 1,4 Prozent. Und das auf der Basis von 983 Messungen. Sicher zu wenig angesichts dessen, dass an diesem Ringversuch 112 Labore beteiligt waren. Aber wegwischen kann man diese 1,4 Prozent ganz sicher nicht. Ein neuer Ringversuch läuft derzeit, und die Ergebnisse sollen Ende Juli veröffentlicht werden. Dieser Ringversuch zeigte zusätzlich noch die Möglichkeit falsch positiver Ergebnisse bezüglich SARS-CoV-2, weil der Test auch auf andere harmlosere Coronaviren anspricht. Ebenfalls als gesichert gilt, dass Menschen mit durchgemachter Infektion weiter Trümmer von SARS-CoV-2 Viren in sich tragen, auf die der Test ebenfalls positiv anspricht. Solche Getesteten gelten dann als infektiös, obwohl sie es schon lange nicht mehr sind.

Insgesamt betrachtet, macht es sehr viel Sinn, von einer falsch positiven Rate von einem Prozent auszugehen. Das bedeutet: Wenn in der Gesamtheit aller Tests derzeit das RKI stets um die 1 Prozent positive Testergebnisse feststellt, die die Medien dann irreführenderweise und unwidersprochen als 1 Prozent Infizierte bezeichnen, dann dürfte ein Großteil dieser „Infizierten“ in Wirklichkeit das Virus gar nicht in sich tragen.

Wie groß ist das Netz?

Das Städtebeispiel zeigt, in jeder Stadt – ganz egal, wo und wann, selbst im keimfreien Weltall – werde ich positive Testergebnisse generieren, ganz unabhängig davon, ob Viren vorhanden sind oder nicht. Und diese Zahl lässt sich dann beliebig steigern, einfach dadurch, dass sich das Netz, sprich die Testzahl, vergrößert. Man kann diesen Effekt gut am Beispiel USA belegen. Ständig werden in den Medien neue Infektionsrekordzahlen gemeldet. Doch wie sind diese tatsächlich einzuordnen?

Wenn ich eine Studie lese, dann fange ich immer mit den Tabellen und anschließend mit den Grafiken an und nicht mit den Worten. Es ist eine Binsenweisheit, dass die Interpretationen solcher Zahlen in vielen Studien durch Fremdinteressen, wie denen des Auftraggebers, stark beeinflusst werden. Deswegen sollte man stets damit beginnen, die Zahlen selbst zu verstehen. Schauen Sie mal hier diese zwei Grafiken an, dazu etwas nach unten scrollen (Stand 20.7.2020).

Die erste Grafik trägt die Überschrift: Daily New Cases in the United States. Gemeint sind positive Testergebnisse. Sie sehen ab 22. Juni einen zweiten, viel stärkeren Anstieg als den im März. Doch welche medizinischen Folgen hat dieser Anstieg? Das lässt sich am besten mit einer Verzögerung von zwei Wochen an der Todesrate etwas weiter unten anhand der Grafik mit der Überschrift: Daily New Deaths in the United States ablesen. Sie sehen ein Absinken der Todesrate bis zum 6. Juni und seitdem ein Stagnieren auf niedrigerem Niveau. Das bedeutet, obwohl die Zahl der „New Cases“ ansteigt, sinkt die Zahl der Todesopfer und damit die Zahl der schweren Verläufe.

Probieren wir es mit Logik. Mögliche Erklärungen: Das Virus ist schwächer geworden. Oder es werden jetzt mehr junge Menschen infiziert, die gar nicht oder nur leicht erkranken. Oder: Es handelt sich gar nicht um mehr Infizierte. Wie ist das möglich? Die Antwort steckt hier in den gesammelten Zahlen der zentralen amerikanischen Gesundheitsbehörde CDC (Stand 20.7.2020).

Der erste Peak der Infektionszahlen in den USA begann ab 4. April mit rund 35.000 neuen Fällen (positiven Tests) täglich. Der zweite viel größere Anstieg findet seinen vorläufigen Höhepunkt in KW 28 mit rund 77.000 neuen Fällen täglich. Vergleichen Sie nun die Anzahl der Tests in den Grafiken. Die eine bezieht sich auf die öffentlichen Labors: In Kalenderwoche 15 ca. 80.000 wöchentlich, in KW 27 ca. 240.000 Tests. Die Privaten (Commercial) Labors weisen diese Zahlen auf: KW 15 rund  500.000 Test, KW 27 rund 1,3 Millionen. In KW 26 waren es sogar rund 2,3 Millionen.

Das Netz wuchs stärker als die Zunahme der Fische

In dem Zeitraum, in dem sich die Zahl der New Cases ca. verdoppelt hat, hat sich die Zahl der Tests in etwa verdreifacht. Das Netz wuchs stärker als die Zunahme der Fische. Bezieht man also die „New Cases“ auf die Testzahlen, dann stellt man fest, in Wirklichkeit sinkt die Zahl. Deshalb lässt sich auch die unter dem obigen Link auffindbare untenstehende Grafik leicht erklären: „Percentage of visits o Influenza-Like Ilness (ILI)“: Sie sehen einen typischen Winteranstieg von behandlungsbedürftigen viralen Atemwegsinfektionen und dann ein rapides Sinken ab KW 14. Das minimale Ansteigen in KW 27 ist immer noch unter der Baseline des Winters 2019/2020 und kann auch der allgemeinen Panik geschuldet sein.

Doch in den täglichen USA Coronameldungen – und zwar ganz egal, auf welchem Kanal oder in welcher Publikation – werden diese leicht zugänglichen Zahlen überhaupt nicht berücksichtigt und stattdessen eine Art amerikanische Apokalypse beschrieben. Ich stehe ehrlich gesagt vor einem Rätsel. Sollte Corona eventuell eine spezifische Berufskrankheit bei Journalisten auslösen? Die konsequente Leugnung der Wirklichkeit?

Dabei ließe sich anhand des Coronaverlaufs in den USA sehr viel Interessantes ableiten. Wie wird die Situation in verschiedenen Bundestaaten gehandhabt, Lockdown ja oder nein mit welchen Konsequenzen, was hat das amerikanische Gesundheitssystem damit zu tun, die Altersverteilung, was der Präsidentenwahlkampf. Belassen wir es bei den nackten Zahlen, denn diese sind eindeutig und reichen für eine vernünftige Einschätzung völlig aus. Schwere saisonale (Corona-) Grippewelle, mit im Vergleich hohen Opferzahlen (wir sprechen gleich darüber, warum Panik diese erhöht haben dürfte) – aber auch nicht mehr. Wenn die täglichen Katastrophenmeldungen aus den USA wirklich Substanz hätten, dann müsste sich dies aktuell in weiter stark steigenden Todeszahlen zeigen. Doch das tut es bisher nicht.

Pressemeldungen zu Coronainfizierten komplett irreführend

Die Wirklichkeitsverweigerung bezieht sich auch auf Deutschland. Die aktuellen Pressemeldungen wie z.B. „heute wieder 486 Neuinfizierte“, oder schlimmer noch „Neuerkrankte,“ sind aus vier Gründen sinnfrei:

  • Es handelt sich weder um gesicherte Neuinfizierte, erst recht nicht um Erkrankte, sondern lediglich um positiv Getestete, die ich erst durch den Filter möglicher Fehlerquellen betrachten muss. Aufgrund des Problems der falsch positiven Fälle, dürften sehr viele dieser aktuell „Infizierten“ in Wirklichkeit überhaupt nicht infiziert sein.
  • Um Rückschlüsse für die Bedeutung dieser Zahl auf die Gesamtheit zu ermöglichen, muss ich immer die gleichzeitig die Zahl der negativen Testergebnisse mit angeben.
  • Um diese Zahl in Bezug zu Vormessungen zu setzen, ist sie angestiegen oder gesunken, muss ich angeben, ob sich gleichzeitig die Gesamttestzahl verändert hat, ist sie angestiegen oder gesunken. Ist also das Fischernetz größer geworden?
  • Um die Bedeutung einer Gesundheitsgefahr durch diese Zahl einschätzen zu können, sollte stets auch die Entwicklung der stationär wegen Covid-19 Behandelten und die Covid-19 Todesfälle mit angegeben werden (Dabei zu beachten: zeitliche Verzögerung (Inkubationszeit) und die unterschiedlichen Kriterien der Covid-19-Zuordnung. Siehe auch die Diskussion bezgl. mit oder an Covid-19 Verstorbene).

Aktuelle Massentestungen täuschen Problem vor, das nicht existiert

Wenn man sich nun der Wirklichkeit tatsächlich annähern will, muss man die Realität des komplexen Messvorgangs beachten. Zwei Punkte sind besonders wichtig. Wenn Proben zur Testung eingehen, sollte das Labor eigentlich wissen, um beim Gedankenspiel zu bleiben, aus welcher Stadt die Probe stammt, also wie hoch die Prävalenz ist. Außerdem muss ein Labor ein nachvollziehbares Vorgehen installieren, wie man mit dem Problem der falsch positiven Ergebnisse umgeht. Werden diese nochmals überprüft und wie genau?

Aus welcher der im obigen Gedankenspiel genannten Städte kommt die Probe (Prävalenz)? Grundsätzlich kann man die Anzahl von Infizierten in der getesteten Gruppe nie genau wissen. Das liegt in der Natur der Sache. Aber man kann anhand der niedrigen Erkrankungszahlen davon ausgehen, dass Menschen ohne Symptome und mit Bagatellsymptomen, wie Schnupfen oder Halsweh, derzeit ziemlich sicher aus Stadt Nr. 2 stammen. Also aus einer Gruppe mit sehr niedriger Prävalenz. Teste ich also derzeit Symptomlose oder -arme, dann spielt die Rate an falsch positiven Ergebnissen eine ganz entscheidende Rolle. Solche Ergebnisse müssen unbedingt nochmals nachgetestet werden.

Wenn ein Getesteter jedoch aus einer Gruppe mir hoher Prävalenz stammt, dann gehört er derzeit hochwahrscheinlich in die Gruppe, die deutliche Symptome einer Lungenentzündung aufweisen im Verbund mit typischen neurologischen Symptomen, vor allem dem Verlust des Geruchssinns. Doch diese Patienten sind derzeit extrem selten.

Ich hatte letzte Woche ein Gespräch mit einer Mitarbeiterin einer sehr großen Krankenversicherung, die fast den gesamten Raum östlich von Zürich abdeckt. Sie sagte mir, dass ihrer Versicherung schon seit Wochen kein einziger Covidfall, also ein Coronainfizierter, der deswegen einen Arzt aufsuchte, mehr gemeldet wurde. Wie viele Patienten wegen Covidsymptomen derzeit stationär in Deutschland behandelt werden, habe ich leider nicht herausfinden können. Teste ich einen solchen Patienten, stammt er jedoch sicher aus einer Stadt mit einer höheren Prävalenz, wie aus Stadt Nr. 1. Dann spielt die Rate an falsch positiven Fällen eine viel kleinere Rolle. Wenn nicht verstanden, bitte noch mal oben das Gedankenspiel der zwei Städte ansehen.

Es ist also elementar einzuschätzen, welche Prävalenz für den Getesteten zutrifft. Man muss klar unterscheiden:

  • Kranke Patienten, die Atemnot haben und neurologische Symptome, kommen vielleicht eher aus Stadt Nr.1 (hohe Prävalenz). Hier machen Tests Sinn, weil sie helfen, den Auslöser einer Erkrankung zu identifizieren, z.B. auch Influenza Viren. Hier verfälscht eher die Rate der falsch negativen Testergebnisse das Gesamtergebnis.
  • Symptomlose und Menschen mit Bagatellsymptomen kommen derzeit aus Stadt Nr. 2 (sehr niedrige Prävalenz). Hier verfälscht die Rate an falsch positiven Testergebnissen das Gesamtergebnis.

Zurzeit werden Massentestungen ausgebaut und Geldmittel bereitgestellt. Schon bei kleinsten Anzeichen soll getestet werden. Stellen sie sich nur einmal den kommenden Herbst und die damit beginnende jährliche Schnupfensaison vor. So inkompetent wie man derzeit mit Testergebnissen umgeht, wird es natürlich zu der beschworenen zweiten Welle kommen, obwohl so gut wie niemand mehr SARS-CoV-2 Virusträger ist. Verhindert werden könnte dieser Fehler, wenn die Labore es schaffen würden, falsch positive Fälle zu erkennen. Wie muss man sich das vorstellen? Dazu habe ich das Robert-Koch-Institut befragt.

Mein Mailwechsel mit dem Robert-Koch-Institut

Es folgt nun ein kleiner Briefwechsel:

—–Ursprüngliche Nachricht—–

Von: kontakt-rki@noreply.bund.de

Gesendet: Sonntag, 12. Juli 2020 12:34

An: RKI-Pressestelle

Betreff: positive Testergebnisse

Sehr geehrte Damen und Herren,

ich habe eine Frage bezgl. der im Epidemiologischen Bulletin veröffentlichten positiven Testergebnisse. Wie viele der positiv Getesteten fließen aufgrund eines einzigen Tests in diese Tabelle ein? Und wenn es eine zweite Testung gab, wissen Sie wie viele von den zuerst positiven Getesteten dann ein zweites Mal positiv sind?

Vielen Dank für eine Antwort und Grüße Gunter Frank

 

Von: RKI-Info <info@rki.de>

Gesendet: 13. Juli 2020 13:54

An: ‚dr@gunterfrank.de‘ <dr@gunterfrank.de>

Betreff: AW: positive Testergebnisse

Sehr geehrter Dr. Frank,

vielen Dank für Ihre Anfrage.

Bitte beachten Sie dazu https://www.rki.de/SharedDocs/FAQ/NCOV2019/gesamt.html  (wie funktioniert der Meldeweg?) Doppelt erfasste Fälle werden in der Regel durch die Gesundheitsämter bereinigt, so dass letztendlich die Daten des RKI keine Mehrfachtestungen enthalten.

Ich wünsche Ihnen alles Gute.

Mit freundlichen Grüßen

Im Auftrag

Dr. 

 

Gesendet: Montag, 13. Juli 2020 15:01

An: RKI-Info

Betreff: AW: positive Testergebnisse

Sehr geehrter Dr.

vielen Dank für Ihre Antwort. 

Das bedeutet, die meisten der als positiv erfassten Fälle beruhen auf einem einzigen Test?

Mit freundlichen Grüßen

Gunter Frank

Gesendet: 13. Juli 2020 16:36
An: ‚Gunter Frank‘ <dr@gunterfrank.de>
Betreff: AW: positive Testergebnisse

 

Sehr geehrter Dr. Frank,

es können pro Person durchaus mehrere Teste durchgeführt werden, die als ein Fall in der Statistik gewertet werden (wenn das Endergebnis positiv ist).

Das Genom des SARS-Cov-2-Virus umfasst ca. 30000 Nukleotide. Diese kodieren für verschiedene Gene. Alle Bereiche des Genoms der Viren können zur Selektion von Primern für die Reverse-Transkriptase Polymerase-Kettenreaktion verwendet werden (RT-PCR). Zur PCR-Diagnostik von SARS-CoV-2 verwenden viele Labore mehrere PCRs (z.B. dual target in Sinne von (Screening)Test mit anschließendem Bestätigungstest) . Für die PCR-Diagnostik von SARS-CoV-2 Virus ist auch eine PCR ausreichend, die nur auf Primern innerhalb eines Gens des Virus basiert, wenn die Methode ausreichend hinsichtlich Spezifität und Sensitivität validiert wurde. Um Auskünfte über die Sensitivität und Spezifität der PCR zu erhalten kann man sich mit dem Labor in Verbindung setzen, welches den Test durchführt.

Bei niedriger Prävalenz und niederschwelliger Testindikation (einschließlich der Testung asymptomatischer Personen) werden an die Spezifität der Teste im Hinblick auf den positiven Vorhersagewert hohe Anforderungen gestellt (z.B. dual target). 

Weitere Hinweise zur Testung von Patienten auf Infektion mit dem neuartigen Coronavirus SARS-CoV-2 finden Sie unter https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Vorl_Testung_nCoV.html

Vielleich sind Sie auch am Bericht zur Optimierung der Laborkapazitäten zum direkten und indirekten Nachweis von SARS-CoV-2 im Rahmen der Steuerung von Maßnahmen interessiert https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Laborkapazitaeten.pdf;jsessionid=62B3E0DB6D3A30F5AABB59D9F6B46C60.internet121?__blob=publicationFile

Mit freundlichen Grüßen

Im Auftrag

Dr. 

Gesendet: 13. Juli 2020 17:42
An: ‚RKI-Info‘
Betreff: Rate der falsch Positiven AW: positive Testergebnisse

Sehr geehrter Dr.

ja, das hilft weiter, vielen Dank. Bei der derzeitigen niedrigen Prävalenz sprechen Sie völlig richtig die hohe Anforderung an die Spezifität des Tests an. Aber wenn ich mich nicht irre, liegt eine gravierende Fehldeutung vor.

Ich habe mir den mitgesendeten Link https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Laborkapazitaeten.pdf;jsessionid=62B3E0DB6D3A30F5AABB59D9F6B46C60.internet121?__blob=publicationFile bezgl. des INSTANT Ringversuchs angesehen Das RKI schreibt ab Seite 19 dazu:

„Zur Überprüfung der Testspezifität wurden …  1 Probe mit nicht-infizierten Kontrollzellen (MRC-5-Zellen) untersucht. Für die RV-Probe 340062 mit MRC-5-Zellen (negativ für SARS-CoV-2) wurden 1,4% nicht richtig negative Ergebnisse festgestellt. Lediglich 3 deutsche Laboratorien meldeten 2 falsch positive Ergebnisse/596 Ergebnisse (entspricht 0,35%) und 2 inkomplette Ergebnisse/596 Ergebnisse (entspricht 0,35%). Hinsichtlich der Spezifität spiegeln die Ergebnisse dieser negativen Probe eine sehr gute Testdurchführung in deutschen Laboratorien wider.“

Wenn wir über den gleichen Ringversuch sprechen https://www.instand-ev.de/System/rv-files/340%20DE%20SARS-CoV-2%20Genom%20April%202020%2020200502j.pdf, glaube ich, dass eine Verwechslung vorliegt. Bzgl. der MRC-5-Zellen war das Ergebnis nicht 1,4% nicht richtig negative Ergebnisse (den Terminus kenne ich auch nicht), sondern 1,4% falsch positive Ergebnisse – warum auch immer. Schauen Sie dazu die Tabelle auf Seite 12 an, die untere Zeile. Das bedeutet 98,6% der Proben waren richtig negativ, aber dann eben 1,4% falsch positiv. Das heißt die durchschnittliche Testung der RV-Probe 340062 ergab eine falsch positive Rate von 1,4%. Das bedeutet doch nichts anderes, als dass bei der niedrigen Prävalenz und der Testung bei nur Bagatellsymptomen, die derzeitige Rate an positiven Testergebnissen um die 1% bei rund 400.000 wöchentlichen Testungen, vor allem aus falsch positiven Ergebnissen bestehen dürfte.

Bitte widerlegen Sie mich, denn wenn das stimmt, wäre der R-Faktor gleich null und die derzeit täglichen Meldungen von 200–500 Neuinfizierten schlicht eine Fehlinformation. Denn man würde dann auch in völlig steriler Umgebung immer um die 1% (falsch) positiv testen.

Mit freundlichen Grüßen

Gunter Frank

 

—–Ursprüngliche Nachricht—–
Von: RKI-Info
Gesendet: 20. Juli 2020 12:51
An: ‚Gunter Frank‘
Betreff: AW: Rate der falsch Positiven AW: positive Testergebnisse

Sehr geehrter Herr Frank,

Insbesondere bei diskrepanten Ergebnissen innerhalb eines Tests bzw. unklaren/unplausiblen Ergebnissen der PCR-Testung (z.B. grenzwertige ct-Werte, untypischer Kurvenverlauf) muss eine sorgfältige Bewertung und Validierung durch einen in der PCR-Diagnostik erfahrenen und zur Durchführung der Diagnostik ermächtigten Arzt  erfolgen. Ggf. muss zur Klärung eine geeignete laborinterne Überprüfung (z.B. Wiederholung mit einem anderen Testsystem) erfolgen bzw. eine neue Probe angefordert werden. Der Befund soll eine klare Entscheidung im Hinblick auf die Meldung ermöglichen und liegt im Verantwortungsbereich des Labormediziners.

Von einer ungezielten Testung von asymptomatischen Personen wird aufgrund der unklaren Aussagekraft eines negativen Ergebnisses (lediglich Momentaufnahme) in der Regel abgeraten (Ausnahmen siehe https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Vorl_Testung_nCoV.html;jsessionid=4D4AC3126B17831BCE04638561BE32C3.internet062).

Weitere Informationen zur Diagnostik bekommen Sie aus den regelmäßigen Aktualisierungen auf unserer Homepage https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/nCoV.html und https://www.rki.de/SharedDocs/FAQ/NCOV2019/gesamt.html .

Mit freundlichen Grüßen

Dr. 

 

An der Stelle macht eine Kommunikation keinen weiteren Sinn mehr. Das RKI weicht aus. Es schiebt die Verantwortung für die potenziell irreführenden Ergebnisse in die Labore, weiß aber nicht genau, wie man dort mit dem Problem umgeht. Es verweigert die Antwort darauf, ob es nicht gravierende Probleme mit den täglichen Meldungen neuer „Infizierter“ gibt. Es rät zwar von Massentestungen ab, verwechselt jedoch das Problem dabei. Es liegt nicht in der „unklaren Aussagekraft eines negativen Ergebnisses“, sondern in den positiven Ergebnissen, die wahrscheinlich mehrheitlich Fehlalarme sind.

So wird das RKI nicht Teil der Lösung, sondern Teil des Problems. So, wie es das schon bei der Schweinegrippe und es von Anfang an in der aktuellen Coronakrise war.

Antworten eines Laborfachmanns 

Daraufhin wandte ich mich direkt an ein Fachlabor, welches Coronaabstriche testet (und die derzeit mit solchen Tests geflutet werden).

Gesendet: 14. Juli 2020 13:34
Betreff: Kurze Nachfrage bezgl. Testung

Sehr geehrte Damen und Herren,

Eine kurze Frage, ihr Real-time RT-PCR Test ist ja wahrscheinlich eine einmalige Bestimmung? Ab wann gehen sie von einem falsch negativen Ergebnis aus und testen zweimal? Und wie hätten Sie das Ergebnis gehandhabt, wenn der real-time Test positiv gewesen wäre?

Vielen Dank für eine Antwort.

Mit freundlichen Grüßen

Gunter Frank

 

Gesendet: 14. Juli 2020 14:04
An: dr@gunterfrank.de
Betreff: Befundkriterien SARS-CoV2 PCR

Sehr geehrter Herr Frank,

wir bewerten die PCR nach zwei Kriterien, ja nach dem positiven/negativen Ergebnis der Probe selbst und positivem/negativem Ergebnis der in jeder Untersuchung mitlaufenden Kontrollen:

Positives Ergebnis Probe:

Zeigt eine Probe ein positives Ergebnis, so kontrollieren wir diese auf sauber sigmoidalen Verlauf der Fluoreszenzmessung selbst. Wir evaluieren unsere Untersuchung regelmäßig. Zeigt die Kurve einen unsauberen Verlauf oder liegt sie signifikant außerhalb der evaluierten Detektionsgrenzen wir die Messung wiederholt. Bei leichter Unterschreitung des Detektionslimits bei sauberem Verlauf befunden wir als „grenzwertig positiv“ und bitten um die Einschätzung des behandelnden Arztes.

Kontrollmessungen:

Fällt die interne Extraktionskontrolle, die jeder einzelnen Probe zugegeben wird aus, werten wir ein negatives Ergebnis als falsch negativ und messen erneut. Sie bekommen nur das finale Ergebnis. Fällt aus unnachvollziehbaren Gründen die Messung mehr als 2x in Folge aus, müssen wir von der Gegenwart von Störsubstanzen ausgehen und bitten um Neuzusendung eines neuen Abstrichs.

Fällt die jedem Lauf hinzugefügte Positivkontrolle negativ aus, wird der gesamte Lauf wiederholt.

Fällt die jedem Lauf hinzugefügte Negativkontrolle positiv aus, wird der gesamte Lauf wiederholt.

Positiv- und Negativkontrolle verfügen je über dieselbe interne Kontrolle wie die Probe selbst und werden nach identischen Kriterien beurteilt. 

Bei weiteren Detailfragen, zögern Sie bitte nicht mich direkt zu kontaktieren.

Mit besten Grüßen

 

From: Gunter Frank <dr@gunterfrank.de>
Sent: Dienstag, 14. Juli 2020 14:41
Subject: AW: Befundkriterien SARS-CoV2 PCR

Lieber Dr.

vielen Dank.

Ich fürchte, um ihre bereits gegebene Antwort einordnen zu können, fehlt mir als Allgemeinarzt die Fachexpertise. Darf ich nochmal nachfragen. Wie würden Sie das einschätzen. Das RKI bringe ja die täglichen Testzahlen und positiven Fälle heraus. Pro Woche ca. 400.000 Tests und seit einigen Wochen immer zwischen 3000–6000 positive Fälle. Es gibt ja den Instand Ringversuch, hier wurden auch Leerproben ohne Virus an viele Labors versandt, die auch unterschiedliche Verfahren einsetzen. Es waren annähernd 1000 Proben. Hier kamen als Gesamtergebnis 98,6% als richtig negativ zurück, und somit 1,4% als falsch positiv. Da die Prävalenz von SARS CoV2 ja derzeit sehr niedrig ist und die meisten Tests bei Bagatellsymptomen durchgeführt werden, spielen diese 1,4% falsch positiven Ergebnisse eine große Rolle. Kennen sie die Rate von falsch positiven und negativen Ergebnissen bei ihren verwendeten Tests? Die Frage, die ich mir stelle ist, wie viele der vom RKI als positiv Getestete und dann in den Medien als Infizierte bekanntgegebenen Fälle sind in Wirklichkeit falsch positiv. Wie schließen sie dies in ihrem Labor aus und wie melden sie ihre Ergebnisse dem RKI? Messen Sie beispielsweise jedes positive Ergebnis standardmäßig zweimal?

Mit freundlichen Grüßen

Gunter Frank

 

Gesendet: 14. Juli 2020 15:48
An: Gunter Frank
Betreff: RE: Befundkriterien SARS-CoV2 PCR

Lieber Herr Frank,

Ihre Rückfrage ist berechtigt. 

Das wichtigste zuerst: Wir hätten in vielen Fällen gar nicht die Möglichkeit jedes positive Ergebnis doppelt zu bestimmen. Extraktion und Analyse nehmen so viel Zeit in Anspruch, dass die Ergebnisübermittlung um Stunden, ggf. um einen Tag verschoben würden. Dies können wir nicht riskieren, die Proben kommen teils aus Krankenhäusern oder ähnlich kritischen Einrichtungen. Grenzwertig positive Ergebnisse messen wir häufig nach. Wir testen auf einen spezifischen Abschnitt des E-Gens.

Wichtig bei der Erstellung eines positiven Befundes: Die Beurteilung, ab wann eine Probe nachgemessen werden muss, obliegt dem Fachpersonal und basiert auf Parametern, die durch die von Ihnen zitierten Ergebnisse des RV leider nicht umfassend abgebildet werden. Wie in meiner letzten Mail beschrieben, haben wir entsprechend der RKI Empfehlung hier https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Vorl_Testung_nCoV.html Kriterien festgelegt, ab denen ein positives Ergebnis durch uns als nicht eindeutig eingestuft wird und die Messung wiederholt oder im Befund auf ein grenzwertiges Ergebnis hingewiesen werden muss. Ich würde nicht davon ausgehen, dass (bei korrekter Durchführung und Dokumentation!)  falsch positive Ergebnisse aus dem RV ((Ringversuch)) nach unseren Kriterien eindeutig waren. An den RVen nehmen wir selbst Teil und die Ergebnisse waren allesamt sehr eindeutig positiv (also mehr als zwei Größenordnungen von unserer Nachweisgrenze entfernt) oder negativ (kein detektiertes Signal)!

Mitunter lassen wir unklare Ergebnisse zur Kontrolle in anderen Laboren, die mit anderem Material als wir arbeiten, nachmessen. Dies wird routinemäßig zwischen allen Standorten so praktiziert, ich würde daher unsere Ergebnisse als verlässlich einstufen. Wie dies in Laboren anderer Anbieter von Corona-PCR gehandhabt wird, ist mir nicht bekannt.

Reporting erfolgt bei uns zentral aus unseren Datenbanken heraus. In diesen Prozess bin ich nicht eingebunden, meine Verantwortung ist das Labor und die Aufrechterhaltung der damit verbundenen Prozesse. Die Meldungen an die Gesundheitsämter erfolgen bei uns aus dem Haus, in grenzwertigen Fällen (im Befundtext vermerkt) halten die Verantwortlichen i.d.R. Rücksprache mit mir und/oder dem behandelnden Arzt. 

Mit besten Grüßen

Ich erkenne in diesen Antworten eine hohe Kompetenz, aber auch ein weites Feld des unklaren Umganges mit grenzwertigen sowie schwach positiven Fällen. Daraufhin führte ich ein Telefonat mit einem weiteren Fachmann, der ebenfalls in einem der vielen Labors arbeitet, die derzeit massenweise Coronatests durchführen. Er bestätigte das Problem. Die Ergebnisse des Ringversuchs seien zwar mit Vorsicht zu genießen, da die Anzahl der Placebo-Proben pro Labor nicht ausreichend sei. Er sagte aber klipp und klar, das Problem ist die große Masse an Tests bei den gleichzeitig sehr seltenen positiven Ergebnissen.

Massentestungen müssen gestoppt werden – sofort

Bei hunderttausenden Tests ist einfach nicht auszuschließen, dass es doch einmal Verunreinigungen gibt oder schlicht auch Verwechslungen. Diese würden auch nicht durch Nachtestungen als Fehler entdeckt. Außerdem spricht der Test auch immer wieder bei ehemals Infizierten positiv an. Oft bei Menschen, die gar nicht wussten, dass sie infiziert waren, aber bei denen eben noch Virustrümmer auf den Schleimhäuten nachweisbar sind. Außerdem ist die Meldesituation der Gesundheitsämter auch an das RKI unklar. Das dortige Fachwissen sensibilisiert nicht ausreichend bezüglich der immensen Fehlergefahr bei den wenigen positiven Fällen.

Anschließend telefonierte ich mit einem Fachmann der Epidemiologie und der Studienstatistik. Sie sehen, ich lasse die Namen bewusst weg, weil solche Äußerungen inzwischen politisch gewichtet werden und Nachteile an Hochschulen oder bei Arbeitgebern bedeuten können. Machen Sie sich einfach bewusst, wenn beispielsweise die Universitätsklinik Heidelberg vom Land Baden-Württemberg 200 Millionen Euro für den Corona-Verdienstausfall möchte, dann möchte man keine politisch unbequemen Äußerungen aus den eigenen Reihen in den Medien sehen. Nun, dieser Fachmann bestätigte das Problem und plädierte für mehr Mut, um diese in ihrer Missdeutung verheerenden Massentestungen endlich zu beenden. Ganz besonders vor Herbst, wenn die ganz normale Schnupfensaison wieder losgeht, und jedes Niesen die Panik anheizt.

Test auf Rinder-Coronaimpfstoff war negativ

Nun ein weiteres Update. In meinem Coronabeitrag vom 23.06.2020 bin ich der Frage nachgegangen, ob der Test möglicherweise sogar auf Tier-Coronaviren ansprechen könnte. Dass der Mensch solche, für ihn harmlose Viren über seine Nasenschleimhäute auf andere Tiere übertragen kann, ist gesichert. Obwohl diese Meinung wohl begründet und im Beitrag als These in der wissenschaftlichen Diskussion beschrieben ist, wurde der Artikel bei Facebock mit einer Warnung versehen (Siehe Nachtrag vom 08.07.2020). Als Begründung für diesen Eingriff in die Meinungsfreiheit wurde lediglich eine Aneinanderreihung anderer Meinungen angegeben, aber keine wissenschaftliche Veröffentlichung, in denen diese Tests tatsächlich auf Tiercorona getestet wurden.

Das haben ich nun als Pilotversuch mit tatkräftiger Unterstützung von Achgut.com und einem befreundeten Tierarzt selbst durchgeführt. Zwei PCR-Abstriche, getunkt in den Rinderimpfstoff Rotatec Corona, der Rindercoronaviren in abgeschwächter Form enthält, wurden unter Fantasienamen in ein Fachlabor eingeschickt. Ergebnis: beide Tests sind negativ. Das bedeutet einen ersten belastbaren Hinweis, dass Rinderviren den Test nicht verfälschen.

Um diesen Verdacht gänzlich zu widerlegen, sollte dieser Vorgang noch einmal mit mehreren Proben und Laboren wiederholt werden. Vor allem sollten Tierärzte Abstriche bei infizierten Tieren entnehmen und testen lassen. Auch sollte man bei den geschlachteten Tieren, wie Schweine oder Geflügel, Abstriche machen, an denen die positiv getesteten Schlachter gearbeitet haben. Sind diese ebenfalls negativ, könnte man diesen Verdacht ad acta legen. Das wären die Behörden den Menschen der betroffenen Region schuldig, bevor man wieder einen schädlichen Lockdown veranlasst.

Corona: Der Versuch einer derzeitigen Gesamteinordnung

Derzeit werden 6 Monaten weltweit 600.000 Todesfälle der durch das Virus SARS-CoV-2 ausgelösten Erkrankung Covid-19 zugeordnet. Jedes Jahr sterben Schätzungen nach 300.000–650.000 Menschen an einer durch Influenza verursachten Atemwegsinfektion. Wie kommen diese Zahlen zustande? Die Oduktionen in Deutschland zeigten, dass viele Opfer schwerst krank waren und das Corona-Virus zwar der Todesauslöser war, aber die Ursache eigentlich die schwere Erkrankung.

Außerdem testete man nicht auf Influenza. Die Coronapanik und der Lockdown führen sicher besonders in Ländern ohne soziales Netz zu unmittelbaren Versorgungsengpässen und damit zu Hunger, Schwäche und Todesopfern. Wir werden die Opfer hier zugeordnet? Es ist schwierig einzuschätzen. Die Toten durch Influenza werden auch hochgerechnet und nicht getestet.

Werfen wir einen Blick auf ein paar vergleichende Übersichtszahlen einiger Länder in ca. Einwohnerzahl / jährliche Todeszahlen / bisherige Covid-19 zugeordnete Todesfälle (Stand 17.07.2020). 

Indien:             1,4 Milliarden / 10 Millionen / 25.777

USA:                330 Millionen / 2,7 Millionen / 141.150

Brasilien:          210 Millionen / 1,3 Millionen / 76.846

Deutschland:    82 Millionen / 950.000/ 9.157

Frankreich:       66 Millionen / 585.000 / 30.831

Italien:              60 Millionen / 630.000 / 35.017

Belgien:           11,5 Millionen / 113.000 / 9.795

Schweden:       10 Millionen / 95.000 / 5.593

Schweiz:           8,8 Millionen / 70.000 / 1.969

Quelle https://countrymeters.info/dehttps://www.worldometers.info/coronavirus/

Geht man von diesen Zahlen aus, dann ergibt sich ein bisheriger prozentualer Anteil der Covid-19 zugerechneten Toten an der jährlichen Gesamtsterbezahl in der Reihenfolge der Höhe:

Indien 0,3

Deutschland 1,1

Schweiz 2,8

USA 5,2

Frankreich 5,3

Italien 5,6

Schweden 5,9

Brasilien 5,9

Belgien 8,7

Die Prozentzahlen für Indien werden sicher noch ansteigen, aber wegen der jüngeren Bevölkerung vermutlich nicht sehr stark. In Brasilien hält sich der Peak der Todeszahlen jetzt schon 8 Wochen. Voraussichtlich müsste er demnächst sinken, wenn nicht, wäre dies ungewöhnlich. Die USA haben ihren Peak schon länger überschritten.

Inwieweit diese Prozentzahlen die Todeszahlen durch Atemwegsinfektionen insgesamt am Ende des Jahres steigen lassen und für eine Übersterblichkeit sorgen werden, wird sich zeigen. Meiner Schätzung nach wird es in den westlichen Ländern, die jetzt über fünf Prozent stehen, anteilig mehr Atemwegstote geben, aber keine Übersterblichkeit insgesamt. Weil es vor allem Schwererkrankte und sehr alte Menschen getroffen hat, bei denen man oft nicht sagen kann, ob sie an oder doch eher mit dem neuen Coronavirus gestorben sind. Und gestorben wurde vor allem in den Pflegeheimen, wo sich eben alte schwer vorerkrankte Menschen sammeln, auch wegen gravierender Fehler wie die panische Verlegung von Covidkranken zur Entlastung von Krankenhäusern ausgerechnet in Pflegeheimen (Coronabeitrag vom 28.05.2020). Eine Panikreaktion, vor allem in Hotspots wie Bergamo und New York. Und das, obwohl schon seit Jahren bekannt ist, dass im Gegensatz zur anderen Bevölkerung sich in Pflegeheimen solche Viren mit einer hohen Letalität ausbreiten.

Wenn dennoch eine Übersterblichkeit zu messen ist, dann sollten auch die Schutzmaßnahmen selbst als Verursacher überprüft werden. Jetzt schon mehren sich die Hinweise, dass, wie oben schon erwähnt, durch fehlende Behandlung anderer Krankheiten viele Menschen gestorben sind,

Nur der Vollständigkeit halber sei bemerkt, dass niemand Vernünftiges abstreitet, Covid-19 könne nicht auch bei Jüngeren zu einer heftigen Lungeninfektion führen, mit einer manchmal mehrwöchigen Rekonvaleszenz-Phase. Aber virale Infektionen können nun mal sehr heftig sein. Ich hatte die Grippe 2018. Drei Tage heftigste Gliederschmerzen, bei denen kein Schmerzmittel half, und währenddessen ich laut stöhnend im Bett lag. Es war schlimm. Ich brauchte drei Wochen, um danach wieder normal arbeiten zu können. Seitdem weiß ich auch aus eigenem Erleben, dass eine Grippe besonders geschwächte Menschen töten kann.

Zusammenfassend kann man aus diesen Zahlen erkennen, dass es sich je nach Land, um eine schwere bis mittelschwere virale Atemwegsinfektion handelt, die erkennbar, wie üblich, saisonal verläuft. Diese Erkrankungen werden üblicherweise als Grippewelle bezeichnet, obwohl sie von ganz verschiedenen Viren ausgelöst werden können, wie Corona- oder Influenzaviren. Sie kehren jedes Jahr leicht verändert wieder, und unsere Gesellschaften haben bis zum Jahr 2020 gelernt, vernünftig damit umzugehen.

Diese jährlichen Grippewellen treffen die Länder stets unterschiedlich, so war beispielsweise Deutschland vergleichsweise hart getroffen, während es 2020 sehr milde (!) ablief. Doch so wenig die Bundesregierung an dem schlimmen Verlauf 2018 schuld war, so wenig hat sie etwas mit dem milden Verlauf 2020 zu tun. Wenn die Coronapanik etwas Gutes hat, dann dass wir zukünftig sensibilisierter mit klaren Risikogruppen umgehen, was Händewaschen und Abstand halten betrifft. Doch ganz im Gegensatz zu dieser Einschätzung vermittelt die politische wie mediale Berichterstattung den Eindruck einer globalen Katastrophe, die es ganz sicher nirgends war und nirgends ist.

Was ist zu tun? Seien wir mutig!

Die jährliche Wintergrippe ist bei uns schon längst vorbei. Doch die derzeitigen Massentestungen suggerieren stets eine Infektionsrate von 1 Prozent, die jedoch fast ausschließlich auf Fehlalarmen beruft. Stichwort: falsch positive Testergebnisse bei niedriger Prävalenz. Deshalb müssen die Massentestungen sofort gestoppt werden, sonst wird es keinen Weg zurück zur Normalität geben.

Es gelten in der derzeitigen Situation die ganz normalen Hygieneregeln, an die man sich besonders im Winter im Umgang mit schwerkranken, meist alten Menschen (Risikogruppen) halten soll: häufiges Händewaschen, Niesen in die Ellenbeugen. Risikogruppen sollten sich vor großen Menschenansammlungen, insbesondere in geschlossenen Räumen, fernhalten. Masken sind dazu da, in besonderen Situationen, die Infizierung Anderer zu verhindern: im Operationssaal, in den Intensivabteilungen, in den Pflegeheimen und bei medizinischen Hausbesuchen bei der Behandlung von Risikogruppen. Masken verwendet man für diese Situationen einmal und wirft sie dann weg. Die jetzige allgemeine Anwendungspraxis von Masken, genauso wie Social Distancing, Ausgangsperren, Lockdowns sind sinnfrei. Sie schaden wesentlich mehr, als sie nützen.

Wir sollten diesen Unfug stoppen, denn er führt uns immer weiter weg von dem, was Gesundheit eigentlich bedeutet, Unbefangenheit, Optimismus und Lebensfreude. Die vermeintliche Bedrohung ist schon lange vorbei. Seien wir mutig, fangen wir wieder an, unbefangen unser Leben zu leben. Wenn Ihnen dieser Beitrag plausibel erscheint, verbreiten sie ihn bitte weiter.

Post Scriptum

Wie selbst Zeitungen wie die FAZ den Panikmodus schüren, zeigt dieser Kommentar von FAZ-Redakteurin Sibylle Anderl. Er stellt stellvertretend für das Elend der unreflektierten wie kompetenzarmen Unisono-Berichterstattung deutscher Medien. Mein Kollege Christian Haffner, den ich aus der Zusammenarbeit mit meiner Fachgesellschaft kenne und von dem ich weiß, dass er mit Studienzahlen sehr gut umgehen kann, hat darauf einen Leserbrief verfasst, der jedoch von der FAZ abgelehnt wurde. Deshalb füge ich diesen hier im Anschluss an meinen Beitrag an.

Leserbrief zur Leitglosse: „Fragile Lage“, FAZ vom 18.7.2020

In der Leitglosse „Fragile Lage“ von Sibylle Anderl vom 18.7.2020  werden einige grundlegenden Fakten missachtet und damit ein falsches Bild gezeichnet. Zum Beispiel werden positive PCR-Tests auf SARS-CoV-2 mit Infektionszahlen verwechselt. Da kein Test 100% richtige Ergebnisse liefert, hängt die Korrektheit eines Testergebnisses  stark von der Vortestwahrscheinlichkeit ab, wie das Deutsche Ärzteblatt 24/2020 in seinem Artikel: „PCR-Tests auf SARS-CoV-2: Ergebnisse richtig interpretieren“ schreibt. Testen wir z.B. in einer Gruppe mit sehr vielen Gesunden und der Test ist „positiv“, ist er häufig falsch positiv, d.h. es besteht gar keine Coronavirusinfektion.. Und selbst bei einem richtig positiven Test können wir keine sichere Aussage über die Infektiosität des Patienten machen, sondern lediglich, dass wir den dem Virus zugeschriebenen RNA-Schnipsel nach millionenfacher Vermehrung im Labor nachweisen konnten. Darüberhinaus ist der PCR-Test nach wie vor ein sog. Inhouse-Test, d.h. er ist amtlich leider immer noch nicht validiert, was dringend nachgeholt werden müsste. Weiten wir außerdem die Anzahl der Testungen noch aus, erhalten wir naturgemäß mehr positive Testergebnisse, was in vielen Medien als eine Zunahme an „Infektionen“ gedeutet wird und dabei „entdecken“ wir einfach nur mehr an schon vorhandenen Fällen.

In Bezug auf die Sterbefälle im Zusammenhang COVID-19 gibt es ebenfalls eine Reihe von Unwägbarkeiten. Das wird in den Ländern unterschiedlich gezählt. Wer wirklich an der Infektion gestorben ist, können am Ende nur Obduktionen klären und nur diese Ergebnisse dürfen, nach international einheitlichen Standards, dann vergleichend als „Coronavirustote“ bezeichnet werden. Auch wird hier nichts über Vorerkrankungen oder das Alter der Verstorbenen berichtet, was aber eine wichtige Information wäre.

Was ebenfalls fehlt sind die durch die staatlichen Maßnahmen zusätzlich Verstorbenen und Geschädigten, wie verschobene Operationen oder Krebsbehandlungen sowie Menschen, die trotz Krankheit nicht zum Arzt gegangen sind oder Auswirkungen der staatlichen Eingriffe weltweit, auch die durch wirtschaftliche Krisen, die jeweils beträchtlich sind. 

Weiterhin ist die Aufweichung der Pandemiekriterien durch die WHO aus meiner Sicht ein wichtiges Kriterium. Im April 2009 wurde unter Lobbyeinfluss pharmazeutischer Unternehmer in den Kriterien die Notwendigkeit „einer beträchtlichen Anzahl an Toten“ herausgestrichen (Quelle: arznei telegramm 2010; 41: 59-60). Eine weitere Abschwächung für die Ausrufung einer Pandemie gab es im Jahr 2017, wie u.a. in dem Dokumentarfilm „Trust WHO – Wie krank ist die Weltgesundheitsorganisation“  der französischen Filmemacherin Lilian Franck von 2018 detailliert dargestellt wurde.

Um die Weltkrise durch die Coronaviruspandemie in den Griff zu bekommen, braucht es transparentes und wissenschaftliches Vorgehen und eine neutrale, kritische und umfassende Berichterstattung. Diese wünsche ich mir ganz besonders von einem Leitmedium, wie der FAZ. Dieser Artikel, wie weitere Artikel zu diesem Thema in dieser Ausgabe, gehören leider nicht dazu.

Dr. med. Christian Haffner
Facharzt für Allgemeinmedizin, Manuelle Therapie/Chirotherapie

Der Beitrag erschien zuerst bei ACHGUT hier




40 Länder diskutieren darüber, wie man der Welt am besten billige, sichere Energie vorenthalten kann.

Am Donnerstag, dem 9. Juli, berief die Internationale Energieagentur (IEA) eine riesige Online-Veranstaltung ein, wie oben abgebildet, die fälschlicherweise den Titel „Clean Energy Transitions Summit“ trug. Sie brachte Regierungsvertreter von 40 der größten Volkswirtschaften der Welt sowie von Entwicklungsländern zusammen, die für 80% der globalen Treibhausgasemissionen verantwortlich sind. Obwohl der Exekutivdirektor der IEA, Dr. Fatih Birol, den Gipfel als „die wichtigste globale Veranstaltung zu Energie- und Klimafragen im Jahr 2020“ bezeichnete, ging es in Wirklichkeit nur um politisch korrekte Propaganda, bei der die Politiker damit prahlten, wie viel „saubere Energie“ ihre Nationen ins Netz bringen.

Wind- und Sonnenenergie waren die Quellen, die von den Rednern des Aufrufs am häufigsten genannt wurden. Wir wissen jetzt, dass sie alles andere als sauber sind. Sie gehören zu den schmutzigsten und umweltschädlichsten Energiequellen des Planeten, die in dem neuen Dokumentarfilm Planet For The Humans gezeigt wurden.

Die IEA teilte uns im Vorfeld der Telefonkonferenz mit, dass „die Diskussionen auf der Grundlage des Berichtes mit dem Titel World Energy Outlook Sustainable Recovery der IEA erfolgen“. Und was wurde in diesem Dokument empfohlen? Wir müssen „das Wachstum der Wind- und Solar-PV [Photovoltaik] beschleunigen“.

Ein Redner nach dem anderen lobte die Vorzüge der Energiepolitik ihrer jeweiligen Nationen, die sich darauf konzentrieren, große Fortschritte bei der Förderung von Wind und Sonne zu machen. Es schien ihnen nicht in den Sinn zu kommen, dass die Ermöglichung einer wirtschaftlichen Erholung nach der COVID-19-induzierten Abschaltung schwierig und teuer genug sein wird, ohne dass sie versuchen, die weltweite Energieinfrastruktur neu zu gestalten. Es wurde uns gesagt, dass wir zu einer „neuen Normalität“ zurückkehren müssen, in der Maßnahmen gegen den Klimawandel im Mittelpunkt stehen.

Keiner dieser Leute hat darauf geachtet, was in der Welt außerhalb dieses Online-Videotheaters geschieht. Wind- und Sonnenenergie konnten den Anteil der durch fossile Brennstoffe erzeugten Weltenergie kein bisschen verringern. Die eigenen Daten der IEA (siehe unten) zeigen, dass der Anteil von Kohle, Erdgas und Öl an der weltweiten Primärenergieversorgung trotz endloser Klimaabkommen und der Installation von 300.000 industriellen Windturbinen in der ganzen Welt seit Jahrzehnten konstant bei etwa 80% liegt.

Das liegt daran, dass keine moderne Industriegesellschaft mit Wind- und Sonnenenergie arbeiten kann, egal, wie sehr sich Regierungen etwas anderes wünschen und egal, wie viele vom Steuerzahler finanzierte Subventionen sie in die Wind- und Sonnenenergie fließen lassen. Sie sind einfach zu teuer und unzuverlässig.

Planet For The Humans, der von Michael Moore produzierte Film, wurde am diesjährigen Tag der Erde, dem 22. April, kostenlos für die breite Öffentlichkeit freigegeben. Er enthüllt die umfangreichen Schäden, die den Biosystemen der Natur zugefügt werden, wenn riesige Regionen in Wind- und Sonnenkraftwerke umgewandelt werden. Der Film zeigt Tagebauminen, die tief in die Erde gegraben wurden, um Eisen, Aluminium, Kupfer und andere Mineralien zu gewinnen, die für diese Ungetüme benötigt werden. Hunderte Tonnen Zement werden benötigt, um die Basis der 90 bis 150 Meter hohen industriellen Windturbinen zu verankern, die jedes Jahr Millionen von Vögeln und Fledermäusen abschlachten. Und dann gibt es noch unzählige Tonnen Erde und Felsen, die mit Tausenden Pfund Dynamit gesprengt werden, um relativ kleine Mengen an Seltenerdmetallen zu gewinnen, die in China oft mit wenigen Umweltkontrollen produziert werden. Dies ist die Forderung des Gipfels für den Übergang zu sauberer Energie.

Und was gibt es im Hintergrund, um die Lücke zu füllen, wenn der Wind nicht weht oder die Sonne nicht scheint? Fossile Kraftwerke natürlich. Solaranlagen sind in Wirklichkeit nur eine Fassade für mehr, nicht weniger fossile Kraftwerke. Deshalb findet man kaum Stromversorgungsunternehmen, die gegen Wind und Sonne stehen, da sie wissen, dass wenn sie ein neues Reservekraftwerk für fossile Brennstoffe bauen, ihre Energiepreise erhöhen dürfen.

Diese sozialistisch orientierten Länder werden sich nun in der Telefonkonferenz mit einem der Ihren auseinandersetzen müssen, nämlich mit Michael Shellenberger, der sich nach fast einem Vierteljahrhundert falsch verstandenem Umweltaktivismus‘ gegen sie wendet.

Shellenbergers Artikel aus dem Forbes-Magazin vom 20. Juni 2020 mit dem Titel [übersetzt] „Der neue Klimaplan der Demokraten wird gefährdete Arten töten, fürchten Umweltschützer“ relativiert die Umweltschäden durch industrielle Windturbinen. Er sagt: „Es ist bemerkenswert, dass viele der Umweltschützer, die Wildtiere vor industriellen Windturbinen und Hochspannungsleitungen schützen, den erneuerten Green New Deal der Demokraten und ihre Forderung nach einer schnellen Einführung von Windmühlen und Hochspannungsleitungen nicht als Klimatraum, sondern eher als ökologischen Alptraum betrachten“.

Und jetzt hat Shellenberger mit seinem neuen Buch „APOCALYPSE NEVER: Why Environmental Alarmism Hurts Us All“ einen Pfahl ins Herz des Umwelt-Establishments geschlagen, veröffentlicht am 30. Juni. Er schreibt:

„100% erneuerbare Energie würden eine Erhöhung der für Energie genutzten Fläche von heute 0,5% auf 50% erfordern. Wir sollten danach trachten, dass Städte, Bauernhöfe und Kraftwerke höhere und nicht niedrigere Energiedichten haben … Die Beweise sind überwältigend, dass unsere Hochenergie-Zivilisation besser für Mensch und Natur ist als die Niedrigenergie-Zivilisation, zu der uns die Klima-Alarmisten zurückbringen wollen“.

Ich bin davon überzeugt, dass der Schuss des Energiegipfels am 9. Juli 2020 in 40 Ländern nach hinten losgehen wird, um eine vernünftige Energieproduktion in der ganzen Welt zu fördern. Er hat sich offen auf die Seite irrationaler, unproduktiver Bemühungen gestellt, die Notlage von mehr als einer Milliarde Menschen in der Welt zu verschlimmern, die ohne Strom bleiben.

Link: https://www.cfact.org/2020/07/17/40-countries-discuss-depriving-world-of-inexpensive-safe-energy/

Übersetzt von Chris Frey EIKE




Pat Michaels: „Schlimmer als wir dachten“

Klima-Prognosen „schlimmer als wir dachten“

Patrick J.Michaels, 14. Juli 2020

Da die Temperatur im Osten der USA normalerweise um die letzte Juliwoche ihr sommerliches Maximum erreicht, werden wir jedes Jahr um diese Zeit mit müden „Der Klimawandel ist schlimmer als wir dachten“ (WTWT)-Geschichten bombardiert. Die Produktion dieser Geschichten nimmt Zeit in Anspruch, von der Phantasie bis zur endgültigen Fassung, von der Redaktion bis zur Veröffentlichung, so dass sie gewöhnlich lange vor dem Sommermaximum eingereicht wurden. Daher die orchestrierte Angst.

Nun, mit dem WTWT-Narrativ stimme ich überein, aber nicht, soweit es das Klima betrifft, sondern nur, soweit es die Klimamodelle betrifft.

Quelle: Real Clear Energy

Pat Michaels fährt fort mit einer Diskussion über John Christys Analyse der CMIP5-Modelle, die zeigte, dass nur das russische INM-CM4-Modell und seine geringe Sensitivität (~2 ⁰C pro Verdoppelung) der Realität nahe kam. Folgende Graphik stammt aus dem Beitrag von Andy May vom November 2018:

Abbildung 1: Vergleich von 32 Klimamodellen mit Beobachtungen. Die Beobachtungen stammen von Wetterballon- und Satellitendaten. Die beiden Beobachtungsmethoden sind voneinander unabhängig,stimmen aber miteinander überein. Graphk nach Dr. John Christy von der University of Alabama in Huntsville (Christy 2016).

Dann stellt er fest, dass die neuen CMIP6-Modelle noch schlechter sind als CNMIP5:

Man sollte meinen, dass sich die Modellierer während der sieben Jahre zwischen CMIP5 und CMIP6 mit den grundlegenden Fehlern befasst, die alle anderen Modelle gemacht haben. Aber die CMIP6-Modelle sind out und in der Tat „schlechter als wir dachten“. Während ihr Fehler in der tropischen Atmosphäre dem des CMIP5 sehr nahe kommt (was nicht gut ist), ist die Bandbreite der globalen Vorhersagen noch größer als zuvor. Auch das ist kein gutes Zeichen, vor allem, weil dokumentiert ist, dass die Modelle „frisiert“ worden sind, um ein Ergebnis zu geben, welches das Modelliererteam sich wünscht.

Quelle: Real Clear Energy

Das Komische ist, dass er einen Carbon Brief-Artikel von Zeke Hausfather zitiert, der eigentlich sehr gut ist. Die folgende Graphik stammt aus dem Artikel:

Abbildung 2: Was passiert, wenn der kleine Junge, der Wolf rief, seine Stimme erhebt? Carbon Brief

Mr. Hausfather stellt fest, dass Modelle mit hoher Sensitivität oft nicht einmal die Vergangenheit richtig wiedergeben:

Viele Modelle mit hoher Sensitivität liefern schlechte „Nachhersagen“

Klimamodelle liefern sowohl Projektionen der zukünftigen Erwärmung als auch „Nachhersagen“ vergangener Temperaturen. Diese „Hindcasts“ können als Werkzeug zur Bewertung der Leistung von Modellen verwendet werden, obwohl historische Temperaturen nur eine von vielen hundert verschiedenen Variablen sind, welche die Klimamodelle erzeugen.

Eine Reihe der Modelle mit höherer Sensitivität im CMIP6 hatten Schwierigkeiten, historische Temperaturen genau „hindcasten“ zu können. Einige zeigen so gut wie keine Erwärmung über das 20. Jahrhundert – wobei Kühleffekte durch Aerosole die steigenden Treibhausgaskonzentrationen in der Atmosphäre fast vollständig ausglichen – gefolgt von einer massiven Beschleunigung der Erwärmung während der letzten Jahrzehnte. Andere zeigen eine zu starke Erwärmung über die letzten 150 Jahre.

Quelle: Carbon Brief

Dann zeigte er folgenden ausgezeichneten Vergleich von Klima-Sensitivitäten, abgeleitet mittels vieler verschiedener Verfahren:

Abbildung 3: Reale Daten (instrumental gemessen) ergeben eine Alfred E. Neuman (What me worry?)-Klimasensitivität. Quelle: Carbon Brief

Klimasensitivitäten, die aus tatsächlichen Beobachtungsdaten (instrumentell) abgeleitet werden, ergeben Werte, die von harmlos bis leicht besorgniserregend reichen. Es ist auch wichtig zu beachten, dass die Gleichgewichts-Klimasensitivität (ECS) in Wirklichkeit ein Fake-Parameter ist. Was zählt, ist die transiente Klimareaktion (TCR), die im Allgemeinen nur etwa 2/3 der ECS ausmacht. Also würde ein ECS von 2 ⁰C wahrscheinlich einem TCR von 1,3 ⁰C entsprechen:

Abbildung 4. Gleichgewichtsklima-Sensitivität (ECS) und transiente Klimareaktion (TCR). (IPCC)

Im 3,5 °C ECS-Fall kommt es zum Zeitpunkt der Verdoppelung des atmosphärischen CO2 zu einer Erwärmung von etwa 2,0 °C. Die verbleibenden 1,5 °C der Erwärmung soll in den folgenden 500 Jahren eintreten … Aber sie wird wahrscheinlich deutlich innerhalb des Rauschens der natürlichen Variabilität liegen … Und ehrlich gesagt wird sich niemand die Mühe machen, diese Vorhersagen im Jahr 2520 zu überprüfen.

Link: https://wattsupwiththat.com/2020/07/15/pat-michaels-worse-than-we-thought/

Übersetzt von Chris Frey EIKE




Klima-Sommerdürre 2019/2020 – Medienfeuer aus allen Rohren

Das klimawissenschaftliche Magazin Spektrum vermeldet gerade, daß nach den „Jahrhundertsommern“ 2018 und 19 (20 ist in Arbeit) den deutschen Böden „145 Gigatonnen“ Wasser fehle (2019). Die Studie dazu stammt vom GeoForschungsZentrum in Potsdam, die auf demselben Campus beheimatet sind wie Schellnhubers Märchenstube – was ein Zufall. Man hat das nicht durch Stich-Grabungen oder die üblichen Regen-Auffangbehälter herausgefunden, sondern durch Satelliten-Messungen des irdischen Gravitationsfeldes (GRACE-FO-Mission). Ob die Erdbeschleunigung g tatsächlich als Mittel zur exakten (!) Bestimmung des Boden-Wassergehaltes taugt, überlasse ich der Expertise unser mitlesenden Physiker. Ich zweifle aber an der Genauigkeit und vermute eine Wissenschaftlichkeit der Methode in der Nähe von Manns Hockeyschläger-Kurve.

Wenn es denn stimmen würde, welche Folgen hätte weniger Wasser im Boden? Nun, die oberen Schichten könnten den Pflanzen weniger Wasser anbieten – und das führt sogleich zum nächsten Thema, der „sanften Revolutionärin“ des Gartenbaus, Bio-Bäuerin Julia Wolf, die im südlichen Burgenland Österreichs alte und neue Sorten gegen die Folgen des „menschgemachten Klimawandels“ testet. Eine Wiener Journalistin porträtiert die Bäuerin im für die linke Tageszeitung „Frankfurter Allgemeine“ und meint eingangs,

Die viel zu heißen, trockenen Sommer, die milden Winter, die heftigen Regenfälle und anschließend verkrusteten Böden, auf denen nichts mehr wachsen will: Wer einen Garten pflegt, merkt deutlicher als andere, wie rasant sich das Klima ändert.

Wovon schreibt die Dame? Von ihrem Vorgarten im Grünwähler*innen-Bezirk? Ich selber, zugegebenermaßen nur Mit-Gärtner in einem Schrebergärtchen, habe im Frühjahr nur ein Problem bemerkt: Es war viel zu kalt für meine Tomaten- und Basilikum-Pflänzchen. Erst als der Sommer sich Anfang Juni endlich halbwegs bemerkbar machte und es ordentlich regnete (sic! Dürre?), sprießten die Pflanzen. Ähnliches hatte bereits die Jenaer Tageszeitung über die Kirschernte in Ost-Thüringen berichtet: Nix Dürre, Kälte hat den Erntezeitpunkt einmalig weit nach hinten verschoben und die Ausbeute ordentlich einbrechen lassen (daher 6 € pro Pfund – schmecken aber gut).

Dazu paßt auch, daß die FAZ bemerkt, Pflanzkalender würden nicht mehr stimmen. Richtig, der natürliche Klimawandel beschert uns jetzt bereits deutlich veränderte Bedingungen. Die alte Regel, empfindliche im Haus gezogene Kulturpflanzen wie Tomaten erst nach den Eisheiligen in den Garten zu stellen, galt schon 2020 nicht mehr. Wir sehen einer neuen durch die Sonnenzyklen verursachten Kühlphase wie in den 1970ern entgegen – mit dem Unterschied, daß sie über 100 Jahre dauern wird und um 2.100 ihr Temperaturminimum erreichen wird.

Wenn man die Weltuntergangs-Rhetorik der Wiener Märchenerzählerin wegläßt, ist die Methodik der Biobäuerin sogar empfehlenswert:

(..) alte Gewohnheiten müssen fallen – und der Garten besonders sorgsam behandelt werden.

<< Das wichtigste ist immer die Behandlung des Bodens: Aufbau von Humus, Versorgung mit Nährstoffen, und die Grünabfälle direkt am Grundstück in Kompost verwandeln.>>

Also das, was Michael Limburg den Journalisten immer sagt: anpassen! Wir Menschen sind Weltmeister darin. Wir sind Affentiere, die es geschafft haben, jeden Kontinent außer Antarktika dauerhaft zu besiedeln; während unsere biologischen Vettern immer noch in der tropischen Zone auf den Bäumen hocken. Übrigens gibt es in den Alpen einen bekannten Züchter, der es tatsächlich hinbekommt, Zitrusfrüchte oben auf dem Berg anzubauen.

Deutlich panischer als der FAZ-Artikel ist, wie zu erwarten, ein Beitrag des ZDF.

Klimawandel und Dürre – Größte Bedrohung für den Wald seit 200 Jahren

Heißt das, das „Waldsterben“ in den 1980er Jahren war nur eine Medien-Ente? Damals gab es die Erzählung vom kapitalistischen Klimakollaps in den Medien noch nicht, so daß der Wald noch an der Schwefelsäure, die in Form von Sulfaten aus Fabrikschloten kommt, verrecken mußte. Heute ist es die Wasserknappheit, die von der CO2-bedingten „Hitze“ verursacht werde. Nebenbei: Auch wenn selbst Ströme, wie der Rhein im Hochmittelalter, sommers trocken fallen können, würde eine Klimaaufheizung eine Region feuchter statt trockener machen, wie unser Referent Stefan Kröpelin, der moderne „englische Patient“, Laszlo Almásy, in seinem Vortrag auf der IKEK-12 in München betonte. Als die Ur-Ägypter in der „Höhle der schwimmenden Menschen“ in der heute besonders trockenen Ost-Sahara die Wände bemalten, war es heißer als heute.

Dennoch zitiert das ZDF auf seiner Internetseite Experten, die behaupten

Wir erleben gerade die schwerwiegendste Waldschaden-Situation (…) seit Beginn der geregelten nachhaltigen Waldbetreuung und Waldbewirtschaftung, das heißt also seit mehr als 200 Jahren.“ (Michael Müller, Waldschutz-Professor, TU Dresden)

Laut Angabe des Landwirtschaftsministeriums hätte Deutschland 160 Millionen Kubikmeter Schadholz auf 245.000 Hektar Fläche. Dazu kann man nur sagen, daß Bauern, Förster und betroffene Forscher gerne jammern oder den Teufel an die Wand malen, um an Subventionen oder weitere Förderung zu kommen. Zusätzlich interessant ist, daß hauptsächlich Fichten bei Trockenheit abstürben. Wie schon unser Leser-Autor Karsten Leibner betonte, ist Wassermangel in der Tat auf menschliche Tätigkeit zurückzuführen, allerdings auf lokale Baufehler, die vor allem Bergkuppen austrocknen. Hinzu kommt die Empfindlichkeit von Monokulturen, die zum Beispiel in Thüringen und Brandenburg nach Kahlschlag für Kriegs-Reparationen angepflanzt wurden. Wenn Sie über etliche Quadratkilometer nur Fichten oder Waldkiefern stehen haben, geht logischerweise gleich der ganze Bestand drauf, wenn zum Beispiel ein wirtspezifischer Parasit einen riesigen gedeckten Tisch vorfindet. Im klüger angelegten Mischwald hingegen fänden Schädlinge kam etwas zu essen und könnten zusätzlich weniger Durchseuchung erzeugen.

Die Monokulturen, die der Dresdner Waldschützer Müller nicht erwähnt, sondern nur auf Dürre, Stürme und Massen von Schadinsekten verweist, müssen rückgebaut werden, was allerdings 50-100 Jahre dauere. Richtig, denn eine deutsche Eiche wächst langsam und erreicht erst nach einem halben Jahrhundert rentable Masse. Eine Waldkiefer hingegen kann man nach 15 Jahren schon ernten. Glück für den Professor Müller, da ist das Problem so langfristig, daß vor allem sein Job und sein Gehalt „nachhaltig“ gesichert ist; zudem die Pfründen der anderen Klimamärchen-Gewinner. In Zahlen: In den nächsten vier Jahren stellen Bund und Länder in summa rund 800 Millionen Euro für Umbau und Aufforstung (und Beratung/Forschung?) zur Verfügung.

Ein Schmankerl zum Schluß: Ein Wald-Lobbyist schlägt vor, fremde Baumarten wie die Libanon-Zeder in Deutschland anzupflanzen. Das ist ein mediterraner Nadelbaum von der Levante. Und der soll im kälter werdenden Mitteleuropa heimisch werden?