1

Holzpellets: Das schmutzige Geschäft mit der „sauberen“ Energie*

Aus Anlass der Klimakonferenz in Madrid vom 2. bis 13. Dezember 2019 veröffentlichten Vertreter des Wissenschaftsbeirats der Europäischen Akademien (EASAC) eine erneute Stellungnahme zur Nutzung von Holzbiomasse als Energiequelle. Bereits in zahlreichen früheren Mitteilungen hatte die EASAC gewarnt, dass Holzverbrennung zu Unrecht als „klimaneutrale“ Energieerzeugung eingestuft wird. Auch die einst hoch gelobten, stäbchenförmigen Holzpellets liefern laut EASAC keinen Beitrag zum „Klimaschutz“, im Gegenteil: Holz setze bei der Verbrennung pro Kilowattstunde mehr CO2 frei als Kohle.

Da einschlägige Warnungen aus berufenem Munde bislang konsequent ignoriert wurden, klang die Mitteilung der Wissenschaftler nachgerade verzweifelt. Michael Norton von der EASAC betont, dass hinsichtlich der Biomasse-Nutzung ein gravierender Unterschied zwischen dem Stand der Wissenschaft und realer Politik bestehe. Er bezeichnet es als einen gefährlichen Irrweg, dass die energetische Nutzung von Holzbiomasse in der EU als Beitrag zur Absenkung des CO2-Ausstoßes anerkannt ist. Das Fällen und Verbrennen von Bäumen in derzeitigem Umfang werde im Gegenteil den CO2-Gehalt in der Atmosphäre wahrscheinlich für Jahrzehnte um bis zu 30 Prozent erhöhen.

Gravierende ökologische Schäden sind bereits entstanden, weil britische und französische Kohlekraftwerke teilweise oder ganz auf die Verbrennung von Importholz aus den USA, Kanada, Russland und Osteuropa umgestellt haben. Ganze Wälder werden abgeholzt, da für den Betrieb eines einzigen Kraftwerksblocks bis zu 850 000 Tonnen Holz pro Jahr benötigt werden. Obwohl die holzverbrennenden Kraftwerke nun wesentlich mehr CO2 ausstoßen als vorher, dürfen die Energiekonzerne behaupten, dass sie ihre Emissionen gesenkt hätten. Der Strom gilt als „klimaneutral“.

Ganze Wälder werden abgeholzt

Als Folge der weltweit wachsenden Nachfrage nach Holz nimmt der illegale Holzeinschlag seit Jahren zu. In Deutschland hat sich der Holzverbrauch seit Anfang der 90er Jahre nach Angaben des Zentrums Holzwirtschaft der Universität Hamburg verdoppelt. 50 Prozent des Holzaufkommens werden mittlerweile energetisch genutzt. In Bayern ist „Energieholz“ der bedeutendste erneuerbare Energieträger. Unternehmen wie Vattenfall erhalten ihre Kohlekraftwerke mit Holzpellets aus nordamerikanischen Wäldern am Leben. Drei Millionen Tonnen Pellets hat das US-Unternehmen Enviva 2019 hergestellt und per Schiff an „klimabewusste“ Stromkonzerne geliefert.

Angeblich werden die Pellets aus Baumkronen, krummen Stämmen und Sägemehl hergestellt. Auch die in Deutschland hergestellten Pellets haben nach Angabe des Deutschen Energieholz- und Pellet-Verbands eine quasi lupenreine Herkunft. Sie bestehen (entweder) komplett aus Sägeholzresten, die bei der Verwertung von zertifiziertem Holz anfallen, heißt es in einer Reaktion des Verbands auf den EASAC-Bericht, „oder sie stammen in Europa und fast überall in der Welt aus nachhaltiger Waldnutzung“.

„Fast überall“? Die schwammige Formulierung lässt ahnen, dass die Herkunftsangaben oft nicht viel wert sind. Man erinnert sich: In zahlreichen in Rumänien spielenden Filmen durchqueren ein oder mehrere Radlader mit Dutzenden, wahrscheinlich frisch geschlagenen Baumstämmen die Hintergrundkulisse. Auch Tropenholz wird in großen Mengen nach Europa importiert. Laut „Süddeutscher Zeitung“ („SZ“) gab es EU-weit seit Inkrafttreten der EU-Holzhandelsverordnung im März 2013 bis Anfang 2016 nur 346 Prüfungen, bei denen 124 Proben genommen worden seien. Bei festgestellten Verstößen seien lächerlich niedrige Strafen verhängt worden. Einige Länder kontrollieren laut den „SZ“-Recherchen Tropenholzimporte überhaupt nicht.

Der Ausstoß von Feinstaub, Ruß und Dioxinen ist bei Pellet-Heizungen höher als bei Öl- und Gasheizungen. Trotzdem wird das Heizen mit Pellets als „umweltverträglich“ gewertet – dieser Begriff ist wegen des geplanten Kohleausstiegs offenbar noch dehnbarer geworden.

Deutschland ist weltweit der umsatzstärkste Absatzmarkt für Holzpellets. Allein von 1999 bis 2008 wurden rund 100 000 Pellet-Anlagen in Privathaushalten installiert. Ausgelöst haben den Boom hohe Fördermittel, die Deutschland und andere Länder für die Umstellung auf Pelletheizungen zahlen.

Mythos vom „neutralen“ Kreislauf

Die EASAC bezeichnet es als einen schweren Fehler bei den Berechnungsregeln für die CO2-Emissionen, dass die Länder die CO2-Emissionen von Biomasse gemäß dem EU-Emissionshandel nicht auflisten müssten. Dasselbe gilt für das UN-System. Zugrunde liegt die Vorstellung, das Verbrennen von Holz sei nur Teil eines CO2-Kreislaufs, weil die Bäume, die verbrannt werden, zuvor CO2 aus der Atmosphäre aufgenommen haben. Es werde somit kein zusätzliches CO2 in die Umwelt ausgestoßen wie beim Verbrauch von Kohle und Öl. EASAC-Vertreter Norton weist diese Idee zurück, denn es handele sich um einen massiven CO?-Ausstoß in sehr kurzer Zeit: „Da geht ein CO2-Schub in die Atmosphäre und bleibt dort, bis neue Bäume nachgewachsen sind. Was bekanntlich nicht über Nacht passiert, sondern 30, 40 oder sogar 60 Jahre dauert. Für das Klima ist es, als würde man den Teufel mit dem Beelzebub austreiben.“

Forstwirten, Energieunternehmen und Politikern aber wurde eine finanzielle Win-Win-Situation beschert. Da Länder wie Deutschland unter Zugzwang stehen, ihre Klimaziele zu erreichen, müsste die Bundesregierung ohne Anrechnung der Holzverbrennung die CO?-Bilanz nach unten korrigieren und würde alsdann die eigenen „Klimaziele“ sowie die EU-Vorgaben umso gravierender verfehlen. Um nicht vertragsbrüchig zu werden, müsste Deutschland dann noch mehr CO2-Zertifikate als bisher schon von Ländern aufkaufen, die ihre Ziele übererfüllen.

Unterdessen fordert eine Klage von Umweltschützern aus fünf EU-Mitgliedstaaten das „Aus“ für die Förderung von Biomasse durch die EU.

===========================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  24. April 2020, S.12; EIKE dankt der PAZ-Redaktion sowie der Autorin Dagmar Jestrzemski  für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/

===========================================================




Habeck wie oft ohne Ahnung, dafür aber weltmännisch besonders klug

Die Inkubationszeit (von „Corona“) verdoppelt sich alle zwei Tage ….

Habeck hat schon bei der Diskussion zur Pendlerpauschale gezeigt, dass er gerne redet, ohne Ahnung vom Sachthema zu haben. Nun ist dieses Thema Vergangenheit und Corona aktuell. Klar muss ein GRÜNER, den unsere Medien schon als (fast) designierten Kanzlerkandidaten bauchpinseln, zeigen, wie meisterhaft er die Krise bewältigen würde, so er schon diese Position einnähme.

Bei Maybrit zeigte er, wie gut er das kann [2]. Und verkündete seine Lösungen und dann sein fundiertes Wissen auf dem es beruht, mit der Feststellung zur Coronainfektion: [1] „ … Inkubationszeit verdoppelt sich alle 2 Tage“
Dieses Fundamentalwissen zu einem wichtigen Parameter der aktuellen Pandemie übertrumpft endlich wieder einmal das übliche GRÜN-Niveau, denn es erreicht, wenn nicht gar übersteigt auf der Peinlichkeitsskala wohl das von Özdemirs „Gigabitspeichern“ und Annalenas „Netzspeicher“.

Inkubationszeit

Nicht jeder Leser*in wird sofort ohne nachzusehen Details zur Inkubationszeit und speziell der von „Corona“ kennen. Wohl die Meisten gehen aber auch nicht in eine Talkshow und präsentieren sich als Coronakenner und damit als deren „großer Krisenlöser“.

Das Robert Koch Institut sagt zur Inkubationszeit von Corona [3]: Inkubationszeit und serielles Intervall
Die Inkubationszeit gibt die Zeit von der Ansteckung bis zum Beginn der Erkrankung an. Sie liegt im Mittel (Median) bei 5–6 Tagen (Spannweite 1 bis 14 Tage) (21, 52).

Dass die Zeit, welche Habeck angegeben hat, vollkommen daneben liegt ist das Eine. Seine Aussage zeigt jedoch, dass er den Begriff selbst nicht – und wenn, dann falsch – verstanden hat, denn: Diese Zeit verändert sich nicht, da sie eine Eigenschaft des Krankheitserregers ist.

Man kann nur vermuten, dass Habeck irgend etwas, wie die Anzahl Infizierter und davon abgeleitet die kumulierte Fallzahl meinte. Zumindest sieht die kumulierte anfangs immer sehr schlimm – überproportional steigend – aus (Bild 3), bis auch ein Virus erkennen muss, dass nichts endlos in den Himmel wächst.
Wie die Bilder 1 und 2 zeigen, muss die Summenkurve mit dem Zurückgehen der gemeldeten Fallzahlen bald stetig und deutlich sinken.

1
Bild 1 Fallzahlverlauf Deutschland. Quelle: RKI, Stand 23.04.2020

2
Bild 2 Anzahl gemeldeter Fälle in Bayern. Quelle: RKI, täglicher Lagebericht Stand 17.04.2020

3
Bild 3 Fallzahlverlauf Deutschland kumuliert. Quelle: RKI, Stand 23.04.2020

Komischer Weise störte keinen Teilnehmer dieser illustren Runde der Unsinn, den Habeck von sich gab. Niemand zeigt im Video auch nur den Anflug einer Reaktion. Bei einigen lässt sich vermuten, dass es ihnen mangels eigenem Wissen auch gar nicht auffiel.

Konkret sei Ministerin Giffey hervorgehoben. Man muss Habeck inzwischen schon schützen. Denn beispielsweise Ministerin Giffey weicht im „Wissen“ allerhöchstens in homöopathischen Dosen von dem des promovierten Märchenerzählers Habeck ab (rein persönliche Meinung des Autors, deren Belegung keinesfalls mit wissenschaftlich gesicherten Daten fundiert ist). Sie gefällt sich in der Rolle einer gütigen „Landesmutter“ die fest darauf vertraut, dass andere schon das Richtige beschließen werden, dem Sie dann zustimmen wird.

Auf die Idee, wie Habeck mit „Fachkompetenz“ brillieren zu wollen, käme sie wohl nie. Sie redet zwar gern und viel, doch meistens konsequent um den Brei herum und so, dass niemand auf die Idee kommt, sie würde irgend einen eigenständigen Gedanken beitragen. Allerdings kann sie auf Fragen gut Fragen in den Raum stellen, um von ihrer Inhaltsleere abzulenken.

Das öfter zutage tretende (Un-)Wissen von Habeck kann und darf man also nicht mehr als sein „Alleinstellungsmerkmal“ titulieren.

Und so zeigt sich, dass nicht nur die Daten zu „Corona“ immer noch katastrophal sind [4], auch das Wissen von Politikern, die nun das Geld in fast einer „Sozialwut“ aus allen Fenstern hinausschmeißen, scheint es weiterhin zu sein.

Quellen

[1] Maybrit Illner Spezial, YouTube Video mit Auszug 07.04.2020: Inkubationszeit verdoppelt sich alle 2 Tage

[2] Maybrit Illner Spezial, YouTube Video vollständig 06.04.2020: Covid-19

[3] RKI Stand: 17.4.2020: SARS-CoV-2 Steckbrief zur Coronavirus-Krankheit-2019 (COVID-19)

[4] Eike 21. April 2020: Corona und die Genauigkeit von Statistik




Antwort – 3 –  auf den Artikel von Justus Lex „Dürfen die das ?“

In Zeiten, wo eine Frau Künast in 1. Instanz als „Stück Scheiße“ oder Frau Weidel als „Nazi-Schlampe“ gerichtlich abgesegnet wurden, nehme ich das mal als „Satire“ hin; stilvoll ist das in meinen Augen nicht.

Auch wie Frau Bahner von ihren Berufskollegen abqualifiziert wurde, war bemerkenswert. Ich persönlich gehe nicht davon aus, dass sie ihr Examen „im Lotto gewonnen“ hat.

Merkwürdig fand ich, dass die eigentliche Frage, nämlich der Schutz unserer Grundrechte, bei den Diskussionsbeiträgen eine nicht so große Rolle gespielt hat.

Laut Tagesschau.de gibt es inzwischen eine neue Entscheidung des sog. Bundesverfassungsgerichtes (siehe Art. 146 GG) zu der Frage, ob das in den diversen Verordnungen zur Corona-Krise enthaltene  Demonstrationsverbot zulässig sei. Zur Erinnerung Art 8 GG:

Grundgesetz für die Bundesrepublik Deutschland
Art 8 

(1) Alle Deutschen haben das Recht, sich ohne Anmeldung oder Erlaubnis friedlich und ohne Waffen zu versammeln.

(2) Für Versammlungen unter freiem Himmel kann dieses Recht durch Gesetz oder auf Grund eines Gesetzes beschränkt werden.

Beides ist ja nach den Corona-Verordnungen verboten. Nun gibt es aber eine neue aktuelle Entscheidung des BVerfG zu den Versammlungsverboten:

Im konkreten Fall hatte die Stadt Gießen zwei Versammlungen verboten, die unter dem Motto „Gesundheit stärken statt Grundrechte schwächen – Schutz vor Viren, nicht vor Menschen“ angemeldet worden waren. Sie sollten heute und morgen in der Innenstadt stattfinden. Der Veranstalter gab an, dass die Zahl der Teilnehmer auf etwa 30 Personen begrenzt werde. Ein ausreichender Abstand zwischen den Teilnehmern werde gewährleistet.

Die Stadt verbot die Demonstrationen. Begründung: Nach der hessischen Corona-Verordnung seien Versammlungen von mehr als zwei Personen, die nicht dem gleichen Hausstand angehören, generell verboten. Der Veranstalter legte Widerspruch ein. Dieser wurde vom hessischen Verwaltungsgerichtshof zurückgewiesen.

Das Bundesverfassungsgericht hob diese Entscheidung nun auf. Die hessische Verordnung enthalte kein generelles Verbot von Versammlungen von mehr als zwei Personen. Vor einem Verbot müssten alle Umstände des Einzelfalls und damit auch die zugesicherten Schutzmaßnahmen hinreichend geprüft werden. Dies sei nicht geschehen. Damit habe die Stadt Gießen den Antragsteller offensichtlich in seinem Grundrecht auf Versammlungsfreiheit verletzt.

Gießen reagierte ganz großherzig umgehend auf die Karlsruher Entscheidung: Die Versammlung sei jetzt zugelassen, sagte Bürgermeister Peter Neidel. Man habe die Kundgebung auf eine Stunde und die Teilnehmerzahl auf maximal 15 begrenzt. – Rache muss sein, kann man da nur feststellen. Wollen doch sehen, wer hier was zu bestimmen hat. Was soll man von solch einem Bürgermeister halten? Ich spare mir den Kommentar.

Ganz spannend ist m.E. ein Interview der Freien Welt mit Dr. Ulrich Vosgerau (https://www.freiewelt.net/interview/die-politik-war-ueberhaupt-nicht-vorbereitet-10080969/) Das ist der Jurist und Staatsrechtler, der trotz des Art. 5 GG quasi über Nacht den zugesagten Lehrstuhl in Münster verloren hat, weil er eine Meinung vertreten hat, die irgendjemanden nicht gefiel. Diese Meinung können Sie nachlesen in seinem Buch: „Die Herrschaft des Unrechts“. Googeln Sie mal den Art. 5. GG:

Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern…. Eine Zensur findet nicht statt.

Aber das kennen wir ja schon von Eva Herman und vielen anderen. Im Art. 5 steht leider nicht, dass man, wenn man seine Meinung frei äußert, u.U. ausgegrenzt wird. In der Schule habe ich mal gelernt, dass dies ein Zeichen von Faschismus sei. Was das erstaunliche ist, dass man dann nie so genau erfährt, wem diese Meinung nicht so gut gefallen hat usw. Und unsere Alt-Parteien beschimpfen ja immer die anderen als Populisten, Faschisten, rechts und bald nur noch rechtsextrem und merken dabei gar nicht, dass diese Aussagen auf sie selbst zurückfallen.

 

Zu dem Interview: 

Frage: Wie gut war oder ist Deutschland auf einen Katastrophenfall wie die Corona-Pandemie vorbereitet?

Ulrich Vosgerau: „Die Politik war überhaupt nicht vorbereitet, obwohl sie es hätte sein müssen.“

Bereits 2012 war die Corona-Epidemie in einer Art Planspiel durchgespielt worden unter Federführung des Robert-Koch-Instituts (RKI). Die Ergebnisse sind dem Deutschen Bundestag vorgelegt worden (Bundestags-Drucksache 17/12051).

Dort findet man die detaillierte Vorhergesage: Eine Variante des Sars-Virus wird Fieber, trockenen Husten und Atemnot auslösen und das Virus stammt von Wildtiermärkten in Südostasien her. Das Szenario von 2012 ging von einem sieben Millionen Toten in Deutschland aus. Seit 2012 wäre sehr viel Zeit gewesen, die Erkenntnisse der Großübung und der Studie zu nutzen, um Vorräte an Schutzkleidung, Atemmasken und Beatmungsgeräten anzulegen und Krankenhausbetten zu vermehren und nicht zu vermindern. Hat man aber nicht gemacht.

Frage: Die Regierungen von Bund und Ländern haben in kurzer Zeit viele bürgerliche Freiheitsrechte eingeschränkt. Das Recht auf Bewegungsfreiheit, Versammlungsfreiheit, wirtschaftliche Betätigung… Können Sie uns erklären, auf welcher verfassungsrechtlichen Grundlage das geschieht?

Ulrich Vosgerau:Das passiert auf gar keiner verfassungsrechtlichen Grundlage, und hier liegt ein wichtiges Problem.

Notstandsgesetze gelten nur für den Verteidigungsfall. Wir haben allenfalls eine „Naturkatastrophe“, und diese rechtfertigt den Einsatz der Bundeswehr im Innern, so wie bei der Hamburger Sturmflut von 1962, aber nicht die Einschränkung von Grundrechten. Denn das besondere Verwaltungsrecht ist kein allgemeines Notstandsrecht. „Das Infektionsschutzgesetz ermächtigt die Behörden, infizierte Personen, die also eine Gefahr für ihre Umwelt darstellen, notfalls auch gegen ihren Willen zeitweise zu internieren. Aber es ist sicher nicht dafür gedacht, lauter gesunde Personen, bei denen bislang keinerlei Indiz, keinerlei Anfangsverdacht auf eine Infektion besteht, auf unabsehbare Zeit aus dem Verkehr zu ziehen.
Einfaches Beispiel: Die Polizei ist ermächtigt, einen betrunkenen Mann, der irgendwo am Abend randaliert, in Gewahrsam zu nehmen, bis er sich wieder beruhigt hat. Man hielt es aber bislang nicht für gerechtfertigt, am Abend einfach allen Männern den Ausgang zu verbieten, damit sie sich gar nicht erst betrinken können.

Frage: Gibt es unter diesen Maßnahmen welche, von denen Sie als Staatsrechtler sagen würden, dass sie verfassungsrechtlich bedenklich sind? „

Die Anwendung des Polizei- und Ordnungsrechts ist kein allgemeines Notstandsrecht, sondern steht immer unter dem Vorbehalt der Verhältnismäßigkeit. D.h., es müsste für jede einzelne Maßnahme sorgfältig abgewogen werden, ob es nicht ein milderes Mittel gibt, also z.B. die Isolierung der Infizierten und die Abschottung der Alten- und Pflegeheime ohne eine generelle Stilllegung der gewerblichen Wirtschaft.  Jeder muss selbst entscheiden, ob er z.B. eine Buchhandlung aufsuchen will oder nicht.

Frage: Wie handlungsfähig ist die Gerichtsbarkeit und die Verfassungsgerichtsbarkeit in dieser Situation? Besteht aus ihrer Sicht noch eine ausreichende rechtliche Kontrolle der Politik? „

Ulrich Vosgerau: Die Rechtsprechung vielen, Anlass zur Sorge; sie wirkt wenig effizient. In den zahlreichen einstweiligen Rechtsschutzverfahren, die bisher schon angestrengt worden sind – gegen Ausweisungen aus norddeutschen Landkreisen bzw. dem Bundesland Mecklenburg-Vorpommern, gegen Ausgehverbote und Verbote von Gottesdiensten, gegen faktische Berufsverbote – haben die Kläger im einstweiligen Rechtsschutz alle verloren, also z.B. sogar in den Fällen, wo Bürger mit Zweitwohnsitz ausgewiesen wurden, was ich nicht für möglich gehalten hätte.

„Dass wir insofern in einem Tollhaus leben, sehen wir etwa am Fall von Monika Maron. Da lebt eine 78jährige Frau – voll und ganz Risikogruppe, sie sollte sich also möglichst in Sicherheit bringen! – auf einem Dorf allein in einem Haus, und die Behörde ordnet aus Infektionsschutzgründen an, dass sie ins überfüllte Berlin zurückkehren soll. Hier in Berlin ist es ja offensichtlich so: die ganzen Neuinfektionen werden wohl zu einem Großteil aus dem Öffentlichen Personennahverkehr kommen, den man nicht stilllegen will bzw. nicht stilllegen kann, und es nützt nichts, den ÖPNV nicht mehr zu benutzen, denn wenn man im Supermarkt ein Brot kaufen will, trifft man auf lauter Menschen, die gerade mit besten Infektionschancen aus der U-Bahn ausgestiegen sind. Das wäre in Mecklenburg anders.“
Ein Staat, der seit dreißig Jahren die ökonomische Globalisierung vorangetrieben hat und u.a. dadurch auch sagenhafte Steuereinnahmen hatte, hätte eben Vorsorge für die Nebenfolgen der Globalisierung treffen müssen – ob das nun die neue Völkerwanderung ist oder das neueste Fledermausvirus aus dem Reich der Mitte. 

Frage: „Derzeit stehen Euro-Bonds unter dem Namen „Corona-Bonds“ wieder auf der Agenda. Inwieweit ist diese Vergemeinschaftung der Schulden mit dem deutschen Grundgesetz und den europäischen Verträgen vereinbar?“

Ulrich Vosgerau: Gar nicht!

Er führt aus, dass wir die Euro-Bonds ja faktisch schon längst haben, nämlich in Gestalt der Anleihenkäufe durch die EZB. In Deutschland sei ja offenbar sogar die SPD gegen „Corona-Bonds“. Das Problem ist nur, dass sich gleichzeitig alle darauf geeinigt zu haben scheinen, dass die Corona-Krise in den überschuldeten Eurostaaten wie Italien aus dem ESM-Mechanismus bezahlt werden soll. Hätten die Italiener sich seit 1992 jemals an den Vertrag von Maastricht gehalten, hätten sie ja die Schulden nicht und könnten selber zu niedrigen Zinsen Geld aufnehmen. Dafür sei der aber auch nicht da!

Ich habe daher in der letzten Zeit einmal zu sondieren versucht, ob Kläger, die etwa schon im Zusammenhang mit der Errichtung des ESM und dann den Anleihekäufen durch die EZB aktiv waren, heute bereit wären, gegen die Zweckentfremdung des ESM-Mechanismus zu klagen, wenn man ihn schon nicht wegbekommt. Aber viele scheinen auch des Klagens müde, der EuGH ist parteiisch, das Bundesverfassungsgericht oft feige und politikhörig. Das hat manchen Kläger entnervt.“

Ergebnis: Es ist also anzunehmen, dass nun eine Klagewelle gegen die Anordnungen der Bundes- und Länderregierungen anrollt, den die vorsichtigen Änderungen dürften gegen eine Reihe von Grundsetzen des Grundgesetzes verstoßen, z.B. den Gleichheitsgrundsatz.




Peak-Oil mal richtig: US-Ölpreise zum Teil im Negativen, um Rohöl loszuwerden

Der Ölmarkt steht vor einer Flut von weiter sprudelndem Rohöl, einzuhaltenden Kaufverträgen und fehlenden Lagermöglichkeiten. Einige Händler in Texas sahen sich dazu veranlasst, einige Ölmengen für 2 USD pro Barrel anzubieten. Das erhöht das Risiko, dass die Produzenten möglicherweise bald zahlen müssen, um Rohöl loszuwerden, berichtete Yahoo Finance am Montag. Gemäß der New York Times müssen Ölfirmen möglicherweise die Quellen schließen [was einen großer Aufwand bedeutet, sie wieder zu öffnen] oder zusehen, bis die Tanklager überlaufen.

Update von Twitter folgend durch den Übersetzer:

Original auf Twitter, Rebecca Jarvis –  Ölpreis 1,11 $…. buchstäblich auf 0$ 20.April

Antwort an Rebecca Jarvis auf Twitter, Link zu historischen Ölpreisen (Im Twitter-Original auf die Grafik klicken)

https://twitter.com/RebeccaJarvis/status/1252290110852382720 …

US West Texas Intermediate Rohölpreis für die Lieferung im Mai – ein wichtiger amerikanischer Öl-Benchmark – fiel um 15,71 USD oder 86% auf 2,66 USD pro Barrel, der größte seit 1983 verzeichnete Rückgang an einem Tag, laut Market Watch.

Seit Jahresbeginn sind die Ölpreise aufgrund der zusammen kommenden Wirkung des Coronavirus lock-down und eines Zusammenbruchs des  OPEC+ agreement um mehr als 90% gesunken. Der Preisverfall hat Rohölproduzenten laut Yahoo Finance letzte Woche gezwungen , 13% der amerikanischen Bohrflotte stillzulegen.

Goldman Sachs warnte Anfang April, dass Produzenten, insbesondere die in Binnenpipelines einspeisen, wie in den USA, Kanada und Russland, mit zunehmenden Problemen konfrontiert sein werden. Laut CNBC  gibt es keinen Abnehmer, an den sie das wachsende Angebot [an Öl und Gas] loswerden können.

Angesichts der Kosten für die Schließung eines Brunnens wäre ein Produzent bereit, jemanden für die Entsorgung eines Ölbarrels zu bezahlen, was negative Preise in Binnengebieten impliziert“.

 

Anmerkung des Herausgebers: Dieser Artikel wurde aktualisiert, um den jüngsten Marktveränderungen Rechnung zu tragen. –  ebenso durch den Übersetzer

https://dailycaller.com/2020/04/20/us-crude-oil-barrel-price-plunge-surplus-coronavirus/

Übersetzt durch Andreas Demmig




Woher nimmt eigentlich Hans-Joachim Schellnhuber seinen unglaublichen Klima-Unsinn?

Schellnhuber

Über die Auslassungen Schellnhubers zur Corona-Pandemie ist wenig zu sagen. Man findet inzwischen jede Menge tiefsinniger Erörterungen über die Corona-Pandemie, Schellnhuber reiht sich nur in die Schar der das Geschehen kommentierenden Literaten ein, ohne freilich Glanzlichter zu setzen. Offensichtlich hat die FAZ Schellnhuber nur deswegen schreiben lassen, weil es ihm weniger um Corona als vielmehr um eine fiktive kommende Klimagefahr geht. Er gilt schließlich als ihr profunder Kenner. Nicht umsonst wird man Mitglied der Päpstlichen Akademie, Vorsitzender des Wissenschaftlichen Beirats „Globale Umweltveränderungen“ der Bundesregierung etc. etc.

Bei so viel Prominenz muss der Autor natürlich um Nachsicht bitten, an lästige Fakten aus belegten wissenschaftlichen Erkenntnissen zu erinnern. Schließlich beklagt sich Schellnhuber über Klima-Ignoranten bitter „Während sich in den letzten Pandemiewochen der Respekt für die medizinisch-wissenschaftlichen Fachleute zu wohlverdienter Bewunderung gesteigert hat, dauert eine skeptische bis feindselige Haltung gegenüber der Klimawissenschaft in Teilen der Öffentlichkeit an„. Auch wir sind entsetzt, immer noch keine Bewunderung für die Klimawissenschaft? Tröstlich für den großen Gelehrten mag wenigstens die arabische Weisheit sein „Hunde bellen, aber die Klimakarawane zieht weiter„.

Fangen wir daher vorsichtig-ehrfurchtsvoll mit einer etwas irritierenden Absatz-Überschrift „Die Corona-Krise hält auch Lehren für den globalen Klimaschutz bereit“ in seinem Aufsatz an. Irritierend, weil es partout nicht gelingt, Unterlagen über ein „Globalklima“ zu finden. Globaler Klimaschutz gilt doch für globales Klima, oder nicht? Wer von gestern ist, hat in der Schule noch die Klimazonen tropisch, subtropisch, gemäßigt, subpolar und polar gelernt. Heute macht man es lieber global. Aber wie geht das? Wie soll man die unterschiedlichen Klimazonen „global“ schützen? Ignoranten in kalten Zonen hätten es lieber etwas wärmer, in den warmen Zonen etwas kühler. Wem mag Schellnhuber vorrangig mit seinem Globalschutz helfen, und wie soll das funktionieren?

Lassen wir jetzt kleinliche Kritteleien und kommen etwas detaillierter zum Schutz des Klimas. Wie geht das eigentlich? Klima ist schließlich wissenschaftlich definiert als das ortsgebundene, zeitlich gemittelte Wettergeschehen über mindestens 30 Jahre. Da wir das Wetter nicht schützen können, wie sollen wir das erst beim Klima – als seiner langfristigen statistischen Inkarnation – anstellen? Da haben wir schon ganz schön lange zu tun, puu..uh mehr als 30 Jahre! Vielleicht hat der große Gelehrte Schellnhuber da doch ein wenig Verständnis für geringfügig feindseligen Widerstand.  30 Jahre lang „Klimahaltung“ zu bewahren ist schließlich kein Pappenstil. Wir werden ja schon nach wenigen Wochen unruhig, weil wir Corona wegen nicht mehr so einfach unter die Leute gehen dürfen.

Schellnhuber mag es jedenfalls einfach, denn er schreibt „Man muss hier nicht mit der Parade von zehntausend Belegen kommen, die zeigen, dass unsere Zivilisation mit (nach geologischen Maßstäben) stark überhöhter Geschwindigkeit auf eine Heißzeit zuschleudert, wo die Existenzgrundlage von Milliarden Menschen zusammenbrechen dürfte„.  Dunnerlüttchen, das hat es in sich! Wo sich doch die Klimaforschung seit Jahrzehnten nicht nur um zehntausende sondern viele Millionen Einzelbelege bemüht. Alles unnötig?

Wie in aller Welt kommt denn nun Schellnhuber auf „stark überhöhte Geschwindigkeit“. Ist es denn nicht genau umgekehrt und die Geschwindigkeit der jüngsten globalweiten Erwärmung „nach geologischen Maßstäben“ sogar eine Petitesse? Schauen wir dazu einmal in der von Schellnhuber verschmähten Fachliteratur nach! Dort schreiben die Autoren Kemp, Eichenseer und Kiessling – immerhin im Wissenschaftsjournal Nature communications -, dass die Geschwindigkeiten von Klimawandel früher höher waren als heute [1]. Aber wer liest so etwas schon, zu viel Mathe und unverständliche Graphiken? Besser wäre etwas leicht selber Nachprüfbares.

Aber gerne doch: Bereits die sehr zuverlässige, weil direkt gemessene, mittelenglische Thermometer-Temperatur-Reihe (CET) von 1659 bis heute [2], [3] bietet hierzu Einschlägiges. Sie weist den stärksten Temperaturanstieg über 50 Jahre von 1,87 °C im Zeitraum 1687-1737 aus. In jüngerer Zeit zeigt die CET dagegen nur maximal 1,32 °C Temperaturerwärmung von 1961–2011 (Werte aus linearer Regression). Hier das Bild der central England temperature (CET)-Reihe, eingezeichnet sind die zwei stärksten Temperaturanstiege über 50 Jahre

Bildautor: Horst-Joachim Lüdecke

Bild: Mittelenglische Temperaturreihe CET, die älteste Thermometer-Reihe weltweit (blau). Der stärkste Anstieg der gesamten CET über 50 Jahre fand von 1687–1737 mit 1,87 °C statt (rote gestrichelte Regressionsgerade), In jüngerer Zeit kamen dagegen maximal 1,32 °C in den 50 Jahren von 1961–2011 vor (schwarze gestrichelte Regressionsgerade). Bild erstellt vom Autor.

Übrigens zeigen Temperatur-Proxyreihen wie von Baumringen, Eisbohrkernen, Sedimenten und Stalagmiten bei Klimageschwindigkeiten über 50 und 100 Jahre – in Richtung Abkühlung ebenso wie in Richtung Erwärmung – vor der Industrialisierung fast beliebig oft höhere Geschwindigkeiten als danach. Erstaunlich!

Schellnhuber bietet aber noch mehr, als offensichtlich schlechte Kenntnis oder Nichtbeachtung der Fachliteratur. Er hat schließlich selber wissenschaftlich veröffentlicht, so als Mitautor in einer Publikation des Jahres 2003 von Eichner et al. [4]. In dieser wurde keine globale Erwärmung aufgefunden. Im Fazit der Arbeit heißt es im Wortlaut „in the vast majority of stations we did not see indications for a global warming of the atmosphere“ (in der weit überwiegenden Zahl von Stationen sahen wir keine Anzeichen für eine globale Erwärmung der Atmosphäre). Das ist eindeutig. In einer wissenschaftlichen Publikation des Autors dieser EIKE-News zusammen mit Mitautoren vom Jahre 2011 wurde die gleiche Methode wie von Schellnhuber verwendet (Persistenzanalyse) [5]. Das gefundene Ergebnis entsprach in etwa dem von Schellnhuber.

Erstaunlicherweise im Jahre 2009, also zwischen 2003 und 2011, gab dann Schellnhuber der ZEIT ein im beschriebenen Zusammenhang sachlich unverständliches Interview. Es wurde unter dem Titel „Manchmal könnte ich schreien“ veröffentlicht [6]. Hier lässt sich Schellnhuber über die Gefahren und die angeblich bereits eingetretenen Folgen eines menschgemachten Klimawandels – diese sind bis jetzt sogar dem IPCC unbekannt, s. IPCC-Bericht AR5, Kap. 2.6 – mit geradezu gruseliger Intensität aus. Auf die Frage der ZEIT „Wie ist die Lage“ antwortet Schellnhuber „Verdammt ungemütlich … viele Worst-Case Szenarien werden von der Wirklichkeit übertroffen„. Eine Erklärung für den irritierenden Widerspruch zwischen seinem Interview und der völlig entgegengesetzten Aussage in seiner Fachpublikation ist dem Autor nicht bekannt.

 

Quellenachweise

[1] [9] Kemp, D. B., Eichenseer, K., Kiessling, W., 2015. Maximum rates of climate change are systematically underestimated in the geological record. Nature communications, 6, 8890.

[2] CET, Met Office Hadley centre observations datasets, https://www.metoffice.gov.uk/hadobs/hadcet/

[3] Smith, A. D., 2017, An Analysis of Climate Forcings from the Central England Temperature (CET) Record, British Journal of Environment and Climate Change, 7(2), 113-118.

[4] Eichner, J.F., Koscielny-Bunde, E., Bunde, A., Havlin, S., Schellnhuber, H.-J., 2003. Power-law persistence and trends in the atmosphere: A detailed study of long temperature records. Physcal Review E, 68(4), 046133.1-046133.5.

[5] Lüdecke, H.-J., Link, R., Ewert, F.-K., 2011. How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records. International Journal of Modern Physics C, 22 (10),. 1139-1159.

[6] Klimawandel: „Manchmal könnte ich schreien“. ZEIT Online, 26.3.2008.

 

Anmerkung des Autors

Es muss immer wieder betont werden, dass Sachkritik niemals ad hominem gehen darf, so scharf man auch immer die Ansichten des Meinungsgegners bekämpft. Insbesondere im speziellen Fall dieser EIKE-News möchte der Autor darauf hinweisen, dass ihm sein Kollege Schellnhuber als sympathischer Zeitgenosse anlässlich der Einladung des PIK an EIKE (hier) zu einer wissenschaftlichen Diskussion persönlich bekannt ist und er von ihm auf seine Nachfrage hin das freundliche Buchgeschenk „A. Bunde, J. Kropp, H.-J. Schellnhuber: The science of disasters“ erhielt, für das er sich hier noch einmal bedankt.

Davon völlig unbeschadet bekämpft der Autor die politisch-wissenschaftlichen Aussagen von Schellnhuber aufs Schärfste. Er ist der Auffassung und bereit es jederzeit zu belegen, dass diese Aussagen nicht nur absurd falsch, sondern auch geeignet sind, einer kommunistischen Diktatur den Weg zu ebnen.

 




Wenn Medien immer nur Personen mit der gleichen Meinung fragen, können sie (und diese Personen) nie gescheiter werden

Zur Bestätigung frage doch den Förster

Die Redaktion einer Lokalausgabe der Nordbayerischen Nachrichten legt Wert darauf, beim Klimawandel aktuell zu bleiben. Und öfters, wenn das Wetter wieder nicht genau das macht, was man von ihm laut Überzeugung ihrer menschlichen „Betreuer“ erwarten darf, nachdem es dies in vorindustrieller Zeit doch immer genau richtig machte, fragt die Redaktion „Naturmanager“, ob der Grund nicht schon wieder der schlimme Klimawandel sein könnte.

Zwischenzeitlich hat es sich etwas eingespielt, dabei zwischen lokalen Klimamanager*innen und Förstern von Stadt und Land abzuwechseln. Das suggeriert Meinungsvielfalt, obwohl der Autor versichern kann, dass die Antworten der von den Medien ausgesuchten immer auf das Gleiche hinauslaufen: Ja, es kann nur der Klimawandel sein, zumindest scheint es ein deutliches Indiz dafür … Und als Belege folgen unisono kurzzeitige „Klimaerfahrungen“ der Art: „Früher habe ich/meine Eltern so etwas nicht gekannt … und deshalb müssen „wir“ unbedingt vorbildhaft weiter für sinkende CO2-Emissionen sorgen … “

Niemals wird der/die Befragte nach minimalsten Fakten gefragt, denn die Redaktion will in dieser Rubrik ausschließlich ihre Überzeugung bestätigt wissen (rein persönliche Überzeugung des Autors).
Das ist ein Mangel und so soll ein solches „Befragen“ im Nachhinein erfolgen.

Ich sehe, was der Klimawandel mit den Wäldern macht … “

Statement des Försters beim Fürther Amt für Ernährung, Landwirtschaft und Forsten zum Coronavirus und dem Klimawandel.
Hintergrund ist die derzeitige Trockenheit in Franken, welches aufgrund seiner vielen Sandböden davon besonders betroffen ist. Nicht zufällig ist fränkischer Sand-Magerrasen (das ist der auf dem Sandboden wegen der häufigen Trockenheit) ein geschütztes Naturdenkmal.

„Förster“: [1] „Ich sehe, was der Klimawandel mit den Wäldern macht. Auch in diesem Frühjahr ist es wieder viel zu trocken, das schadet den eh schon geschwächten Bäumen schwer.
Weil das Coronavirus die Menschheit dazu zwingt, innezuhalten, erhält die Natur gegenwärtig eine Atempause. Mehr nicht. …. Ich fürchte aber, wenn die Pandemie vorbei ist, wird umso mehr Treibhausgase produzieren werden. So wie die Chinesen nach der Finanzkrise 2008
“.

Diese Aussage deckt sich spiegelbildlich mit allen (dem Autor als jahrelangem Leser) bekannten Aussagen der anderen, sonst befragten Förster im näheren Umland. Allerdings nur deren „jüngeren“ Aussagen, denn lange Zeit ging es den Wäldern um Nürnberg – gleichauf den (anderen) Bayerischen Wäldern – vorbildlich. Doch inzwischen ist ja allgemeines Jammern angesagt, vor allem, wenn man in öffentlichen Diensten steht. Und so gilt: Dass es dem Wald im näheren Umland schlechter geht, liegt an der Trockenheit und diese kann nur dem CO2 geschuldet sein ...

Will man besondere „Kompetenz“ zeigen, fragt die Redaktion als „Oberförster“ noch den ehemaligen BUND-Vorsitzenden, Hubert Weiger, der dann damit brilliert, nicht einmal zu wissen, dass der Sahel dank dem sich stetig wandelnden Klima feuchter wird und der Habitatverlust in dieser Gegend ganz andere – leider trotzdem menschliche – Ursachen hat. Nicht zu vergessen, dass die AGW-Klimawandeltheorie wegen der zunehmenden Wärme doch mehr – und nicht wie aktuell lamentiert, weniger – Niederschlag vorhersagt.
Das macht das Wetter teilweise auch. Allerdings eben nicht immer genau dort, wo es gefordert ist. Aktuell „versorgt“ es den Mittelmeerraum damit und hilft so, deren für den Sommer dringend benötigten Speicher zu füllen. Wetter kann eben auch mal etwas andere Prioritäten setzen:
FOCUS 27.3.2020: Unwetter im Krisengebiet Starkregen, Schnee, Überschwemmungen: Tief Liebgard nimmt Südeuropa ins Visier
Während in Deutschland ruhiges Wetter herrscht, braut sich im Süden Europas ein Unwettertief zusammen. Dieses Tief mit Namen Liebgard bringt besonders in Süditalien kräftige Regenschauer, Gewitter und stürmischen Wind. In höheren Lagen fällt zudem Schnee.

Dass die Welt seitdem es mehr CO2 in der Atmosphäre gibt, weltweit ergrünt, will sowieso nicht in die Köpfe der Klimaalarmisten [8].

Bild 1 [8] Weltweite Ergrünung der Erde
Warum wird es grüner?
[9] Novo Argumente 18.03.2020: Globale Erwärmung: Die Erde wird grüner
… Für das Ergrünen sind im Wesentlichen vier Faktoren verantwortlich. Am wichtigsten sind offenbar die steigenden CO
2-Konzentrationen in der Atmosphäre. Auf sie werden rund 70 Prozent des Anstiegs zurückgeführt. Die Wirkung von CO2 beruht vor allem darauf, dass es der wichtigste Pflanzennährstoff ist. Zusätzlich verbessert es auch die Effizienz der Pflanzen bei der Wassernutzung, was vor allem in semiariden Regionen von Bedeutung ist.
Ein weiterer wichtiger Faktor ist der Klimawandel, der sich durch Erwärmung sowie regional zunehmende Niederschläge bemerkbar macht. Die Erwärmung hat vor allem in den nördlichen Breiten einen deutlichen Effekt. Von den zunehmenden Niederschlägen profitieren dagegen eher die Sahelzone und trockene Regionen im Süden Afrikas und Australiens …

Doch wie gut, dass sich 97 % – laut unserer Umweltministerin fast 100 % – aller irgendetwas vom Klimawandel gehört habenden „Wissenschaftler“ ganz sicher sind, dass CO2 als Schuld für alles gilt, denn sonst müsste man für Antworten Ahnung haben …

Kann es anstelle des sich stetig wandelnden Klimas nicht einfach der falsche Wald (oder eine falsche Erwartungshaltung) sein?

Einige recht umfassende Darstellungen zu diesem Thema wurden bereits hinterlegt:
[3] EIKE 29. Februar: Den Bayerischen Wäldern geht es nur schlecht, weil die schlimmere Vergangenheit abgeschnitten wird
[4] EIKE 16.11.2017: Der Waldzustand in Bayern ist schlechter, obwohl er besser wurde

und erst vor Kurzem eine, in welcher der Niederschlag etwas unter die Lupe genommen wurde:
[2] EIKE 16. März 2020: Auch ich kann den Klimawandel persönlich spüren
Darin ist gezeigt, dass die aktuelle Trockenheit gar nicht so einzigartig ist und vor allem überhaupt kein Trend zu „immer mehr“ davon besteht. Auch kann man nachlesen, dass es dem Wald um Nürnberg ausgerechnet zur kalten Zeit bis zur Industrialisierung am schlechtesten ging und das in einem heute unvorstellbarem Ausmaß. Nur: Muss ein Förster das einer Zeitungsredaktion sagen (falls er es wirklich weiß)? Mit Sicherheit käme er kein zweites Mal als „Fachperson“ in die Zeitung …

Anbei zwei Bilder aus diesem EIKE-Beitrag. Das erste über die gewaltigen Waldschäden in der Vergangenheit und das weitere über den Waldschadensverlauf Bayern.

Bild 2 [2] Waldzustand in historischer Zeit (Vortragsbild des Autors)
Bild 3 [2] Darstellung, wie schon im Bayerischen Waldschadensbericht 2017 die Grafiken so gestellt wurden, dass sich die „notwendigen“ Klimaschäden ergaben und wie weit die Erhebungen zurückreichen, deren Daten man einfach weglässt, weil sie das Bild des immer stärker unter dem Klimawandel leidenden Waldes arg (zer)stören.
Es ist ein Gerücht und Wunschdenken, zu meinen, es hätte in Deutschland früher nur gesunden Wald gegeben. „Gesunden“ Wald kann sich erst die heutige, davon weniger abhängige Industriegesellschaft leisten.

Und die Nachwehen und Wetterprobleme des Monokultur- und wenig Standort-geeigneten Ertragswaldes – sieht man heute eben immer noch.

Ein trockenes Frühjahr zeigt den Klimawandel: Beispiel USA?

… sofern man nicht in die Vergangenheit schaut, um zu sehen, dass es früher schon so trocken war.

Während die Winter schlecht taugen, um Vergleiche mit den teils historisch bitterkalten USA zuziehen, gibt es in Teilen der USA schon immer und regelmäßig schlimmste Dürren. So auch aktuell. Und wie bei uns, kann das nur die eine Ursache haben:
scinexx das Wissensmagazin 20. April 2020: USA: Westen leidet unter „Megadürre“
Klimawandel verschärft zweitschlimmste Trockenperiode der letzten 1.200 Jahre
… Sollte die Trockenheit im Südwesten der USA weiter anhalten, schließen die Forscher nicht aus, dass sich die aktuelle Megadürre zur schlimmsten der letzten 1.200 Jahre entwickelt.

So sagt es eine ganz aktuelle (bezahlpflichtige) Studie. Deren Aussagen hat sich ein bekannter Blog [6] schon angenommen und wie sollte es anders sein: Was wie eine Studie aussehen soll, ist wieder eher eine Publik-Relation Arbeit, wie es der für eine wissenschaftliche Studie etwas ungewöhnliche Name schon vermuten lässt:
[7] Science 17. April 2020, Studie: Anthropogenic megadrought
“…that the 16th-century megadrought was the worst multidecadal drought episode in the Southwest over the past 1200 years, and that the second-worst event occurred from 2000 to 2018 over southwestern North America (SWNA) and may be ongoing. The study also pinpoints substantial anthropogenic (human) contribution to the severity of the current drought.”
Grobe Übersetzung von „deepl“: …dass die Megadürre im 16. Jahrhundert die schlimmste multidekadische Dürreepisode im Südwesten in den letzten 1200 Jahren war, und dass das zweitschlimmste Ereignis von 2000 bis 2018 über dem Südwesten Nordamerikas (SWNA) stattfand und möglicherweise noch andauert. Die Studie weist auch auf einen erheblichen anthropogenen (menschlichen) Beitrag zur Schwere der gegenwärtigen Dürre hin …

Dazu das Diagramm der aktuellen „Megadürre“ (Bild 4) und das der Dürre im Jahr 1934 (Bild 5).
Bei der aktuellen Dürre fällt auf, dass die Trockenheit sich teils an Staatengrenzen zu „orientieren“ scheint, was man von der Natur kaum erwarten würde …

Bild 4 Trockenheitsindex USA, Stand 18. April 2020

Bild 5 Trockenheitsindex USA, Juli 1934 [6]
Was sagt WUWT darüber:
[6] … With that historical data, it is impossible to claim our use of fossil fuels in the last century is leading to a new megadrought. Here’s the punch line; the notion that the Anthropogenic megadrought paper published by Stahle is flawed is perfectly illustrated by a single chart also using tree ring data from the Western USA.
Grobe Übersetzung von „deepl“: … Mit diesen historischen Daten ist es unmöglich zu behaupten, dass unser Verbrauch an fossilen Brennstoffen im letzten Jahrhundert zu einer neuen Megadürre geführt hat.
Hier ist die Pointe; die Behauptung, dass die von Stahle veröffentlichte Abhandlung über die anthropogene Megadürre fehlerhaft ist, wird durch ein einziges Diagramm, das auch Baumringdaten aus dem Westen der USA verwendet, perfekt veranschaulicht.

Die Aussage von WUWT zur aktuellen Dürre lautet (Bezug Bild 5):
… Meanwhile, at the far right, the drought we’ve experienced in the 21st century is clearly evident and miniscule by comparison.

Grobe Übersetzung von „deepl“: (Bezogen auf Bild 6) … Unterdessen ist ganz rechts die Dürre die wir im 21. Jahrhundert erfahren, deutlich sichtbar und im Vergleich dazu (Anm.: den vorhergehenden Dürren) verschwindend gering …

Bild 6 [6] Figure 1 Timeline from 800 AD to present showing dry/wet periods in the Western USA. Data from E.R. Cook et al published in Earth Science Reviews, chart by Karl Kahler, Bay Area News Group with annotation added by Anthony Watts.

Ein trockenes Frühjahr zeigt den Klimawandel in Bayern?

Zurück in den „Kleinraum“ von Mittelfranken um Nürnberg. Nachdem man mit etwas Rückschau in die Historie zeigen kann, dass es dem Wald aktuell eher gut, als (im Vergleich zu früher) schlecht geht, nochmals zur Trockenheit.

Unbestritten ist es aktuell und seit einigen Jahren trocken. Nur: Das gab es früher schon und vor allem ist kein Trend zu immer mehr Trockenheit erkennbar. Das „darf“ auch nicht sein, denn dann wäre ein (physikalisch bedingtes) Postulat des Klimawandels falsch: Mehr Wärme muss zu mehr Feuchte in der Luft führen und damit insgesamt zu mehr Niederschlag. Am Alarm richtig bleibt davon, dass die (etwas) höhere Temperatur die Wirkung der Trockenheit verstärkt.

Nun etwas Wiederholung aus [2]:
Der Frühlingsniederschlag in Bayern war letztes Jahr (geringfügig) über dem Durchschnitt. Die Regressionsgerade steigt deutlich an. Die geringsten Frühjahrsniederschläge gab es in der Zeit vor ca. 1950!

Bild 7 Frühlings-Niederschlagsanomalie Bayern seit 1881. Quelle: DWD-Viewer

Der Winterniederschlag lag die letzten drei Jahre deutlich über dem Durchschnitt und steigt langfristig stetig an. Die niedrigsten Winterniederschläge gab es vor etwa 1970.

Bild 8 Winter-Niederschlagsanomalie Bayern seit 1881. Quelle: DWD-Viewer

Der Jahresniederschlag ist die letzten Jahre niedrig gewesen. Trotzdem steigt er langfristig stetig an und wie fast immer: In der Vergangenheit gab es vergleichbare Jahre mit wenig Niederschlag ebenfalls über mehrere Jahre und viel schlimmer.

Bild 9 Jahres-Niederschlagsanomalie Bayern seit 1881. Quelle: DWD-Viewer

Der März „hängt“ etwas dazwischen. Trotzdem nimmt auch sein Niederschlag langfristig zu und im langfristigen Vergleich waren auch die letzten Jahre nicht extrem trocken.

Bild 10 März-Niederschlagsanomalie Bayern seit 1881. Quelle: DWD-Viewer

Wann ist es dann trockener geworden? Der Monat April neigt dazu: Er ist einer der wenigen Monate, bei denen der langfristige Trend abwärts neigt und der auch die letzten Jahre durchgängig und im langjährigen Vergleich trocken war.

Bild 11 April-Niederschlagsanomalie Bayern seit 1881. Quelle: DWD-Viewer

Doch schon der Mai sieht wieder ganz anders aus.

Bild 12 Mai-Niederschlagsanomalie Bayern seit 1881. Quelle: DWD-Viewer

Ein Förster, welcher behauptet, dass diese Niederschlagsdaten Klimawandel-bedingte Trends zu stetig mehr Trockenheit zeigen würden hat sich solche Daten wohl noch nie angesehen. Muss er auch nicht. Dann sollte er sich aber auch nicht als „Klimafachperson“ zur Verfügung stellen.

Vielleicht ist das Klima um Nürnberg anders

Die Franken sind Bayern nicht freiwillig „beigetreten“. Das zeigt auch deren Klima, welches sich weiterhin von dem südlich der Donau unterscheidet. Bisher hat noch niemand behauptet, auch das läge am sogenannten Klimawandel, doch dass dieses „andere“ Klima sich eben (schon immer) auch anders auswirkt, wird dann doch dem Klimawandel zugewiesen.
Deshalb exemplarisch Niederschlagsverläufe der Nürnberger Wetterstation:

Mit Bild 13 der Tagesniederschlag seit 1936, um zu sehen, ob die Niederschlagsunwetter wie es die Klimasimulationen sehen, in der wirklichen Natur immer schlimmer werden. Passiert nicht. Trotzdem laufen in Nürnberg bei Regen viele Keller und einige Unterführungen regelmäßig voll.

Bild 13 Nürnberg Tagesniederschlag ab 1936. Quelle: DWD-Daten. Grafik vom Autor erstellt

Der Jahresniederschlag wiederum zeigt, dass in jüngerer Zeit kein „historischer“ Wert unterschritten wurde

Bild 14 Nürnberg Jahresniederschlag ab 1936. Quelle: DWD-Daten. Grafik vom Autor erstellt

Als gleitender Jahresniederschlag zeigt sich eine stetige Verringerung des Maximalwertes (was der Klimawandeltheorie – nach der der Niederschlag mit steigender Wärme zunimmt – widerspricht), allerdings auch eine Erhöhung der Minimalpegel.

Bild 15 Nürnberg Niederschlag Jahressumme gleitend ab 1936. Quelle: DWD-Daten. Grafik vom Autor erstellt

Selbst der Sommerniederschlag zeigt keine wirkliche Tendenz zu stetiger, signifikanten Abnahme.

Bild 16 Nürnberg Niederschlag Sommer ab 1936. Quelle: DWD-Daten. Grafik vom Autor erstellt

Der Winterniederschlag verläuft geradezu ideal-normal. Die letzten Winter soll es zu wenig geregnet haben, nur die Daten zeigen es nicht.

Bild 17 Nürnberg Niederschlag Winter ab 1936. Quelle: DWD-Daten. Grafik vom Autor erstellt

Der (angeblich inzwischen oft) viel zu trockene Frühling verläuft ebenfalls in recht geordneten Bahnen. Aber Messwerte „fühlt“ man eben nicht.

Bild 18 Nürnberg Niederschlag Frühling ab 1936. Quelle: DWD-Daten. Grafik vom Autor erstellt

Beim März sieht man, wie extrem Monatswerte schwanken können.

Bild 19 Nürnberg Niederschlag März ab 1936. Quelle: DWD-Daten. Grafik vom Autor erstellt

Und beim Mai zeigt auch Nürnberg, dass dieser Monat keine Tendenz zur „Austrocknung“ zeigt.

Bild 20 Nürnberg Niederschlag Mai ab 1936. Quelle: DWD-Daten. Grafik vom Autor erstellt

In Nürnberg ist nicht einmal der Aprilniederschlag so wirklich negativ. Zwar war er die letzten Jahre nicht hoch, aber die Behauptung, er würde immer schlimmer „austrocknen“ zeigen auch diese Messwerte nicht.

Bild 21 Nürnberg Niederschlag April ab 1936. Quelle: DWD-Daten. Grafik vom Autor erstellt

Fazit

Dem Wald geht es sicher nicht besonders gut und richtig feucht ist es dieses Frühjahr ebenfalls nicht.
Daraus jedoch abzuleiten, dass dieses Wetter am Klimawandel läge, ein schlimmer, stetiger Trend sei und es solches früher nicht gegeben hätte (vielleicht, weil auch Großvater nichts darüber hinterließ) stimmt nicht.

Das will aber in die Köpfe unserer Medienredakteure nicht „hinein“. Lieber lesen sie die Originale nicht [5] um ihr „Wissen“ nicht zu stören und befragen eben immer die, welche die gewünschte Antwort geben.
Der Mörder ist eben nicht immer der Gärtner*. Der Mörder Verhinderer zur wirklichen Erkenntnis kann auch ein Förster sein.

Nach wie vor ist der Autor davon überzeugt, dass die Ausgaben zur Verringerung der CO2-Emission der größte Unsinn dieses Jahrhunderts sind und am Zustand der Wälder um Nürnberg herum nicht das Geringste ändern werden.

Allerdings fordert nun „Corona“ seinen finanziellen Tribut. Die Einnahmen aus der CO2-Steuer werden dringendst benötigt, um den Finanzkollaps (der trotzdem kommen wird) wenigstens zu verschieben. Alleine das wir verhindern, dass über das sich stetig wandelnde Klima neu nachgedacht wird.

*Anlehnung an ein Lied von Reinhard Mey

Quellen

[1] Nürnberger Nachrichten; Lokalausgabe vom 16. April 2020: Interview des Försters beim Fürther Amt für Ernährung, Landwirtschaft und Forsten zum Coronavirus und dem Klimawandel

[2] EIKE 16. März 2020: Auch ich kann den Klimawandel persönlich spüren

[3] EIKE 29. Februar: Den Bayerischen Wäldern geht es nur schlecht, weil die schlimmere Vergangenheit abgeschnitten wird

[4] EIKE 16.11.2017: Der Waldzustand in Bayern ist schlechter, obwohl er besser wurde

[5] EIKE 13. April 2020: Wurde schon 1912 vor dem schlimmen Klimawandel gewarnt? Ein Zeitungsartikel, doch zwei Interpretationen

[6] WUWT 18. April 2020: Claims of Southwestern USA ‘Megadrought’ Are All Wet

[7] Science 17. April 2020, Studie: Anthropogenic megadrought

[8] Shilong Piao at al., 09. Dez 2019: Characteristics, drivers and feedbacks of global greening

[9] Novo Argumente 18.03.2020: Globale Erwärmung: Die Erde wird grüner




Zeit für Klima-Vernunft

Arrhenius zufolge sollte diese Erwärmung von Nutzen sein, würden doch verschiedene Klimazonen der Erde dadurch „ausgeglichener“ werden sowie das Wachstum von Pflanzen und auch Getreide stimuliert.

Etwa ein Jahrhundert später hauchte der Schaumschläger/Politiker Al Gore der Theorie neues Leben ein, und zwar mit der Behauptung, dass der zusätzliche Eintrag von Kohlendioxid aufgrund menschlicher Aktivitäten zu einer gefährlichen globalen Erwärmung führen würde.

Nun weigerte sich aber die Temperatur, sich den alarmistischen Computermodell-Vorhersagen entsprechend zu verhalten. Also schwenkte man um zu einem universellen Schreckgespenst: „Klimawandel“, und man machte für jedes Fitzelchen schlechten Wetters die Industrie des Westens verantwortlich.

Damit wurden jedoch nicht genug Menschen verängstigt, so dass das Ganze zu einem „Klima-Notstand“ mutierte. Unter dem Dach dieses Begriffs wurden Kohle, Öl, Gas, Autos und Nutzvieh für alles Schlechte verantwortlich gemacht. Waldbrände, Korallenbleiche, Dürren und Überschwemmungen, Hitzewellen und Schneestürme, Verschmutzung überall sowie das Aussterben von Spezies sind allesamt der vermeintliche Beweis für den hinaus posaunten Klima-Notstand.

Zeit für Kohlenstoff-Vernunft

Menschliche Aktivitäten können nicht den atmosphärischen Kohlendioxid-Gehalt oder die globale Temperatur kontrollieren. Weitaus stärkere Kräfte sind hier wirksam, wie etwa Absorption und Ausgasung von Kohlendioxid seitens der Ozeane, Bewölkung, sich abschwächende magnetische Felder und Polumkehrungen, El Nino und La Nina, solare Zyklen, variable kosmische Strahlung und vulkanische Aktivität (vor allem am Meeresboden).

Geologische Aufzeichnungen belegen, dass das heutige Kohlendioxid-Niveau aus geologischer Perspektive auf einem historischen Tiefststand liegt – so niedrig, dass Pflanzen schon langsamer gedeihen und mehr Wasser brauchen.

Zusätzlich zeigen Eisbohrkern-Aufzeichnungen aus Grönland und der Antarktis, dass die Temperatur immer vor einer Zunahme des Kohlendioxids in der Luft steigt. Das heißt, steigende Kohlendioxid-Niveaus sind eine Folge steigender Temperaturen und nicht deren Ursache. Sich erwärmende Ozeane sind wie warmes Bier: Kohlendioxid wird freigesetzt. Bei Abkühlung wird es von den Ozeanen wieder aufgenommen.

Man fürchte die Kälte, nicht die Wärme

Der dichte Pflanzen- und Tierbestand in den Tropen zeigt eindeutig, dass die Menschen keine Angst haben müssen vor globaler Erwärmung. Tatsächlich würde Russlands Präsident Putin eine solche Erwärmung für sein kaltes Land sehr begrüßen.

Wir lebten bisher in einem natürlichen Warm-Intermezzo, aber der Höhepunkt der Wärme liegt bereits hinter uns. Es wird immer Fluktuationen und Extremwetter-Ereignisse geben, aber die nächste große Klimaänderung wird Abkühlung sein, der 11. große Abkühlungszyklus innerhalb einer Million Jahre. Alles, was dazu nötig ist, sind die Ozeane aufheizende untermeerische Vulkane und Kühlung durch Abschirmung des Sonnenlichtes infolge der vulkanischen Asche in der Luft. Dies wird zu Verdunstung aus den Ozeanen und starken Schneefällen auf dem Festland führen. Schafft es die Sonne einmal nicht, den gesamten Winterschnee zu schmelzen, werden Gletscher und Eisschilde wieder wachsen.

Eiszeiten waren eine periodisch wiederkehrende Bedrohung vieler Lebensformen auf der Erde. Sollten sich Eisschilde aus dem Nordpolargebiet wieder südwärts ausbreiten, wird es massiven Bevölkerungsschwund geben, und die Überlebenden werden lernen müssen, sich wieder Erfahrungen als Jäger und Sammler anzueignen, falls sie keinen Zugang zu einer zuverlässigen Energieversorgung haben. Windräder und Solarpaneele werden unter winterlichen Bedingungen nicht funktionieren, und Wasserkraftwerke werden einfrieren. Zum Höhepunkt der Kleinen Eiszeit sind sogar die Niagara-Fälle im Jahre 1848 zugefroren.

Bürokraten werden überleben

Die Klima-Bürokratie der UN wird möglicherweise immer noch Klima-Steuern einsammeln und Konferenzen organisieren an Orten mit einem warmen Klima und zuverlässiger Energieversorgung.

Der Klima-Alarm ist der große Zug zum Absahnen für Akademiker, Bürokraten, Globalisten, Politiker und Spekulanten, die nach Ausreden suchen, um noch mehr Macht und Reichtum für sich anzuhäufen.

Der so genannte Klima-Notstand ist ein Vorgang globaler Politik und nicht ein wissenschaftlicher. Damit sollen wir so stark geängstigt werden, dass wir Geld und Macht aus den Nationen des Westens an die UN übertragen sollen – eine Fake-Antwort auf ein künstlich erzeugtes Problem.

Viv Forbes is a geologist and chairman of the Carbon Sense Coalition.

Link: https://www.heartland.org/news-opinion/news/time-for-climate-sense

Übersetzt von Chris Frey EIKE




Was katastrophale Coronavirus-Modelle uns sagen hinsichtlich Globale-Erwärmung-Modelle

Wir verordnen dem gesamten Land [= den USA] einen Shutdown auf der Grundlage der Modelle des Institute for Health Metrics and Evaluation (IHME), womit wir 17 Millionen Amerikaner arbeitslos gemacht haben (Tendenz weiter steigend), 17 Millionen Leben auf den Kopf gestellt haben (Tendenz weiter steigend) und … Nun, man schaue selbst:

[Dieser Graphik für die gesamten USA folgen im Original die Einzelgraphiken der US-Staaten Tennessee, Georgia und Florida. Sie sehen sehr ähnlich aus. Anm. d. Übers.]

Für die CNN-Klimaille … dieser gigantische Berg ist die Prophezeiung des IHME von 1. April bzgl. Einweisungen ins Krankenhaus wg. Coronavirus. Die kleineren Berge weit, sehr weit darunter sind die entsprechenden IHME-Prophezeiungen nach einer Überarbeitung jeweils vom 5., 7. und 9. April.

Die grüne Linie repräsentiert die wirkliche Zahl der Krankenhaus-Einweisungen. Die Quelle aller Zahlen ist diese.

Und warum spielt das eine Rolle? Und warum schauen wir auf die Einweisungen?

Nun, man erinnere sich, der ganze Grund, die Wirtschaft herunter zu fahren ist es sicherzustellen, dass unser Gesundheitssystem nicht überfrachtet wird. Und man sollte auch nicht vergessen, dass diese Experten-Modelle auf voller Abmilderung basieren auf der Grundlage dessen, was wirklich passiert ist, also im Grunde ein voller Shutdown der Ökonomie mittels eines Lockdowns. Und diese Modelle sind immer noch katastrophal, katastrophal falsch.

Dies ist jedoch kein Argument bzgl. der Frage, ob wir das Land oder Teile desselben hätten herunter fahren sollen oder nicht. Ich habe viele Gedanken zu dieser speziellen Frage, möchte das aber für ein andermal aufheben. Hier möchte ich mich auf das Unbestreitbare konzentrieren, und unbestreitbar ist, dass wir das Land herunter gefahren haben auf der Grundlage stark fehlerhafter Modelle.

Schon recht, die Schließung unseres Landes oder von Teilen davon aufgrund der Gegebenheiten ist vielleicht okay … worüber man auch streiten kann, aber das ist nicht der Punkt. Unbestreitbar ist, dass die Modelle, die unserer Entscheidung zum Lockdown der Ökonomie zugrunde liegen, erheblich falsch sind.

Selbst wenn man der Ansicht ist, dass die richtige Entscheidung getroffen worden ist – das ändert nichts daran, wie erheblich falsch die Coronavirus-Modelle waren, sind und vermutlich auch weiter sein werden. Das ändert auch nicht die Tatsache, dass wir unsere gesamte Ökonomie auf der Grundlage unglaublich falscher Modelle geschlossen haben.

Und das bringt mich zu den Modellen hinsichtlich globaler Abkühlung – globaler Erwärmung – Klimawandel, oder wie auch immer man diese nachgewiesene Betrügerei nennen will.

Nun ist es ja so, dass die Personen, welche die katastrophal falschen Coronavirus-Modelle entwickelt haben, nicht die gleichen sind, welche die Modelle bzgl. globaler Abkühlung – globaler Erwärmung – Klimawandel erzeugt haben.

Und wir reden immer noch von „Experten“, auf welche sich Medien und Regierung ohne jedes Hinterfragen stützen.

Wir reden immer noch über Modelle mit dem Ziel, unsere Lebensweise zu zerschlagen, unseren Wohlstand, unseren Lebensstandard, unsere individuellen Freiheiten und so weiter.

Wir reden immer noch über Modelle mit dem Ziel, eine enorm ängstigende Machtfülle einer Zentralregierung zu übertragen.

Aber der Punkt ist: Der Modellierung von globaler Abkühlung – globaler Erwärmung – Klimawandel sollte man mit noch erheblich größerer Skepsis begegnen als der Modellierung des Coronavirus‘.

Die Coronavirus-Modellierung basierte auf etwas Realem, was gerade vor sich geht. Die Experten, welche die Coronavirus-Modelle erzeugten, hatten alle möglichen Daten zur Verfügung, aufgrund derer sie ihre Hypothesen bilden konnten – viele wissenschaftliche Daten auf der Grundlage früherer Pandemien, Viren und menschlichem Verhalten; aber auch Echtzeit-Daten zum Coronavirus selbst aus China, Italien und anderen Ländern … und dennoch haben sie versagt. Sie lagen immer noch katastrophal falsch.

Die zur Prophezeiung des Klimawandels herangezogenen Modelle schauen nicht auf die nächste Woche oder den nächsten Monat, sondern sie versuchen zu erfassen, was in vielen Jahren passieren wird, in vielen Jahrzehnten, und sie versuchen dies zu prognostizieren auf der Grundlage von … nun, von was genau?

Die Erde ist Milliarden Jahre alt. Die Temperaturzyklen der Erde über Jahrmillionen sind bekannt. Wir wissen bereits, dass sich der Planet vor drei Millionen Jahren ganz von allein erwärmt hat. Wenn man also mittels dieser nachgewiesene Betrügerei versucht, unseren Lebensstandard zu zerschlagen und die politische Macht zu zentralisieren, dann erinnere man sich daran, wie schlimm die Coronavirus-Modelle der „Experten“ sind – und das vor dem Hintergrund, dass diese Coronavirus-„Experten“ viel mehr Informationen zur Erstellung ihrer Modelle zur Verfügung hatten als die Modellierer, welche sich mit globaler Erwärmung in ferner Zukunft befassen.

Link: https://www.breitbart.com/politics/2020/04/14/nolte-what-terrible-coronavirus-models-tell-us-about-global-warming-models/

Übersetzt von Chris Frey EIKE




Das EEG: teurer planwirtschaftlicher Unsinn, der Krisen wie die SARS-Quarantäne verschärft?

Die FAZ schreibt gerade, daß das EEG „ein mehr plan- als marktwirtschaftliches Fördersystem“ sei, „das Stromerzeugung jenseits von Preisen und Kosten ermöglicht“ habe. Was ist damit gemeint? Nun, wie dem geneigten EIKE-Leser bekannt ist, bekommt jeder „Öko“stromproduzent eine Förderung für 20 Jahre, ohne die ein Wind- oder Solarpark gar nicht möglich wäre. Insofern ist es nicht verwunderlich, daß die Windräder nach dieser Zeit abgerissen oder aufgestockt werden, um erneut Steuergelder kassieren zu können.

Die Förderung ist wirtschaftlicher Wahnsinn, weil die Ökostromer meist entweder zu wenig produzieren, oder zu viel; und der Überschuß muß dann gegen Bezahlung ins Ausland geleitet werden, damit unsere Leitungen und Generatoren nicht durchbrennen.

Die FAZ bemerkt, daß die Kosten immer höher werden, auch jetzt in der Krise, obwohl viele Betriebe geschlossen sind und keine Energie benötigen. In Anbetracht der heftigen Kosten der Volksquarantäne und der trotzdem weiter andauernden Massenimmigrationkönnen die unteren Einkommensschichten es bald nicht mehr bezahlen.

 




Rettung durch fossile Brennstoffe: Wind- und Sonnenenergie bieten keine Hilfe, die Existenz in Corona Zeiten zu sichern

Ob es sich um Medikamente, medizinische Geräte, PPE Mund-Nase-Masken und dergleichen handelt, die benötigt werden, um das Virus abzuwehren und darauf zu reagieren, oder um für die kritischen Geräte der Intensivstation eine zuverlässige Stromversorgungen zu haben, damit Beatmungsgeräte und andere Apparaturen rund um die Uhr funktionieren – es sind Kohle, Öl und Gas, die diese Anforderungen möglich machen.

Daniel Markind untersucht, wie wichtig fossile Brennstoffe für eine sichere, geordnete und zivilisierte Existenz sind. Nur um zu zeigen, dass diese Ideologie einen sehr schlechten Stand hat, wenn die eigene Existenz einer wirklich gefährlichen Bedrohung ausgesetzt ist.

 

Um das Coronavirus zu bekämpfen , kehrt die Welt zu fossilen Brennstoffen zurück
Forbes, Daniel Markind
März 2020 wird der Monat sein, in dem sich die westliche Welt verändert hat. Zu Beginn des März gab es eine relative Normalität, außer in China und an abgelegenen Orten in Ostasien. Zum Monatsende befand sich ein Großteil des Westens – man kann sagen, die ganze Welt – in Quarantäne.

Ganze Nationen haben ihr öffentliches Leben runtergefahren, damit wir uns „sozial voneinander distanzieren“, um die Ausbreitung von COVID-19 zu verhindern. In diesen beispiellosen Zeiten ist die Welt zu grundlegenden Notwendigkeiten zurückgekehrt, die sich manifestieren, wenn der Preis für Ideologie zu hoch ist. Eine davon betrifft fossile Brennstoffe. In einem Augenblick, manchmal ohne es zu merken, hat die Welt fossile Brennstoffe gefordert und es wurden nur wenige Bedenken hinsichtlich ihres CO2-Fußabdrucks geäußert.

  • Zu diesen Notwendigkeiten gehört zunächst die Herstellung von Operationsmasken und anderen Schutzausrüstungen. Viele der besten Masken bestehen aus Polypropylen, einem Produkt fossiler Brennstoffe. Mit COVID-19 gab es kaum oder gar keine Diskussion darüber, weniger effektive Papiermasken zu verwenden. Das Papier soll möglicherweise weniger klimatische Auswirkungen haben – obwohl weniger Bäume auch einen CO2-footprint haben können – aber fast ausnahmslos hat unser medizinisches Personal festgestellt, dass ihre Gesundheit für sie wichtiger ist als das abstrakte Potenzial, den Klimawandel zu beeinflussen. Wer will sie dafür anklagen?
  • Ein weiteres Beispiel ist die Rückkehr von Plastiktüten im örtlichen Supermarkt. Vor dem Auftreten des Virus meinten viele Märkte damit Werbung machen zu müssen, dass sie die Verwendung von Plastikverpackungen für ihre Lebensmittel einstellen würden. Das hielt nicht lange an. Natürlich sieht nun jeder ein, dass Einweg-Plastiktüten weitaus sauberer [und Corona unverfänglicher] sind als mitgebrachte Beutel, die Menschen zu Hause aufbewahren und dann mitbringen – einschließlich aller Keime und Viren, die sie bis hierhin gesammelt haben. Jetzt kehren Geschäfte nicht nur zu Plastiktüten auf Basis fossiler Brennstoffe zurück, sondern verbieten auch das Mitbringen wiederverwendbarer.
  • Eine dritter Nutzen fossiler Brennstoffe sind die Medikamente, die wir einnehmen. Außerhalb der Pharmaindustrie wenig bekannt, sind fossile Brennstoffe die Grundlage für 80% bis 90% der von uns verwendeten Arzneimittel. Wie bei chirurgischen Masken entscheiden sich nur wenige für letztere, wenn sie sich der Realität stellen, einen geliebten Menschen durch kohlenstoffbasierte Medikamente zu schützen oder diesen geliebten Menschen sich selbst zu überlassen, um den Klimawandel zu bekämpfen.
  • Der vielleicht wichtigste Aspekt bei der Verwendung fossiler Brennstoffe war jedoch die Tatsache, dass wir über eine beständige Energieversorgung verfügen müssen, um in dieser Zeit im Homeoffice zu arbeiten und unsere Kranken in den Krankenhäusern zu versorgen. So wunderbar Sonne, Wind und andere ähnliche Technologien auch erscheinen mögen, sie liefern nur unvorhersehbar und nicht planbar. Technisch und kommerziell ist noch kein Mittel gefunden, um Strom in genügender Menge zu speichern und zu liefern, wenn die Sonne nicht scheint oder der Wind nicht weht. Ohne eine beständige und zuverlässige Stromversorgung, die überwiegende weiterhin mit fossilen Brennstoffen betrieben wird, hätten wir im Westen keine Chance, das Virus zu bekämpfen.

In den nächsten Jahrzehnten werden und sollten wir weiterhin an unserer zukünftigen Energieversorgung arbeiten, möglicherweise neue, bessere Möglichkeiten zu finden, unsere Welt mit Strom zu versorgen und auch die Hunderte von Millionen, die bislang ohne Strom auskommen müssen, zuverlässig zu beliefern. Vor dem Sprung in eine unbekannte und derzeit unbewiesene Welt,  die sich ausschließlich auf erneuerbare Energien stützt, sollten wir diese aktuelle Krise nutzen, um einer Debatte, die zu lange vom Idealismus getrieben wurde, etwas Realismus zu verleihen.
Forbes

Und dann kam ein neues Coronavirus …

https://stopthesethings.com/2020/04/18/fossil-fuelled-salvation-costly-unreliable-wind-solar-no-answer-to-covid-19-shut-down/

Übersetzt durch Andreas Demmig




Wikipedia: Manipulationen Orwell‘schen Ausmaßes

Die »Enzyklopädie aus freien Inhalten« ist eine der meist aufgerufenen Webseiten weltweit – jeder kennt sie, jeder nutzt sie. Doch wie steht es wirklich um das Social-Media-Projekt? Wie wahr sind die enthaltenen Informationen, und wie demokratisch geht es zu?

„Wikipedia“ wurde 2001 von dem US-Amerikaner Jimmy Wales gegründet. Dieser hatte zuvor Erfahrungen mit dem „Netz“ gesammelt, indem er eine Porno-Suchmaschine betrieb. 2007 wurde er beim Weltwirtschaftsgipfel in Davos gleichwohl zum „Young Global Leader“ befördert. Zugleich häufen sich seit 2001 die Jubelarien über seine Gründung: Wikipedia – das sei „freies Wissen für alle“, „herrschaftsfreier Diskurs“, „demokratisiertes Wissen“, „Informationspluralismus“, „vergleichbar mit der Erfindung des Buchdrucks und der Dampfmaschine“, „Schwarmintelligenz“. Gar zum „Weltkulturerbe“ wollen manche Enthusiasten Wikipedia befördert wissen.

Über 300 Sprachausgaben gibt es mittlerweile weltweit. Allein in Deutschland hat Wikipedia 2,4 Millionen Artikel produziert – darunter rund 750.000 oft sehr grenzwertige, einseitige Biographien. Das hinterlässt Kollateralschäden: Schüler, Studenten, Diplomanden, Doktoranden, ja sogar Professoren, Politiker, nicht wenige Journalisten, auch solche der sog. Qualitätspresse, der „Normalo-Bürger“ greifen tagtäglich auf Wikipedia zu. Oft aus reiner Bequemlichkeit, oft aus Naivität, nicht selten, weil man sich dort unter politisch, historisch, klimatisch korrekten Gesinnungsgenossen weiß. Und nicht wenige spenden auch – aus Überzeugung oder aus Naivität. Denn Wikipedia gibt sich ja als „nicht kommerzielles“, quasi gemeinnütziges Unternehmen, das ausschließlich von Spenden lebt – wer auch immer diese in die Taschen bekommt. Im Jahr 2017 soll es in Deutschland 359.444 Spender gegeben haben. Ein Spendensiegel des Deutschen Zentralinstituts für soziale Fragen (DZI) hat Wikipedia übrigens nicht.

Die besonders problematische Seite dieser letzten nach dem Printende von Brockhaus, Meyer und Co. verbliebenen „Enzyklopädie“ sind: Framing, Mobbing, Stalking, Diffamierung, Verunglimpfung, Schmähungen, Verleumdung, Fachinformation, Hetzjagden, Rufmord, Vernichtung der beruflichen Existenz, Reputationsmord bis hin zum realen Suizid – auch das hat mit Wikipedia zu tun: es wurde damit vor allem außerhalb der naturwissenschaftlich relevanten Stichworte zur Selektionsplattform. Nur eines von vielen Beispielen: Ausgedruckt umfasst der Eintrag zum Thema „Klimawandel“ 18 Seiten, zum Thema „Leugnung der menschengemachten globalen Erwärmung“ 47 Seiten.Das besonders Problematische ist: Wikipedia operiert quasi im rechtsfreien Raum, genießt de facto rechtliche Immunität, denn es hat in Deutschland keinen rechtsverbindlichen Sitz. Hilfe vonseiten deutscher Staatsanwaltschaften und Gerichte ist kaum zu erwarten. Wer sich mit Wikipedia anlegen will, muss in den USA klagen. Aufwendig und Ausgang ungewiss! Oder er muss deren Autoren (die dort Nutzer heißen) ihrer Anonymität enttarnen und das Visier öffnen, hinter dem sie sich verbergen. Es gibt nämlich keine Klarnamenpflicht. Insofern weiß man nicht, wer hinter einem Artikel, einer Löschung, einer Änderung, einer Manipulation, einer Verleumdung steht. Das macht den Unterschied zur spanischen Inquisition aus, die immerhin öffentlich stattfand. Wikipedia-Inquisitionen dagegen finden hinter verschlossenen Türen statt.

Vor allem weiß man nicht, über welche Expertise die Autoren und die in Deutschland hierarchisch über ihnen stehenden 200 „Administratoren“ und zwölf „Bürokraten“ verfügen. Gelegentlich gelingt es, sie zu enttarnen, und nicht selten erweist sich dann, dass es sich hier um selbstreferentielle Seilschaften, Querulanten, Zu-kurz-Gekommene, oft gescheiterte Studien- und Berufsabbrecher oder Leute mit viel Zeit handelt. Dass solche Leute nicht identifiziert werden wollen, ist klar. Und dass Wikipedia deren Identität schützt, ist auch klar, denn sonst würde man wohl viele, auf ihre Anonymität pochende Autoren verlieren.

Es kommt hinzu: Was für die bundesdeutsche Presse gilt, das gilt auch für Wikipedia – die Autoren neigen in der Mehrzahl zu politischer Schlagseite, denn es findet sich vor allem im Nicht-Naturwissenschaftlichen unverkennbar eine ausgeprägte Sympathie für alles, was links, grün, öko usw. ist und zur Antifa zählt. Gender- und Klima-Lobbys kommen ohnehin bestens weg. Auch der Antisemitismus findet in Wikipedia seinen Nährboden, wird er doch in vermeintlich politisch korrekter Form in „Kritik an Israel“ gekleidet.

Schwarzbuch Wikipedia

Wo all dies bestens belegt und spannend zu lesen ist? In Andreas Mäcklers Sammelband „Schwarzbuch Wikipedia“. Knapp dreißig Beiträge, darunter Interviews, von vierundzwanzig Autoren hat er zusammengetragen. Unter anderem finden sich authentische Darstellungen folgender Persönlichkeiten, die Wikipedia an den Pranger stellte und die teilweise reichlich Streiterfahrungen mit enttarnten Wiki-Schreibern oder vor Gericht hatten: Andreas Mäckler selbst, der Statistikprofessor Walter Krämer, der Psychologieprofessor Harald Walach, der Jurist und vormalige Verfassungsschutzpräsident Thüringens Helmut Roewer, der Theologe und Publizist David Berger sowie der Intelligenzforscher Volkmar Weiss.

Was man gegen dieses Wikipedia-Unwesen tun kann? Erstens sollte man andere Quellen nutzen – allen voran gedruckte; und wenn es denn digitale sein müssen, dann findet man im Anhang des Mäckler-Buches neun Links dazu. Zweitens sollte man nicht spenden. Den Akteuren in Bildungseinrichtungen ist drittens nahezulegen, dass sie sich bei Arbeiten ihrer Schützlinge nicht mit Wikipedia-Belegen begnügen. Viertens wäre es gut (selbst wenn dies ein illusorischer Gedanke ist), es würde sich ein zweites, drittes, viertes Wikipedia gründen oder Wikipedia selbst wäre bereit, auch divergierende Meinungen und Positionen zu veröffentlichen.

Das Mäckler-Buch bietet alles in allem eine Menge Aufklärung im Kant’schen Sinne. Und es ist ein mutiges Buch, mit dem der Herausgeber und so mancher Autor einiges riskieren. Dieses Lob des Rezensenten soll nicht geschmälert werden durch die Kritik an einem der Buchkapitel. Will sagen: Man darf sich als Wikipedia-Kritiker nicht darüber beschweren, wenn man von Wikipedia zu Unrecht verschiedener Verschwörungstheorien beschuldigt wird. Dann sollte es aber auch nicht so sein, dass ein Autor des Mäckler-Buches Wikipedia vorwirft, es habe sich der marktradikalen Theorie eines Friedrich August Hayek und dem militärisch-industriellen Komplex von USA, Großbritannien, Israel, NATO usw. unterworfen – gipfelnd in der Aussage des Mit-Autors Hermann Ploppa, Wikipedianer seien „NATO-Trolle reinsten Wassers.“

Assoziationen

Mutig, aufklärend, lesenswert bleibt das Mäckler-Band zumal. Zudem drängen sich im Zusammenhang mit Wikipedia zwei Assoziationen auf:

Erste Assoziation – sie betrifft diejenigen, die Pranger-Opfer von Wikipedia wurden: Es geht ihnen, weil Wikipedia mit verdecktem Visier operiert, wie der Hauptfigur Josef K. in Franz Kafkas Roman „Der Prozess“ (posthum veröffentlicht 1925). Dort ist gegen den Bankangestellten Josef K. ein Prozess im Gange. Das Gericht agiert im Verborgenen, Josef K. erfährt nicht einmal, was gegen ihn vorliegt. Am Ende wird er hingerichtet.

Zweitens: Nennenswerte Teile von Wikipedia erinnern an George Orwells „Big-Brother“-Regime. Die dort vorkommenden Herdenmenschen werden manipuliert durch ein stets aktualisiertes Wörterbuch der „Neusprache“. An diesem Verzeichnis bastelt der Sprachwissenschaftler Syme. Er sagt zur Hauptfigur des Romans, zu Winston Smith: „Wir geben der Neusprache ihren letzten Schliff … Wir merzen jeden Tag Worte aus … Siehst du denn nicht, dass die Neusprache kein anderes Ziel hat, als die Reichweite der Gedanken zu verkürzen? … Es ist lediglich eine Frage der Wirklichkeitskontrolle. … Die Revolution ist vollzogen, wenn die Sprache geschaffen ist … Es wird überhaupt kein Denken mehr geben … Strenggläubigkeit bedeutet: …. nicht mehr zu denken brauchen.“ Oder – gemäß des Leitspruchs: „Unwissenheit ist Stärke.“ Stärke der Regierenden! Die Folge: Wer nicht politisch korrekt denkt und spricht, wer im Orwell‘schen Sinn ein „Gedankenverbrecher“ ist, wird zur Zielscheibe der „Gedankenpolizei“, er wird der „Herrschaft des Verdachts“ (Hegel), vor allem des Faschismusverdachts unterstellt, oder er wird im Sinne des „Big Brother“ „vaporisiert“, verdampft, das heißt, er findet in der Meinungsbildung nicht mehr statt.

Deswegen hat Winston Smith in George Orwells „1984“ die Aufgabe, Geschichte ständig umzuschreiben, in einem Ministerium für Wahrheit, das schön zweideutig mit „MINIWAHR“ abgekürzt wird.

Der Beitrag erschien zuerst bei TE hier


Andreas Mäckler (Hg.), Schwarzbuch Wikipedia. Mobbing, Diffamierung und Falschinformation in der Online-Enzyklopädie und was jetzt dagegen getan werden muss. Verlag zeitgeist Print & Online, 364 Seiten, 19,90 €




15. April: Tag der teuersten Fehlentscheidung

Die Bundeskanzlerin begründete die Zaghaftigkeit mit „einem bislang zerbrechlichen Erfolg“ gegen die Epidemie und klärte die deutsche Bevölkerung über die Epidemie-Reproduktionszahl R auf, die unversehens wieder auf 1,2 oder 1,3 steigen könnte, wenn wir nicht alle äußerst vorsichtig sind. Dazu gehört, sich weiterhin an die meisten Lockdown Maßnahmen zu halten, und auch längerfristig die Kontaktverbote zu beachten.

Die Frage ist allerdings, ob diese Lockdown-Maßnahmen überhaupt gegen die Epidemie wirken. Falls nicht, dann sind sie erstens nicht notwendig und zweitens ungeeignet, um die Bevölkerung vor einer Ansteckung mit Covid-19 zu beschützen. In meinem Artikel vom 14. April (hier)  habe ich ausgeführt, dass die Lockdown Maßnahmen größtenteils unwirksam und daher weder notwendig noch geeignet sind. Meine Berechnungen wurden seitdem mit neueren Analysen durch die obere Bundesbehörde Robert-Koch-Institut (RKI) bestätigt: die Lockdown-Maßnahmen sind auch laut dem RKI nicht wirkungsvoll.

Der Lockdown besteht aus einem breiten Bündel an Maßnahmen, die zu unterschiedlichen Zeiten verabschiedet wurden. Die wichtigsten Maßnahmen kamen in drei Wellen.

Zuerst kam am 8. März die Empfehlung, keine Großveranstaltungen mit mehr als 1.000 Teilnehmern durchzuführen.

Daraus wurde am 10. März dann ein sofortiges Verbot.

Die zweite Welle kam ab dem 16. März mit Schließung der Bildungseinrichtungen und der meisten Grenzübergänge und einem generellen Veranstaltungsverbot mit mehr als 50 Teilnehmern.

Zwei Tage später am 18. März waren bundesweit sämtliche Geschäfte geschlossen mit Ausnahme von Lebensmittelläden, Apotheken, Tankstellen und ähnlichen essenziellen Versorgungsstationen. Touristische Reisen wurden verboten, sowie alle Kirchen, Sportstätten und Spielplätze wurden geschlossen.

In der dritten Welle, ab dem 22. März wurden dann auch die Restaurants, Cafés, Friseure und andere persönliche Dienstleistungen geschlossen. Gruppen von mehr als 2 Personen wurden verboten, und es gilt seitdem, einen ständigen Abstand von mindestens 1,5 Metern einzuhalten, es sei denn mit Personen aus demselben Haushalt. In Bayern, Sachsen und dem Saarland wurde es zudem generell verboten, das Haus zu verlassen, außer mit einem guten Grund.

Einbruch der Wirtschaft um 40 Prozent

Die drei Wellen kann man jeweils zusammenfassen unter den Begriffen:

  • Verbot Großveranstaltungen ab dem 10. März,
  • Schließung des öffentlichen Lebens ab dem 16. März
  • Kontaktverbote ab dem 22. März.

Die Schätzungen gehen von einem derzeitigen Einbruch der Wirtschaft um 40% aus, ein historischer Wert.

An dem selben 15. April, an dem die Bundeskanzlerin über die Gefahr eines R-Wertes von höher als 1 warnte, hat das RKI sein 17. Epidemiologisches Bulletin veröffentlicht hier, (aktualisiert ab Seite 10) in dem wörtlich steht:

„Die R-Schätzung ergibt für Anfang März Werte im Bereich von R = 3, die danach absinken und sich etwa seit dem 22. März [bis 9. April] um R = 1 stabilisieren….[und] dass der aktuelle R-Wert das reale Geschehen etwas unterschätzt [also das wahre R niedriger als 1 ist].“

Dieser Satz bestätigt, dass die Maßnahmen der zweiten und dritten Welle des Lockdowns keine Wirkung hatten. Das werde ich im Folgenden erläutern.

Dazu ist es notwendig, sich die Abbildung 2 des RKI Bulletin genau anzuschauen. Dort hat das RKI das Erkrankungsdatum mit ersten Symptomen der Covid-19-Patienten rekonstruiert. Die Zahlen zeigen immer mittwochs einen Ausreißer nach oben: dem 18. März, dem 25. März, dem 1. April und dem 8. April. Es ist internationaler wissenschaftlicher Konsens, dass die Symptome der Krankheit meistens 5 Tage nach der Infektion auftreten: Wer sich ab Mittwoch schlecht fühlt, der hat sich folglich am Freitag/Samstag davor infiziert. Weil die Rate des engen sozialen Kontakts am Freitag/Samstag am höchsten ist, erkranken daher die meisten Menschen an einem Mittwoch. Die höchste erreichte Krankenzahl der Epidemie war am 18. März erreicht, danach ging die Anzahl der Erkrankungen pro Tag stetig zurück.

Für die Bemessung der Wirksamkeit der Maßnahmen ist allerdings nicht der absolute Rückgang der Erkrankungszahlen entscheidend, sondern ab wann das R begann, nachhaltig abzuflachen, also ab wann ein Infizierter weniger als drei andere infiziert. Und das passierte bereits Anfang März, wie das RKI selbst in dem Bulletin beschreibt (oben zitiert), also schon zwei Wochen VOR dem Lockdown der zweiten Welle mit ihren Schließungen des öffentlichen Lebens. Es muss daher zwingend schon irgendetwas VOR dieser zweiten Welle des Lockdown zu einer Reduktion der Infektionsrate geführt haben. Die Antwort darauf ist einfach: Erstens haben die Maßnahmen vom 8. März alle Großveranstaltungen abgesagt, und zweitens, schon davor waren mit dem rheinischen Karneval – der teuersten Party der Weltgeschichte – und dem darauf folgenden alpinen Après-Ski die wichtigsten Virus-Drehschleudern Europas von alleine saisonbedingt beendet worden.

Es gibt einen noch deutlicheren Beweis dafür, dass die Maßnahmen der zweiten Welle vom 16. März keine Wirkung hatten. Die Kurve in Abbildung 2 des Bulletins stellt den bundesdeutschen Durchschnitt dar. Es gibt aber vier große Bundesländer, deren Epidemieverläufe 6 Tage früher als der Bundesdurchschnitt liegen: Nordrhein-Westfalen, Rheinland-Pfalz, Hessen und Hamburg. In diesen vier Bundesländern begann die Reproduktionsrate R schon Ende Februar zu sinken und fiel bereits am 10. März auf 1,0 und einen Tag später auf 0,9, wie von mir ausgerechnet wurde, hier. Die Lockdown-Maßnahmen des 16. März wurden erst eine Woche nach dem 10. März verkündet – also konnten sie NICHT die Reduktion der Infektionsraten in diesen vier Bundesländern auslösen und haben auch anschließend KEINE statistisch erkennbare Wirkung mehr auf das Infektionsgeschehen dort gehabt.

Kontaktsperren hinterließen keine messbaren Spuren

Die Abbildungen 2 und 4 des RKI Bulletins bergen eine weitere Erkenntnis, die mindestens genauso gravierend ist, nämlich, dass auch die erhebliche Lockdown-Verschärfung der dritten Welle mit ihren Kontaktverboten ab dem 22. März ebenfalls keine Auswirkung hatte. Die Abbildung 2 zeigt auf den ersten Blick, dass die Krankheitszahlen im bundesdeutschen Durchschnitt mit KONSTANTER Rate vom 18. März bis zum 9. April gefallen sind. Wenn die Maßnahmen vom 22. März eine zusätzliche Wirkung gehabt hätten, dann hätte es 5 Tage später, ab dem 27. März (der durchschnittlichen Dauer bis zu Krankheitssymptomen), eine schnellere Reduktion der Erkrankungen geben müssen, aufgrund eines weiter gesunkenen R. Das ist aber nicht der Fall, das R blieb bis vor kurz Ostern laut der Abbildung 4 bei um die 0,9. (Erst während der Osterfeiertage sank es weiter herunter auf 0,7, wie wir mittlerweile wissen). Die Verschärfung der Maßnahmen am 22. März haben demnach ebenfalls KEINE messbaren Spuren in der Statistik hinterlassen.

Zusammengefasst: In vier großen Bundesländern begann die Epidemie bereits ab Ende Februar von alleine zu verschwinden, weil der Karneval und die alpinen Après-Ski Ferien saisonbedingt beendet waren. Das anschließende Großveranstaltungsverbot vom 8. März hat ein Wiederaufflammen bei Fußballfesten und anderen Festivals verhindert. Die zweite Welle der Maßnahmen ab dem 16. März haben in diesen vier Bundesländern keine weitere Wirkung in der Reduktion der Infektionsraten gehabt. Die beiden südlichen Bundesländer Bayern und Baden-Württemberg führten die alpinen Après-Ski Partys noch fort, und in Bayern fand sogar noch eine Kommunalwahl am 15. März statt. Das Ergebnis war ein erst späteres Abklingen der Epidemie im Süden. In keinem der Bundesländer hat die dritte Welle der Maßnahmen mit den Kontaktverboten ab dem 22. März eine statistisch erkennbare Wirkung gezeigt. Daraus folgt: Um die Infektionszahlen zu verringern, müssen Großveranstaltungen und Partys verboten werden – aber die Schließung des öffentlichen Lebens und Kontaktsperren machen keinen Unterschied in der Infektionsrate.

Schweden und Italien passen ins Bild

In dasselbe Bild passen die Erfahrungen von sowohl Schweden als auch Italien. Schweden hat nur eine erste Welle an Maßnahmen durchgeführt, nämlich alle Veranstaltungen über 50 Personen zu verbieten. Alles weitere ist erlaubt und geöffnet, (wobei Social Distancing empfohlen und praktiziert wird), und dennoch ist auch in Schweden das R bereits unter 1,0 gefallen. Dagegen fällt das R in Italien nicht unter 0,8 – selbst mit dem längsten und schärfsten Lockdown in ganz Europa, während dem die gesamte Bevölkerung seit mittlerweile sechs Wochen in ihre Wohnungen eingesperrt wurde und selbst die Industrieproduktion bis auf das Notwendigste eingestellt wurde. Auch in diesem internationalen Vergleich zeigt sich, dass es ausreicht, Großveranstaltungen zu verbieten, um ein R von unter 1 zu erreichen, aber dass weitere Maßnahmen der Schließung des öffentlichen Lebens und Kontaktverbote keine Wirkung entfalten, das R deutlich weiter zu reduzieren.

Dass die Lockdown-Maßnahmen der zweiten und dritten Welle wirkungslos sind, scheint zunächst widersinnig. Aber die Zahlen lügen nicht. Vielleicht lässt sich das wie folgt erklären. Die Übertragungswege des Corona Virus sind hauptsächlich, vielleicht sogar ausschließlich, die Tröpfchen- und Aerosol-Übertragung aus dem offenen Mund durch Husten, Niesen, Singen, Grölen, Lachen, Schnaufen und vielleicht sogar nur einfaches Sprechen. Ein Infizierter kann stundenlang im öffentlichen Verkehr direkt neben mir sitzen, aber solange er mich nicht anspricht, besteht keine Infektionsgefahr.

Es gibt keinen Hinweis auf Infektionsgeschehen in übervollen Flugzeugen, Bahnen, Bussen, Flughafenterminals oder Bahnhöfen, selbst ohne Mundschutz. Aber nur das Gehen durch eine noch schwebende Atemwolke von einem infizierten keuchenden Jogger, der schon längst nicht mehr zu sehen ist, reicht aus, um mich erkranken zu lassen. Oder vermutlich reicht auch die Atemwolke eines Infizierten, der fünf Meter vor mir schwer schnaufend das Treppenhaus im Mietshaus hochgestiegen ist. In dem ersten Fall sind 30 cm Nähe ungefährlich, und in dem letzteren Fall sind viele Meter Abstand trotzdem infizierend. Das heißt, selbst mit allen Social Distancing Maßnahmen, gibt es trotzdem genügend spontane Neuinfektionen, auch in einer auf das Minimum reduzierten Gesellschaft, die dann anschließend im engeren Familienkreis, bei den unmittelbaren Arbeitskollegen (der wenigen die noch arbeiten können), oder im medizinischen und pflegerischen Personal gleich wieder Dutzende von neuen Infektionsketten entstehen lassen.

Sommerurlaub auf Balkonien 

Was folgt daraus für die weitere Handlungsstrategie im Umgang mit dieser Epidemie? Die erste Folge ist einfach. Solange es weder Herdenimmunität noch Impfstoff gegen Covid-19 gibt, kann es auch keine Großveranstaltungen mehr geben – und entsprechend auch kein dichtgedrängtes Sommerurlaubsgetümmel mit entsprechender Partyszene am Mittelmeer, geschweige denn außerhalb Europas. Der deutsche Sommerurlaub wird weitgehend auf Balkonien oder heimatnahen Fahrradwegen stattfinden.

Die zweite Folge hängt von der Strategie ab, was die Gesellschaft will. Ist die Gesellschaft bereit, den schwedischen Weg zu gehen, eine Herdenimmunität aufzubauen, oder möchte sie lieber den taiwanesischen Weg beschreiten, das Virus möglichst aus der Gesellschaft zu eliminieren, bis es einen Impfstoff gibt? Für keine der beiden Strategien, ist es notwendig, die Lockdown-Maßnahmen der zweiten und dritten Welle aufrechtzuerhalten. Sie sind weder wirkungsvoll noch geeignet.

Für den schwedischen Weg mit dem Ziel einer Herdenimmunität muss ein starker Schutz für die Risikogruppen errichtet werden, also derjenigen, die eine höhere Sterblichkeitsrate bei einer Infektion haben. Ansonsten muss das Infektionsgeschehen nur soweit begrenzt werden, dass das Gesundheitssystem nicht kollabiert. Ein Verbot von Großveranstaltungen scheint dafür zu reichen.

Für den taiwanesischen Weg brauchen wir hochfrequentes Testen, die blitzschnelle Identifikation von möglicherweise Infizierten im öffentlichen Raum durch eine Contact Tracing App und konsequente Quarantäneüberwachung von allen potenziell Infizierten. Keine dieser drei Maßnahmen wird zur Zeit in Deutschland ergriffen. Die Gemüter bewegt stattdessen die Mundschutzpflicht. Aber ob das Tragen vom Mundschutz im öffentlichen Raum Wirkung zeigt, muss sich erst noch erweisen. Vermutlich nicht – denn der allergrößte Teil des Infektionsgeschehen hat schon immer im privaten Raum stattgefunden.

Beweisbar unwirksamen Strategie

Ohne sich entweder für den schwedischen oder für den taiwanesischen Weg zu entscheiden, hat die Bundeskanzlerin am 15. April an einer beweisbar unwirksamen Strategie festgehalten: Schließung des öffentlichen Lebens, Kontaktverbote und gravierende Wirtschaftsrestriktionen. Die Corona Krise hat bereits viele teure Fehlentscheidungen gesehen, zum Beispiel, sich im Januar nicht intensiv mit dem Virus in China zu beschäftigen oder im Februar keine Vorbereitungen für eine Pandemie zu treffen – oder im März sich nicht durch konsequentes Datensammeln eine Entscheidungsgrundlage erarbeitet zu haben.

Die Stopp-Taste am 16. März zu drücken, war deswegen zunächst richtig, denn aufgrund der vorherigen Versäumnisse gab es fast kein relevantes Wissen über das Virus. Aber mittlerweile wissen wir mehr, und die Zahlen sprechen eine zunehmend klare Sprache. In der Rekordjagd nach der teuersten Fehlentscheidung dürfte der 15. April jetzt einen neuen Spitzenwert verbuchen. Es wäre besser gewesen, die Bundeskanzlerin hätte das Bulletin ihrer oberen Bundesbehörde Robert-Koch-Institut vom selben Tag gelesen. Als promovierte Naturwissenschaftlerin kann sie diese Zahlen schließlich selbst verstehen und einordnen.

Der Beitrag erschien zuerst bei ACHGUT hier




COVID-19-Modelle – eine Lektion für jene, welche Klimawissenschaftlern vertrauen

Wir in der Branche Wettervorhersage verwenden Modelle als ein Hilfsmittel, und sie bieten spezielle Herausforderungen. Uns steht eine Fülle von Modellen zur Verfügung, aus denen wir wählen können. Sie werden 2 oder 4 mal pro Tag oder teils sogar stündlich neu berechnet. Operationelle Modellvorhersagen reichen bis 16 Tage in die Zukunft. Dann jedoch weisen sie schon große Fehler auf, vor allem dann, wenn Wettersysteme aus spärlich mit Daten abgedeckten Regionen auf das Festland übergreifen, wie es an der US-Westküste der Fall ist. Es gibt bei uns eine beliebte Phrase – Garbage in, Garbage out (GIGO).

Hinsichtlich der Klimamodelle ist aber alles noch viel schlimmer. Die Klimamodelle übertreiben die Erwärmung durch Treibhausgase um einen Faktor 2 oder mehr:

Klimamodell-Vorhersagen im Vergleich zu Satelliten- und Ballon-Beobachtungen

Die Modelle projizierten die stärkste Erwärmung in der mittleren Troposphäre über den Tropen (genannt der Hot Spot), wo die Luft im Mittel aufsteigt aufgrund der Konvergenz aus den beiden Hemisphären. Aber die Erwärmung in den Modellen ist größtenteils eine Folge der Freisetzung latenter Wärme durch Kondensation des Wasserdampfes. CO2 ist ein Spurengas, welches nur einen Anteil von 0,04% an der Atmosphäre hat.

Man sieht: Kein Erwärmungstrend in der oberen Troposphäre seit 1979, als die Modelle ihn prophezeit hatten:

Die fehlende Erwärmung gilt auch für den tropischen Pazifik bis zu einer Tiefe von 300 m zwischen den Längengraden 160°E und 80°W:

Wie sie mit dem Fehlen von Daten in den unteren Luftschichten umgehen

Die Klimaille porträtiert die Ergebnisse ihrer Modelle als Evangelium, und die Gläubigen vermengen die Modellprojektionen mit gemessenen Daten. Die Datenzentren stellen unhaltbare Behauptungen auf, wonach ein gegebener Monat oder ein gegebenes Jahr das wärmste jemals gewesen sei seit Beginn von Aufzeichnungen (1880 oder sogar 1850), und das oftmals mit geringsten Spannbreiten (0,05°C zum Beispiel).

Aber die Daten als Grundlage derartiger Behauptungen gibt es einfach nicht.

71% der Erde sind von Ozeanen bedeckt, und bevor vor 40 Jahren die ersten Satellitendaten verfügbar waren, hingen Messungen von Ozeandaten von Schiffen ab, die auf bestimmten Routen fuhren, hauptsächlich auf der Nordhemisphäre und in der Nähe von Land.

Ein großer Teil der Landoberfläche war erratisch mit Messpunkten bestückt, und die Daten waren nur zu oft spärlich und intermittent.

Um halbwegs eine Übereinstimmung mit ihren geheiligten Modellen zu erreichen, manipulierten die Datenzentren reale Daten, oder sie erzeugten dieselben sogar mit ihren Modelldaten für 95% des Planeten mit sehr dünnem Messnetz vor der Satelliten-Ära.

Der Klimawissenschaftler am MIT Dr. Mototaka hat die verlogenen Behauptungen bloßgestellt, wonach die meisten Jahre die wärmsten jemals waren seit den 1850er Jahren.

„Die vermeintliche Bedeutung der globalen mittleren Temperaturen seit 1890 hatten Thermometer-Messungen zur Grundlage, die kaum 5% des Globus‘ abdeckten, bis vor 40 bis 50 Jahren die Satelliten-Ära begann. Wir wissen nicht, wie sich das globale Klima im vorigen Jahrhundert verhalten hat. Alles, was wir wissen, sind ein paar regionale Klimaänderungen, etwa in Europa, Nordamerika und Teilen von Asien“.

Die besten Klimawissenschaftler während der 1970er Jahre wussten das und erzeugten die erste Übersicht über globale Trends mittels Land-Temperaturen, wo immer diese auf der Nordhemisphäre verfügbar waren. Sie zeigten eine Erwärmung um ca. 1°C von den 1880er Jahren bis etwa 1940 und danach eine Abkühlung bis etwa 1970, wodurch die Erwärmung zuvor um etwa die Hälfte wieder zurück ging. Weitere Abkühlung bis Ende der 1970er Jahre eliminierte den Rest davon.

Diese frühen Messungen wurden gelöscht, als Modelle und globale Land- (und Ozean-)Daten während der folgenden Jahrzehnte ,erzeugt‘ worden waren. Die Modelle machten die frühen Daten kälter und die späteren Daten wärmer. Damit sollte eine offensichtliche stetige Erwärmung erzeugt werden während der Ära, in der der Verbrauch fossiler Treibstoffe immer mehr zunahm. Unsere Schlussfolgerung: Es gibt eine vom Menschen erzeugte globale Erwärmung, aber diese Menschen befinden sich bei der NOAA, der NASA und Hadley:

Übrigens wurde die Datenabdeckung und -genauigkeit von den Ozeanen nicht wirklich zuverlässig, bis im Jahre 2000 das ARGO-Bojenprogramm gestartet worden ist. Damit sollten Temperatur und Wärmegehalt der Ozeane genau gemessen werden. Genau wie bei den Satellitenmessungen zu Änderungen der Höhe des Meeresspiegels (welche keine Änderungen zeigten, bis man künstliche Adjustierungen vorgenommen hatte), waren die ersten Ergebnisse enttäuschend – zeigten sie doch keinerlei Erwärmung. Die ARGO-Daten stützten den unbequemen, fast zwei Jahrzehnte währenden Stillstand der Erwärmung, welcher Ende der 1990er Jahre begann.

Vermutlich aus Verzweiflung vor dem Paris-Abkommen ließen sie dies verschwinden, indem die Bojendaten so manipuliert worden waren, dass sie zu den Schiffsdaten passten

Die Modelle sind frisiert, um manipulierte (betrügerische) Daten zu erzeugen. Zusätzlich zu dem oben Gesagten wird dies deutlich, wenn man alle Extreme des Wetters betrachtet, welche diese Modelle und die Theorien prophezeit hatten. Jede Einzelne dieser Prophezeiungen ist gescheitert (hier).

Summary

COVID-19 hat gezeigt, wie groß die Auswirkung einer Pandemie auf die globale Bevölkerung sein kann. Ein Green New Deal wurde nicht in einem Laboratorium geschaffen. Aber er ist idiotisch* und würde massive Auswirkungen auf das Leben haben, so wie wir es kennen. Die Auswirkungen auf unsere Ökonomie würden nicht so rasch zutage treten, wären aber genauso ernst. Die Regierung dürfte Ihnen kaum Schecks zuschicken, um zu helfen, den rasanten Anstieg der Stromkosten aufzufangen sowie die Kosten für den Lebensstandard und wie man leben will (wohin man womit fährt, wo man leben will, wie viel man verdienen und behalten kann, usw.). Weil das alles auf Junk Science basiert, müssen wir so schnell wie möglich auch die COVID-19-Modelle loswerden.

[*Der Autor drückt sich etwas drastischer aus. Anm. d. Übers.]

Mehr dazu findet sich in dieser Präsentation vor den Steuerzahlern von New Hampshire.

Hier gibt es einen Vergleich von Klimamodellen mit COVID-19-Modellen [dieser Beitrag folgt demnächst ebenfalls in deutscher Übersetzung!] Und in diesem Video wird der ganze Betrug hinter COVID-19 aufgedeckt.

Link: http://icecap.us/index.php/go/joes-blog/covid19_models_a_lesson_for_those_who_trust_climate_scientists/

Übersetzt von Chris Frey EIKE




„Das Eis am Nordpol ist nicht mehr zu retten“….

von AR Göhring

…Und der leitende Autor ist wie Lesch ARD/ZDF-nah. Interessanterweise verweist der Spiegel-Artikel sogar auf den im Eis fast steckengebliebenen russischen Eisbrecher, der die deutsche Polarstern des Alfred-Wegener-Institutes versorgen und die Besatzung austauschen sollte. Wie kann es meterdickes Rekord-Packeis mitten in der menschgemachten Klimakatastrophe geben?

Nun ist für die Alarmisten aber alles wieder gut, denn es ist Frühling und das Eis schmilzt, so daß man behaupten kann, das industrielle CO2 taue das Eis auf. Das nennen Psychologen dann „selektive Realitätswahrnehmung“. Die Realität wird demnach nur wahrgenommen, wenn sie zum Weltbild paßt; widersprechende Fakten werden ignoriert oder weg-erklärt (die „Einzelfall“-Rhetorik, die wir auch aus anderen Politikfeldern nur zu gut kennen). Dazu paßt, daß die arktische Meereisbedeckung gerade den zweitniedrigsten Stand seit Beginn der Satelliten-Messung haben soll. Tatsächlich ist das arktische Meereis in der warmen Jahreszeit, wie uns Susan Crockford in München sagte, in den letzten Jahren recht dünn.

Bedeutet das etwas? Nein, denn a) die angeblich vom Aussterben gefährdeten Eisbären vermehren sich seit 50 Jahren wie die Karnickel, weil sie im Winter auf dem mächtigen Packeis Robben jagen und sich eine ordentliche Speckschicht anfressen. Für die angeblich dramatisch steigenden Meeresspiegel bedeutet es auch nichts, da b) auf dem Meer schwimmendes Eis beim Tauen den Wasserpegel kaum verändert, denken Sie an Ihre Cola-on-the-rocks. Und c) ist das Eis im Winter meist wieder da und toppt Rekorde aus den letzten Jahrzehnten. Aber das verschweigt die klimapolitische Presse lieber oder deutet nur vorsichtig an:

Für das Eis rund um den Nordpol sieht es düster aus, zumindest saisonal.

Und:

Demnach wird der Arktische Ozean mit hoher Wahrscheinlichkeit noch vor dem Jahr 2050 in vielen Sommern eisfrei sein – selbst wenn sich die Menschheit noch zu Klimaschutzmaßnahmen durchringen sollte, die diesen Namen verdienen.

Schön wäre es ja, wenn es so warm bliebe wie jetzt. Leider deuten die Ergebnisse medien- und politikferner Wissenschaftler wie Nir Shaviv und Henrik Svensmark das Gegenteil an: Wir stehen vor einer neuen Abkühlphase, die an die Zeit vor 1850 erinnert. Und selbst wenn das Arktiseis ein paar Jahre im Sommer und Frühling dünn bleibt, was interessiert es uns oder die Polarbären? Die Schiffe wie die Polarstern kommen dann gut durch und verpulvern nicht so viel Schiffsdiesel, dessen Abgase ja so klimaschädlich sein sollen.

Für ihre wissenschaftliche Studie haben die Forscher um einen Professor aus Hamburg sogenannte SSP-Szenarien verwendet („shared socioeconomic pathways“ – „gemeinsame sozioökonomische Pfade„), die auch im nächsten Bericht des Weltklimarats IPCC vorkommen werden. Der geneigte Leser von EIKE weiß, was „Szenario“ bedeutet: Eine nichtlineare chaotische Simulation, die auf willkürlichen Annahmen beruht. Anders geht es auch gar nicht, da chaotische „Berechnungen“ nicht möglich sind. Man „errechnet“ damit nur eine theoretische Möglichkeit, die alles andere als wahrscheinlich sein muß. Denken Sie an den berühmten Schmetterling dessen Flügelschlag in der Sahara am anderen Ende der Welt einen Orkan auslösen kann. Stefan Rahmstorf höchstselbst hat dazu 2013 im ZDF gesagt:

Standbild https://www.youtube.com/watch?v=4hrx08tInBg

Oder, wie Jeff Goldblum es als Mathematiker Dr. Malcolm in Jurassic Park anhand eines fließenden Wassertropfens auf der Hand es so schön formulierte: „Kleine Änderungen in den Anfangsbedingungen können dramatische Folgen im Ergebnis haben.“

Daß die Meereis-Studie so designt ist, daß das herauskommt, was politmedialgewollt ist, überrascht also nicht. Eine Aussage der Ozeanforscher ist allerdings neu:

Auch im Fall eines ambitionierten Klimaschutzes sagen die Simulationen immer wieder Jahre mit einem eisfreien Nordpol voraus.

Heißt? Daß die Desindustrialisierung Europas nicht schnell genug geht? Oder daß westliche Klimaschützer auch mal in Peking oder Delhi demostrieren sollten?

Ein anderes schönes Zitat im Artikel, das sogar richtig lustig ist, ist dieses:

Die Temperaturen steigen dort weit schneller als im globalen Durchschnitt…

Diese glaubhafte Nachricht gibt es übrigens für nahezu jede Region der Erde, in der es schneller wärmer werde, als überall sonst, wie GroßeFreiheit TV auf köstliche Weise zeigte.

 

 

 

 

 




Bericht zur Coronalage vom 22.04.2020 – worauf wartet die Politik?

Risikoanalyse

Ansteckungsgefahr

Nun ist es offiziell, der Reproduktionsfaktor R sank schon vor dem Shutdown unter 1. Das ist der Zeitpunkt, ab dem ein an Corona-Covid-19 Erkrankter durchschnittlich weniger als eine andere Person ansteckt. Laut einer Veröffentlichung des Robert-Koch-Instituts vom 15.4.2020 sank der R-Höchstwert bereits ab dem 11.3.2020 und liegt unter 1 seit dem 20.3.2020. Ab diesem Zeitpunkt, also drei Tage vor dem Shutdown, ist Covid-19 bereits im Abklingen. Damit hat der Shutdown keinen messbaren Einfluss auf die Infektionseindämmung. In diesem Beitrag werden jedoch jedoch noch weitere, brisante Erkenntnisse thematisiert.

Noch nicht offiziell ist die Zahl der Opfer des Shutdowns infolge des massiven Absinkens der Wirtschaftsleistung, des Anstieges der Arbeitslosenzahl, von häuslicher Gewalt, der eingeschränkten medizinischen Versorgung, der Belastung für die internationalen Beziehungen sowie der Beschädigung des Rechtsstaates. Sie werden jedoch – die Prognose sei erlaubt – gewaltig sein. Niemand wird die Zahl messen an Opfern des Shutdowns in den Entwicklungsländern, die aufgrund ausbleibenden Tourismus und Wirtschaftsaufträge buchstäblich vor dem Nichts stehen, nichts zu essen haben und die kein Sozialnetz auffängt.

Doch der Reihe nach. Heute geht es um die Entwicklung und die Versäumnisse bezüglich des epidemiologischen Wissens seit Beginn der Coronakrise. In einem Folgebeitrag erkläre ich Ihnen etwas später, warum wir jetzt, da es genügend Erfahrung in Deutschland mit der Krankheit selbst gibt, auf erfahrene Praktiker hören sollten. In komplexen Situationen ist deren reflektierte Gefühlseinschätzung reiner Statistik oft sogar überlegen. Deshalb kommen in einem Folgebeitrag vor allem führende Lungenärzte und Pathologen zu Wort. Erst beides zusammen, Daten und Erfahrung, ergeben ein belastbares Gesamtbild.

Was wir in dieser langsam wirklich dramatischen Situation ganz bestimmt nicht mehr brauchen, sind Modellberechner wie den Briten Neil Ferguson, die an einem Zahlenrädchen drehen und die wahrscheinliche Totenzahl eines Landes mal eben von 500.000 auf 20.000 herunterrechnen und immer noch in Talkshows Panik schüren. Das ist inzwischen nur noch lächerlich.

Ab wann ist eine Krankheit gefährlich für die Gesamtbevölkerung?

Jede schwere Krankheit, an der wir erkranken, ist für den Betroffenen gefährlich oder gar tödlich. Um die Gefährlichkeit in Bezug auf die Gesamtbevölkerung zu beurteilen, müssen zuvor zwei Fragenkomplexe geklärt werden:

  1. Wie schwer ist die Krankheit, wer ist davon betroffen, hinterlässt sie Folgeschäden und kann man daran sterben?
  2. Wie bekommt man diese Krankheit und wie viele Menschen können daran erkranken?

Der erste Fragenkomplex wird am besten beantwortet von den zur Krankheit passenden Fachtherapeuten und Pathologen, die damit Erfahrung sammeln konnten.

Der zweite Fragekomplex fällt in das Gebiet der Epidemiologie und im Falle einer Infektion auch der Immunologie. Primär nicht in das Fachgebiet der Virologen. Eine Ausnahme sind die Forschungen von Prof. Hendrik Streeck, der sich vor allem mit Ansteckungswegen eines Virus befasst. Professor Christian Drosten ist dagegen Spezialist für die Beschaffenheit des Virus selbst, woraus sich Nachweistests oder auch Impfstoffe ableiten lassen. Für die Beurteilung der Gefährlichkeit eines Virus ist er, rein fachlich gesehen, gar nicht zuständig.

Erst nach Klärung dieser zwei Fragenkomplexe, kann man eine belastbare Risikoeinschätzung vornehmen und die Gegenmaßnahmen gegenüber ihren Nebenwirkungen in ihrer Verhältnismäßigkeit beurteilen. Dabei gilt: Je belastbarer die Daten- und die Erfahrungslage, desto sicherer kann man sich dabei sein.

Wahlumfrage, Wahlprognose und erste Hochrechnungen

Fangen wir mit dem zweiten Fragekomplex an, der Domäne der Epidemiologie, also der Statistik und Zahlendeutung. Die meisten von Ihnen kennen das Spiel vor Wahlen. Wochen vor der Wahl werden Umfragen veröffentlicht, die oft, aber nicht immer, dem tatsächlichen Ergebnis nahekommen. Am Wahltag gibt es um 18 Uhr die Wahlprognose, sie beruht auf Befragung von Wählern, nachdem sie tatsächlich gewählt haben. Aber auch hier kommt es immer wieder vor, dass die Prognose vom späteren Ergebnis abweicht. Erst die Hochrechnung beruht auf der tatsächlichen Auszählung von Wählerstimmen, und sie stimmt meist mit dem späteren Gesamtergebnis bis auf wenige Zehntel überein.

Am Anfang herrschte Unklarheit 

Seit dem 12. März schreibe ich auf Achgut.com regelmäßige Beiträge zur Coronalage, dies hier ist der zwölfte. Am Anfang vor allem noch unter dem emotionalen Eindruck der schrecklichen Berichte aus Italien und aus mangelnder Erfahrung mit dieser Erkrankung in Deutschland selbst (zu diesem Zeitpunkt 1.656 Fälle mit 3 Toten) schrieb ich, dass man aufgrund der unklaren Lage das Verbieten von Großveranstaltungen nicht kritisieren sollte, jedoch der folgenden Prämisse „Wenn es Grund zu einer Entwarnung gibt, sollte jedoch nicht damit gezögert werden. Auch wirtschaftliche Notzeiten fordern Todesopfer.“

Doch sehr schnell wurde deutlich, es gibt eine klare Risikogruppe, die jedoch in den Altersheimen und der ambulanten Pflege nicht professionell vor Ansteckung geschützt wird. Damit war die Marschrichtung eines verantwortungsethischen Vorgehens vorgegeben, kein kompletter Shutdown für alle, sondern Konzentration auf die Risikogruppe, aber das mit allen Registern, finanziell, professionell und fantasievoll human. Alle Einwände dagegen verblassen bei näherer Betrachtung. Es kam anders.

Außerdem beschrieb ich am 17. März die ersten Einschätzungen von führenden Epidemiologien, die zwar das Fehlen repräsentativer Daten bemängelten, aber erste Rückschlüsse beispielsweise vom Krankheitsverlauf auf dem Kreuzfahrschiff Diamant Princess zogen und damit die hohen Sterblichkeitsprognosen doch deutlich niedriger einstufen konnten.

Erste Prognosen

Gleichzeitig gab es in anderen Ländern erste repräsentative Studien zur Krankheitsverteilung, die dem Virus etwas von seinem Schrecken nahmen, gut zusammengefasst hier. Auffallend war zu diesem Zeitpunkt die Passivität des Robert-Koch-Instituts (RKI), welches überhaupt keine Anstrengungen erkennen ließ, eigene repräsentative Studien mit Tests durchzuführen. Sowie Verlautbarungen überpräsenter Virologen, die weiter Horrorzahlen prognostizierten, aber eben nicht auf dieses unverzeihliche Versäumnis des RKI hinwiesen.

Lediglich in Nordrhein-Westfallen, als das neben Bayern am meisten betroffene Bundesland, ergriff endlich ein junger Virologe namens Hendrik Streeck die Initiative, um erste belastbare Studien durchzuführen, unter ausdrücklicher Unterstützung der Landesregierung. Während die obigen Arbeitsverweigerer in wohlfeiler Weise nichts anderes zu tun hatten, diese Anstrengungen mit teils fadenscheinigen Argumenten zu kritisieren(was die Regierung nicht davon abhält, deren Verhalten mit enormen Forschungsgeldern zu belohnen, unter Auslassung der üblichen Antragswege). Mit den Ergebnissen von Hendrik Streeck ergab sich sicherer Spielraum, den Shutdown nicht durchzuführen, weil er als Erster anhand Messungen in Deutschland klar auf eine viel geringere Sterblichkeit durch Covid-19, als ursprünglich angenommen, hinweisen konnte und gleichzeitig die Risikogruppe der Schwervorerkrankten, meist alten Menschen, bestätigte. Damit befanden wir uns bezüglich Prognosesicherheit quasi schon auf dem Niveau von Wahlprognosen.

Hochrechnungen

Doch nun liegen belastbare Auswirkungen bezüglich der Gesamtlage in Deutschland vor, veröffentlicht in der Fachzeitschrift des RKI Epidemiologisches Bulletin am 15. April 2020. Das RKI berechnet, ausgehend vom Datum des Eingangs positiver Testergebnisse, das tatsächliche Infektionsdatum und schließt so auf die Zahl der gerade frisch Infizierten pro Datum. Außerdem finden sich Berechnungen des eingangs beschriebenen Reproduktionsfaktors R. Jetzt befinden wir uns auf dem Niveau einer Hochrechnung. Sie können sich sicher sein, dass nun Heerscharen von PR-Spezialisten versuchen werden, die Deutungshoheit über diese wissenschaftliche Veröffentlichung zu erlangen. Denn sie ist brisant, hochbrisant. Als Kritiker und Autor medizinischer Leitlinien habe ich über 20 Jahre lang Erfahrung darin, Studien so zu lesen, dass man die Absicht oder den Druck, dem Auftraggeber zu gefallen, erkennt und dann den tatsächlichen Erkenntnisgewinn, oft erst auf den zweiten Blick, identifiziert.

Auf den ersten Blick scheint der Beitrag im Epidemiologischen Bulletin des RKI den Nutzen des Regierungshandelns zu bestätigen. Punktgenau, meiner Erfahrung nach zu punktgenau, ergeben sich Verbesserungen der Infektionszahlen genau ab dem Zeitpunkt der von der Regierung veranlassten Einschränkungen (Seite 13, Abbildung 3). Meiner Meinung nach wirkt dies geschönt, zum Beispiel sehe ich nicht, dass die Zeitspanne berücksichtigt wurde, in der vom Auftreten ernster Symptome bis zum Test oft mehrere Tage vergingen.

Quelle: Epidemiologisches Bulletin 17 | 2020 Online vorab: 15. April 2020

 

Doch das ist gar nicht die entscheidende Kurve. Die findet sich auf Seite 14 in Abbildung 4. Sie zeigt das Absinken der Zahl R ab dem 10. März und das Fallen unter 1 ab dem 20. März, drei Tage vor dem Shutdown. Danach bleibt er konstant unter 1, ohne weiter zu fallen. Diese Konstanz wird inzwischen als Begründung benutzt, den Shutdown weiter aufrechtzuerhalten, weil R sonst wieder ansteigen könnte, so die Bundeskanzlerin Angela Merkel. Doch lesen Sie nun, was das RKI als eigentliche Ursache dafür ansieht, warum der R-Wert konstant bleibt und nicht noch weiter fällt:

„Ein Grund dafür, dass der Rückgang der Neuerkrankungen trotz der gravierenden Maßnahmen nur relativ langsam passiert, ist, dass sich das Virus nach dem 18. März stärker auch unter älteren Menschen ausbreitet und wir zunehmend auch Ausbrüche in Pflegeheimen und Krankenhäusern beobachten. Ein weiterer Aspekt ist aber auch, dass in Deutschland die Testkapazitäten deutlich erhöht worden sind und durch stärkeres Testen ein insgesamt größerer Teil der Infektionen sichtbar wird. Dieser strukturelle Effekt und der dadurch bedingte Anstieg der Meldezahlen, kann dazu führen, dass der aktuelle R-Wert das reale Geschehen etwas überschätzt“

Nein, nicht etwas, sondern ganz sicher deutlich. Das Zitat besagt schwarz auf weiß: Die Regierung hat es versäumt, die Risikogruppen in den Altersheimen (und im Rahmen der ambulante Pflegeversorgung) professionell zu schützen und zwar so. Zweitens wird hier in aller Klarheit die Aussage gemacht, dass viel zu spät damit begonnen wurde, umfangreich und repräsentativ zu testen. Hätte man es gemacht, dann würde man hochwahrscheinlich jetzt eine viel niedrigere Zahl R errechnen können.

Analog zu einer Schulnote würde damit die Regierung für ihr Handeln die Note 5–6 erhalten. Denn in frühen, vernünftigen Prognosen und späteren belastbaren Hinweisen wurde genau das bestätigt, was schon ganz zu Anfang als der beste Weg vorgegeben war. Es fällt mir wirklich schwer, sachlich zu bleiben, wenn ich mein Unverständnis darüber ausdrücke, warum aufgrund dieser Erkenntnisse der Shutdown nicht umgehend beendet wird und die Anstrengungen zum Schutz der Risikogruppen endlich professionell durchgeführt werden.

Professor Stefan Homburg, ein Finanzwissenschaftler von der Leibniz Universität Hannover, hat schon vor diesem RKI Artikel sehr plausibel errechnet, dass der Shutdown keinen Sinn macht. Hier der wissenschaftliche Artikel und hier der dazu passende Coronabeitrag in Die Welt. Stefan Hombacher findet in diesem Video deutliche Worte. Zu sehen ist auch Angela Merkel, wie sie dennoch das Festhalten am Shutdown begründet. Sagen wir es so: Wenn eine promovierte Physikerin als Bundeskanzlerin in einer so dramatischen Lage im Stile eines Erstsemesters Zahlen derart oberflächlich interpretiert und wieder kopflos Panik schürt, dann ist dies sicher nicht hilfreich.

Studie aus Israel

Professor Yitzhak Ben-Israel ist Mathematiker und Physiker von der Universität Tel Aviv und kennt sich gut aus mit sicherheitspolitischen Studien. Er hat sich den Verlauf der gemeldeten Covid-19-Fälle in verschiedenen Ländern vorgenommen (USA, Grossbritannien, Schweden, Italien, Israel, Schweiz, Frankreich, Deutschland und Spanien) und eine erstaunliche Parallele festgestellt. Die Erkrankungszahl steigt in jedem Land exponentiell bis zum 40. Tag an, um dann steil abzufallen. Nach 8 Wochen ist sie dann am Abklingen. Und zwar völlig unabhängig ohne, während oder, wie in Deutschland, vor einem Shutdown. Ob Shutdown oder nicht, oder wie konsequent die Quarantäne – all dies hatte keinen Einfluss auf den Ausbreitungsverlauf und dessen Abklingen. Eine Erklärung dafür hat er nicht, es könnte beispielsweise an der Jahreszeit liegen oder in der Natur des Virus selbst.

Hier die Arbeit auf der Webseite der Times of Israel mit den Kurvengrafiken. Und hier ein übersetztes Interview auf Englisch.

Natürlich wird man auch diese Arbeit kritisieren. Natürlich rechnet auch Professor Ben-Israel nur mit den gemeldeten Fällen und nicht der tatsächlichen Zahl der Infizierten, die ja keiner kennt. Der entscheidende Punkt ist jedoch die auffallende Parallelität der Beobachtung, die man nicht einfach wegdiskutieren kann. Das bedeutet, er kann keine Aussage zu der Zahl der Erkrankungen machen, aber sehr wohl bezüglich ihrer Dynamik.

Auf was warten die Verantwortlichen des Shutdowns eigentlich, um ihn zu beenden? Die Absolution durch die Göttin der totalen Wahrheit. Die gibt es nicht. Es gibt nur eine verantwortungsethische Risikoabwägung, und die besagt epidemiologisch schon längst, dass die Aufhebung mit weniger Risiken verbunden ist, als es das Fortführen in der Gesamtbetrachtung ist. Ganz davon abgesehen, dass der Shutdown das Risiko einer zweiten Welle erhöht, weil sich beispielsweise die Schulkinder nicht immunisieren können. Jedoch ist die unzweifelhafte Basis aller guten Strategien der professionelle Schutz der Risikogruppen, der immer noch im Argen liegt.

Zwischenfazit:

Nach Auswertung der zur Verfügung stehenden Daten ist Corona-Covid-19 eine sich epidemisch ausbreitende Infektion, die den Höhepunkt ihres exponentiellen Wachstums in Deutschland um den 10. März herum erreichte. Seitdem ging das exponentielle Wachstum zurück (Abflachung der Kurve), um ab dem 20. März unter den Wert R 1 zu fallen. Damit ist die Epidemie am Abklingen. Die Zahlen lassen ziemlich eindeutig erkennen, dass das Abflachen und Abklingen nichts mit den vor der Regierung beschlossenen Maßnahmen zu tun hatten. Im Gegenteil wurde es versäumt, genau die Maßnahmen einzuleiten, die es tatsächlich geschafft hätten, die Zahl R viel früher und viel stärker unter 1 sinken zu lassen. Dazu gehört in erster Linie der professionelle Schutz der Risikogruppen sowie frühe, repräsentative Testungen.

Damit sind wir aber erst bei der Hälfte einer aktuellen, umfassenden und kompetenten Risikoeinschätzung angelangt. Der zweite Teil dieses Beitrages folgt in wenigen Tagen. Dann sprechen die Praktiker.