1

Freunde, ich bin verwirrt. Total und tutto kompletti durcheinander

Merkel bezeichnet die Pandemie als „eine demokratische Zumutung“. Die Maßnahmen, die zur Bekämpfung des Virus beschlossen wurden, hätten „kein historisches Vorbild“, an dem man sich orientieren könne.” Wie jetzt? Noch nie zuvor gab es eine weit verbreitete Seuche? Meint sie das ernst oder sagt sie das nur so in der Gegend herum, wie diese Scherzaussage, dass man Grenzen nicht schützen könne?

Es gibt kein historisches Vorbild für den Umgang mit Seuchen? Ganz Europa wurde mehrfach von der Pest heimgesucht, als Hamburgerin weiß ich, dass im 14. Jahrhundert die Pest dort die Hälfte der Bevölkerung dahinraffte mit einschneidenden Auswirkungen auf das tägliche Leben. Jetzt lebe ich in einem Ort vor den Toren Hamburgs, dort gibt es heute noch eine kleine Kapelle aus dem 15. Jahrhundert, die früher etwas außerhalb der Stadtmauern lag. Dort wurden die Lepra – und die Pestkranken untergebracht. Also so gesehen, historische Vorbilder für Isolation, Quarantäne und seuchenbedingte wirtschaftliche Probleme gibt es durchaus.

Aber das ist nur die eine Hälfte meiner Verwirrung, die andere ist der Umstand, dass neulich noch die Welt an ganz etwas anderem unterging, nämlich am Klima. Oder am CO2, so genau weiß ich es nicht. Das scheint neuerdings ein Gift zu sein, obgleich ich mal gehört habe, dass Pflanzen das irgendwie brauchen, Photosynthese oder so etwas.  Es muss jedoch neue Forschung geben, denn neuerdings ist CO2 ein Gift und das Klima wird nicht von verschiedenen Faktoren wechselwirkend beeinflusst, sondern vom Menschen gemacht, der das aber komplett vergeigt. Daher müsse man etwas tun, sonst ginge die Menschheit oder der ganze Planet wenn nicht sogar das Universum unter. Das Klima müsse also, komme was wolle und um jeden Preis gerettet werden, hat die Bundeskanzlerin gesagt.

Es sei eine nie da gewesene Herausforderung, eine „Existenzfrage“, es ginge ums Überleben. Daher müsse eine „Transformation von gigantischem historischem Ausmaß“ her, kleiner ginge es nicht. „Diese Transformation heißt im Grunde, die gesamte Art des Wirtschaftens und des Lebens, wie wir es uns im Industriezeitalter angewöhnt haben, in den nächsten 30 Jahren zu verlassen.“

Da bin ich aber nun baff

Netter Weise fügte die Kanzlerin an, es müsse einen Dialog geben zwischen denjenigen, die von einer höchsten Dringlichkeit ausgingen und den anderen, die eine klimagesteuerte Weltregierung nicht ganz so prall finden. Die Sprachlosigkeit müsse überwunden werden, sagte sie. Finde ich ja auch, Sprachlosigkeit geht gar nicht. Also ihr flugs diese Klimafragen mit Einschreiben geschickt– soll ja keiner sagen, die Kanzlerin wäre vergessen worden!  Geantwortet hat sie auch und zwar, dass sie keine fachliche Bewertung abgeben könne.

Ach was? Kann sie nicht? Da bin ich aber nun baff. Sie hat doch in Davos gesagt, es sei alles ganz, ganz schlimm und nun weiß sie nie nix? Hm, heißt das, sie will transformieren, da soll geklotzt und nicht gekleckert werden, sie hat aber ernsthaft keine Ahnung warum und wohin? Ohne quengelig erscheinen zu wollen, aber so ein kleines bisschen suboptimal ist das schon, gell? Immerhin, man muss ihr hoch anrechnen, dass sie erfrischend ehrlich zugibt, dass sie von der Sache keine Ahnung hat, das ist doch schon ein richtig guter Ansatz für ein Gespräch.

Zum Beispiel ich jetzt so: „Also wenn Sie keine Ahnung von den Klimafragen haben aber etwas transformieren wollen, warum dann nicht einfach mal das Wohnzimmer umräumen?“ Sie dann so: “Ähm, also das Wohnzimmer ist eigentlich schön, aber wie wäre es mit dem Kanzleramt?“ Ich dann so: „Ja prima, ist sowieso ein hässlicher Klotz, wie wäre es denn mit abreißen und neu bauen?“ Ich hätte auch super Vorschläge für den geplanten Wehrgraben vor dem Bundestag, den könnte man hübsch mit Zugbrücke und Türmchen als Erlebnispark aufpeppen, gerne auch mit Fanfaren, wenn die Kanzlerin erscheint. Schließlich sind viele Touristen da, denen muss man doch etwas bieten! Man sieht, gut, dass wir mal darüber geredet haben!

Immerhin hat sie uns die Adresse des Umweltministeriums mitgeteilt (Stresemannstraße 128-130, 10117 Berlin.), wo man sich die Antworten auf die Fragen abholen kann, was klar beweist, dass das Gerücht von wegen Servicewüste Deutschland erstunken und erlogen ist. Da die Bürger, die putzigen Kleinen, bestimmt noch nicht mit dem Internet umgehen können, hat sie ihnen ganz fürsorglich den Weg gewiesen. Danke, Mutti!

Kein Drache, sondern nur ein Gummibärchen

Zwei der diversen im Bundestag vertretenen Parteien, nämlich AfD und FDP haben unsere Klimafragenbeantwortet, die anderen (bisher) nicht. Man kann, muss aber nicht Rückschlüsse über das demokratische Verständnis der im Bundestag vertretenen Parteien ziehen.

Die Antworten der AfD gehen gar nicht. Einfache, klare Sätze mit deutlichem Inhalt – so geht doch Politik nicht! Da kann ja jeder kommen, das kann sogar jeder lesen und verstehen, wo kommen wir denn da hin? Von Merkel lernen heißt schwurbeln lernen, Sätze ohne Inhalt, aber dafür viel heiße Luft, so etwas hat noch jeden Ballon nach oben befördert. Und noch etwas: Man darf doch nicht inhaltlich antworten, z. B. dass der IPCC mangels langfristiger Daten gar nicht sagen kann, ob die Temperatur wirklich fällt oder steigt oder ob es nur zwischenzeitliche Wellenbewegungen sind (Börsianer wissen, wovon ich spreche), das fetzt einfach nicht. Bei Heldenepen muss es einen Helden geben, der gegen irgendetwas kämpft, wogegen ist ziemlich egal, Hauptsache es macht fix etwas her. Wenn man einfach so dahin geht und sagt, da ist aber gar kein Drache, sondern nur ein Gummibärchen, tja dann ist es doch kein Wunder, wenn die anderen einen nicht mögen. So etwas von Spielverderber!

Da macht es die FDP deutlich besser. Zunächst einmal schreibt sie viel. Da sieht man den Profi, als Jurist erkenne ich das natürlich sofort, denn ich weiß: Mangelnden Inhalt kann man am besten hinter vielen Worten verstecken. Kurz zusammen gefasst schreibt sie, dass sie allem sowohl als auch und absolut glaubt, weil alles zweifelsfrei und Wissenschaft sei, alles erwiesen usw..

Dabei ist die Frage 1 der Klimafragen mit dem Zitat, das keine belastbaren Prognosen möglich sind, ein gewisses Problem, denn wenn keine belastbare Prognose für die zukünftige klimatische Entwicklung unter dem Einfluss des anthropogenen CO2 erstellt werden kann, gibt es auch keine Berechtigung für eine Große Transformation einschließlich einer Energiewende, die eine gigantische Herausforderung für Deutschland und die gesamte Menschheit darstellt. Die FDP umschifft diese Problematik clever, indem sie sagt: „Wahrscheinlichkeit und statistische Unsicherheiten sind inhärente Merkmale jeder Forschung, die wissenschaftlichen Grundsätzen folgt.“ Und dass man nicht weiß, sei nicht nur gut, sondern ein Qualitätsmerkmal. Den genialen Einfall hätte ich früher bei einer Mathearbeit gut gebraucht. Aber Leute, wenn Nichtwissen ein Qualitätsmerkmal ist, dann bin ich so etwas von qualitativ hochwertig, das gibt es gar nicht! Ihr könnt mich glatt für jeden Spitzenposten nehmen!

Als politische Handlungsanweisung nicht ausreichend

Nun ist es aber so, dass die Ergebnisse des IPCC zwar hochinteressant sind, aber als politische Handlungsanweisung nicht ausreichend belastbar sind. Nur mal als Beispiel: Für die Modellierung des Klimas ist ein extrem kompliziertes System von partiellen nichtlinearen Differentialgleichungen mit stochastischem Anteil numerisch zu lösen. Um überhaupt rechnen zu können, benötigen die Computer Werte für Rand- und Anfangsbedingungen in diesem System – die Ergebnisse hängen entscheidend davon ab. Diese Bedingungen lassen sich zum großen Teil jedoch nur schätzen. Als Beispiel sei hier nur die Aufnahme und Abgabe von CO2  durch die Böden genannt; wozu die Untersuchungen erst in den Anfängen stecken. Bei Wikipedia kann man zur Einarbeitung der Randbedingungen lesen: „Vor allem die Prozesse in der Biosphäre werden im Augenblick noch als Größen und Parameter vorgegeben.“

Das fügt ein Element der Beliebigkeit in die Modellierungen ein, welches die Ergebnisse entscheidend beeinflussen kann. Denn: In den von ungeheuer komplizierten Wechselwirkungen geprägten Systemen kann sich eine kleine Abweichung von der Realität bei den Annahmen zu großen Fehlern im Ergebnis aufschaukeln. Ein solches Problem lässt sich auch nicht durch eine noch so erhebliche Steigerung der Rechenleistung beheben. Bereits dieser Fakt stellt die Prognosetauglichkeit der Modellrechnungen infrage.

Im Gegensatz zu einer Behauptung von Stefan Rahmstorf, dass „die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben “ (SPIEGEL vom 31.01.2020), gab es in der Geschichte der Modellierung bemerkenswerte Defizite. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.

Die zutreffende Beschreibung vergangener Klimaverläufe wäre eine notwendige Bedingung für die Fähigkeit von Modellen, zukünftige Entwicklungen zu prognostizieren – hinreichend ist eine solche Modelleigenschaft noch nicht. Wenn die Modellrechnungen Vertrauen verdienten, sollten deren Ergebnisse im Verlauf ihrer Entwicklung sich wenigstens einigermaßen asymptotisch den belastbaren Resultaten annähern. Stattdessen wurde 2018 eine Änderung der bis vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent verkündet.

So unpräzise wie eh und je

Dies zeigt ein Interview des SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC, dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: „Unser verbleibendes CO₂-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“ Gleichzeitig reduzierte das IPCC die tolerable Grenze der Temperaturerhöhung in diesem Jahrhundert von 2 auf 1,5 Grad. Prof. Marotzke stimmte der Klassifizierung dieses Wertes als „politischer Grenzwert“ in dem Interview zu.

Eine ungeschönte Darstellung der Probleme von Klimamodellierung aus berufenem Mund findet sich in der SPIEGEL – Ausgabe vom 22. März 2019: Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind. Darin wird der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Bjorn Stevens vom SPIEGEL intewiewt. Er schildert die Schwierigkeiten einer Modellierung des Wolkenphänomens; wir geben hier einige seiner Aussagen wieder: „Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …..Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. ….Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“

Die Behauptung der FDP, es sei unstrittig und wissenschaftlicher Konsens, dass ohne Minimierung der menschlichen Treibhausgasemissionen nicht verantwortbare Schäden entstünden, stehen im Widerspruch z. B. zu den Fakten aus dem Protokoll einer Anhörung von John R. Christy vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die von ihm präsentierten Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen beweisen nicht nur, dass von „korrekter Vorhersage“ keine Rede sein kann, sondern zeigen auch die beste Übereinstimmung von berechneten mit gemessenen Werten, wenn der Treibhauseffekt unberücksichtigt bleibt.

Ein lustiges Grünen-Experiment

Immerhin kann sich die FDP freuen. Schließlich will sie ja nur eine Verlangsamung des Klimawandels, damit die Menschen sich besser anpassen können: „Der Klimawandel muss vor allem besser erforscht, begrenzt und in seiner Geschwindigkeit verlangsamt werden. Nur dann können sich unsere Gesellschaften auch erfolgreich anpassen.“

Null Problem, die Verlangsamung der Geschwindigkeit bekommen wir hin, denn wenn alles vom CO2 abhängt, dann haben wir reichlich Zeit gewonnen. Wir haben weltweit nicht nur seit Anfang des Jahres reichlich Zeit eingespart, sondern werden es auch noch ein Weilchen in der Zukunft tun, Corona lässt grüßen. Zugleich fahren wir ein lustiges Grünen – Experiment: Was passiert, wenn wir die Industrie herunterfahren? Wie prall ist es, wenn Reisen eingeschränkt ist? Auch das urbane Leben mit outgoing und socializing ist nicht wirklich klimaneutral, die Einschränkungen konnte man nun testen.

Das neue vegan ist jetzt das „stay home“. Und wie klug ist überhaupt die grüne Vision, zwar gegen Massentierhaltung zu sein, gleichzeitig aber die Massenmenschenhaltung mittels Urbanisierung zu betreiben, damit man richtig super anfällig ist für Viren oder sonstige Ereignisse (Stromausfälle?), die dann ganz einfach mit einem Streich alle Neune kegeln können? Der hochgelobte ÖPNV – die Virenschleuder schlechthin – und fällt es aus, dann sieht der Urbane alt aus. Kann aber passieren, schneller als man denkt.

Was ich aber besonders lustig finde: Kein Klimamodell hat eine Seuche eingepreist, dieser Fall war nicht bedacht. Damit zeigt sich das Problem mit den Vorhersagen der Zukunft bei komplexen Systemen. Es gibt da genau eine, absolut zuverlässige Regel, wonach es erstens anders kommt und zweitens als man denkt.

Anmerkung: Ich danke ausdrücklich und ganz herzlich Herrn Prof. Dr. Dr. Wulf Bennert für seine fachliche Zuarbeit.  

Frau Anette Heinisch ist Rechtsanwältin in Hamburg und Mitinitiatorin von Klimafragen.org

Der Beitrag erschien zuerst bei ACHGUT hier




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 1)

Teil 2 hier und Teil 3 hier

Mein Beitrag über zwei kleine Anfragen der AfD (hier) zur ungelösten Problematik der absoluten globalen Mitteltemperatur in jüngerer historischer Zeit – die Pariser Klimaübereinkunft bezieht sich sogar auf „Werte vorindustrieller Zeit“ ohne diese auch nur ansatzweise zu beziffern- hat eine große, manchmal hitzige, Diskussion ausgelöst. Mit aktuell 127 Kommentaren und über 3000 Aufrufen (Stand 27.4.20 12:00 Uhr) gehört er sicher zur Klasse der Meistgelesenen. Soweit so gut.

Die z.T. hitzigen Kommentare zeigen m.E.n. aber auch, dass viele Leser mit der zugrunde liegenden, manchmal komplizierten, meteorologischen Messtechnik nicht so vertraut sind, wie sie der Artikel vielleicht voraussetzt. Das hat zur Folge, dass sie nicht auf Anhieb verstehen, warum der Artikel Versäumnisse – gar Falschinformationen-  der Bundesregierung – beanstandet.

Sie vertrauen dabei auf ihre eigenen, oft in wissenschaftlicher Arbeit gemachten Erfahrungen aus eigener Anwendung der Messtechnik und ihrer Behandlung von Messdaten. Diese stimmen aber – so meine eigene Erfahrung – wenig bis nicht mit den hier angewendeten Methoden und Verfahren, insbesondere bei der Erstellung und Bewertung von Zeitreihen, überein. Und sind deshalb in ihrer Schlichtheit selten auf diese Messdaten anzuwenden.

Dies voraus geschickt will ich die Leser jetzt ein wenig in die meteorologische Messtechnik von Temperaturdaten und deren Auswertung einführen. Dabei sollen die alten wissenschaftlichen Grundsätze gelten, klassifiziere erst und vergleiche dann, aber vergleiche immer nur Vergleichbares.

Zunächst schauen wir uns an, wie, wo, wann und wie oft die historischen Temperaturdaten gemessen und vorverarbeitet wurden.

Dann werden wir uns die Bildung von Anomalien aus diesen bereits vorverarbeiteten Daten und die sich daraus ergebenden Besonderheiten anschauen und zum Schluss die Bildung von Zeitreihen, und wie diese auf Fehlerkompensation bzw. Nichtkompensation Einfluss nehmen.

Was nicht behandelt wird.

Gänzlich außen vor lassen wir hier den magischen Trick der Klimaforscher, aus bekannten absoluten Unsicherheiten der Messwerte durch Bildung von Anomalien aus vielen Temperaturdaten statistische Wahrscheinlichkeiten werden zu lassen, die sich mit der bekannten Wahrscheinlichkeitsverteilung der Normalverteilung über ein oder zwei Sigma berechnen ließen. Darüber hat Kip Hansen eine sehr eindrückliche Kritik geschrieben. Sie finden Sie hier unter dem Titel„Der „Trick“ anomaler Temperatur-Anomalien

Weil es das Thema viel zu weit ausdehnen würde, lassen wir auch die merkwürdige Behauptung des Stammvaters aller Klimaängste, James Hansen außen vor, der in einem paper zusammen mit seinem Kollegen Lebedeff 1987[2] behauptet, es wäre möglich auch mit einer sehr geringen Zahl von ca. 80 Gitterzellen gleicher Fläche von 2500 x 2500 km  die Temperaturentwicklung der gesamten Erde zu bestimmen. Und dies obwohl in den meisten Zellen nur sehr wenige, in anderen überhaupt keine Messstationen vorhanden waren. Dieser Artikel war die Grundlage und ist es noch heute, für die Behauptung, dass die Anomalienbildung und deren Korrelation über große Flächen hinweg aussagefähig für die Temperaturentwicklung sehr große Flächen seien. Diese Idee, die jeder Korrelations- und Fehlerrechnung widerspricht, wird hier unter dem Titel Von Korrelationen, Trends bei Anomalien! besprochen

Und ebenfalls lassen wir die Erkenntnis von Dresdner Statistikern außen vor, die nachwiesen, dass selbst echt zufällige Fehler, sofern sie sich in Daten finden, die für autokorreliert sind und in entsprechenden Zeitreihen verwendet werden, systematische Komponenten in der Größe von einigen Zehntel Grad entwickelten. Details dazu finden Sie im Artikel mit dem Titel „Konfidenz-Intervalle* für zeitliche Mittelwerte bei langfristigen Korrelationen: eine Fallstudie zu Anomalien der Temperatur auf der Erde

Am Schluss der Vorbemerkung erlaube ich mir noch den Hinweis auf die Tatsache, dass mit der Bildung von raum- und zeitüberspannenden Durchschnittswerten, die darin enthaltenen Temperaturwerte ihre physikalische Bedeutung als Temperatur verlieren. Es entsteht stattdessen irgendeine Art von Index. Er ist für statistische Zwecke begrenzt brauchbar, wenn man die Randbedingungen beachtet, aber keine physikalische energetisch relevante Größe mehr. Wer dazu genaueres wissen möchte, der sei auf den schöne Beitrag von C. Essex und R. McKittrick von 2006 verwiesen mit dem schönen Titel „Does A Global Mean Temperature exist“[3]

 

Wie, wo und wann wurden die historischen meteorologischen Messdaten gewonnen?

  1. Thermometer

Am Anfang stand und steht das Thermometer. Dabei ist es zunächst egal, ob es ein mechanisches oder ein elektronisches ist, obwohl jede Art einen erheblichen Einfluss auf die (systematischen) Fehler hat, natürlich auch auf die erzielbare Genauigkeit.

  1. Messumgebung

Doch mindestens ebenso wichtig ist die Messumgebung. Diese wird bestimmt durch das Gehäuse (Messhütte), welches das Thermometer vor verfälschenden Umgebungseinflüssen, wie Strahlung, Wind oder Niederschlag aber auch Beschädigung schützen soll, aber auch in starkem Maße von der unmittelbaren Umgebung. Um vergleichbare Ergebnisse wenigstens annähernd zu erreichen, muss dies bestimmten überall vergleichbaren Standards genügen und sorgfältig gebaut und gepflegt werden.

  1. Messregime

Und auch das Messregime ist von entscheidender Bedeutung, nämlich wann und wie oft, von wem und wie das Thermometer abgelesen wird.

  1. Die geografische und zeitliche Abdeckung

Und da das Wetter- wie das Klimageschehen nicht an nationalen Grenzen haltmacht, muss die geografische Abdeckung mit Messstationen gesichert sein, und das sowohl nach Zahl als auch nach Ort und Zeit. Alle drei Anforderungen werden erst seit dem Aufkommen der Satelliten hinreichend erfüllt. Dabei tauscht man die Vorzüge der Satellitenmessung gegen einen enormen Nachteil ein, denn man musste einen unangenehmen Kompromiss akzeptieren. Es ist die sehr schlechte vertikalen Auflösung. Eine Satellitenmessung ist daher immer der Mittelwert von Temperaturänderung über eine Distanz von ca. 5000 m. (z.B. der lower troposphere)

  1. Was geschieht mit den meteorologischen Messdaten? Die Weiterverarbeitung!

Bis zur „Erfindung“ der Idee von der Notwendigkeit einer weltweiten Mitteltemperatur, gab es nur wenige Meteorologen, die die vorhandenen Messdaten nutzen wollten, um evtl. aus ihnen eine weltweite Mitteltemperatur zu extrahieren. Man begnügte sich damit – nachdem solche großartigen Wissenschaftler der Meteorologie wie Köppen die Definition von Klimazonen etabliert hatten- für diese Klimazonen oder Regionen Mitteltemperaturen und deren Jahresgänge zu berechnen. Normalerweise dienten die meteorologischen Messdaten aber vor allem der örtlichen Wettervorhersage und bez. ihrer Langzeit-Analyse auch dazu ggf. lokale Klimaänderungen im Nachhinein zu erkennen.

Anmerkung: Achten Sie mal auf die örtlichen Wetterberichte, dort wird man ihnen so gut wie nie die erwartetet Durchschnittstemperatur der nächsten Tage nennen, sondern ausschließlich deren Maxima und Minimawerte.

Dazu erstellte man Zeitreihen (hier Temperatur-Ganglinien) entweder aus absoluten Werten oder von Anomalien je nach Bedarf, deren erzielbare Genauigkeit für die gewünschten Zwecke völlig ausreichte.

 

Zu 1. Thermometer

Abbildung 1 zeigt eine klassische, deutsche Wetterhütte (erweiterter Stevenson Screen) und (rechts) ein darin befindliches modernes Thermometerensemble gezeigt,  wie es immer noch in vielfältiger Vewendung ist. Die senkrechten Thermometer sind (links) das Assmansche Aspirationthermometer zur Temperaturmessung, rechts daneben ein befeuchtetes und belüftetes Psychrometer zur Messung der Luftfeuchte. Quer darunter befinden sich zwei liegende Thermometer zur Messung von Max. und Min. Temperaturen. Die runde Plastiktrommel enthält den Federmotor mit Ventilator zur Erzeugung des Luftstromes mit Ø 2,5 m/s vor und während der Messung. Im März 2009 vom Autor im Metereologischen Institut der Freien Universität Berlin aufgenommen

Obwohl schon Galileo erste Versuche unternahm mit einem Thermometer meteorologische Messungen zu machen, und sich danach ein ziemlicher Wildwuchs an solchen Thermometer ausbreitete, weil viele Landesfürsten die aufkommende Meteorologie aus naheliegenden Gründen für äußerst wichtig hielten, kann man erst ab 1892 von einem Standardinstrument für meteorologische Zwecke sprechen. Es handelt sich dabei um das zwangsbelüftete Assmansche (Quecksilber gefüllte) Aspirationsthermometer (linkes, senkrechtes Thermometer). Die zuvor verwendeten tlw. mit Alkohol gefüllten Thermometer mit mehr als ± 1 Kelvin Gesamt-Unsicherheit wurden nach und nach weltweit ersetzt. In den angelsächsisch orientierten tlw. auch regierten Ländern setzte sich hingegen oft zusätzlich das Max-Min-Thermometer durch.

Doch allein die Wahl des Thermometers, sein jeweiliger Zustand, seine Montage, sein Betrieb und seine Ablesung sorgen für eine ganze Reihe von zufälligen wie systematischen Fehlern. Diese wurden vielfach sorgfältig untersucht, aber nur in geringer Anzahl auch quantitativ bestimmt und damit überhaupt erst theoretisch korrigierbar.

 

Zu 2. Messumgebung

Für die Messumgebung war von Anfang an klar, dass dieses zuallerst eine Art Schutzhütte sein sollte, von denen besonders im 19 Jahrhundert eine ganze Reihe von Konstruktionen erprobt wurden, wobei sich letztendlich die erweiterte englische Hütte als Standard durchsetzte. Doch bis dahin waren die (wenigen) Messergebnisse praktisch unvergleichbar, weil die Hütte auf ihre eigene Art die Messergebnisse beeinflusste.

Abbildung 2 Darstellung der zum Ende des 19. Jahrhunderts und bis heute verwendeten Hüttentypen bzw. Screens von links: französische Hütte, daneben (kaum erkennbar)  Mitarbeiter zum Größenvergleich, daneben (Original) Stevenson Hütte, dann Wildsche Hütte, dann mehrere erweiterte Stevenson Hütten und moderne runde kleine Screens. (Quellen. Linkes Bild [Sprung, 1890] rechtes Bild: KNMI Messfeld von van der Meulen  für die Zeit von  1989-1995)

Praktisch unkorrigiert, obwohl seit langem bekannt, ist der systematische Fehler, der allein durch die Wärmeträgheit der Hütte entsteht, und der ca + 1 bis 2 Kelvin zu jedem Ergebnis der eigentlich gesuchten Außentemperatur hinzuaddiert. Praktischerweise definieren jedoch die Meteorologen die Temperatur in der Hütte[4], als die gesuchte Außentemperatur. Woraus geschlossen werden muss, dass jede durch diese Messungen gewonnene absolute Temperatur im Mittel im 1 bis 1,5 Kelvin gegenüber der wahren Außentemperatur zu hoch sein muss.

Abbildung 3(links): Englische Hütte und moderne Messstation am Messort Detroit Lakes USA, kurz vorher aufgenommen und ins Netz gestellt am 25.07.07 von A. Watts; (rechts) Temperaturverlauf aus der GISS Datenbank zur Messstelle Detroit Lakes USA

Beispiel für den Zustand und Umgebung einer meteorologische US Messstation sowie deren Zeitreihe ihrer Jahresmittelwerte, die vom Projektteam untersucht wurde. Man beachte den Sprung ab etwa dem Jahr 2000 und die Entlüftungen der Klimaanlagen in unmittelbarer Nähe.

Nicht weniger Einfluss hat die unmittelbare Umgebung in der die Messhütte.

Zur Klärung dieses Sachverhaltes hat sich der Meteorologe und Betreiber des inzwischen weltweit erfolgreichsten Klimarealisten- Blogs Wattsupwiththat Antony Watts große Meriten erworben. Er rief 2007 das SurfaceStationorg. Netzwerk ins Leben, das 2009 erfolgreich mit einer Veröffentlichung [5]abgeschlossen wurde. Freiwillige im ganzen Land untersuchten über 850 der 1200 meteorologischen Messstationen, die von der US-Wetter- und Ozeanbehörde NOAA betrieben wurden.

Abbildung 4 Untersuchung von bisher (Ende Februar 2009) 854 von 1221 offiziell verwendeten Messstationen der unterschiedlichsten Art. Man beachte, dass nur 3 % aller Stationen dem Standard voll entsprechen,  weitere 8 % können evtl. noch als dem Standard genügend zugeordnet werden. Die restlichen 89 % zeigen jedoch potentielle Abweichungen nach den Vorgaben der CRN von mindestens 1 °C (20 %) über 2 °C ( 58% ) bis 5 °C (11%).

Auswertung der Überprüfung von 807 US Messstationen in Bezug auf die offizielle Einstufung ihrer Qualität und Umgebung (CRN).

Das Ergebnis war erschreckend. Der Zustand der Messstationen und damit die Messergebnisse waren miserabel. 89 % von ihnen lagen oberhalb der Fehlerklasse 2, was bedeutet, dass sie > 2 ° C bis > 5 °C fehlerhafte Ergebnisse zeigten. Nur 3 % lagen gleich oder unterhalb von 1 °C. Und noch schlimmer war, dass diese Stationen für die gesamte Welt sozusagen als Goldstandard in Punkto Qualität galten. D.h. die vom IPCC und ihren Zuarbeitern immer wieder herangezogenen Daten aus den anderen Kontinenten waren mit hoher Wahrscheinlichkeit noch schlechter.

Es würde hier zu weit gehen, die vielfältigen Fehlerquellen allein der landbasierten Messstationen aufzulisten, daher beschränke ich mich auf zwei kurze Ergänzungen.

  1. Selbst bei identischer Konstruktion von Hütte und Messinstrument, ergeben sich große Unterschiede allein durch das Material und seinen Anstrich, bzw. dessen Veränderung über der Zeit, z.B. durch Alterung
  2. Sind die landbasierten Messungen schon oft mit mehr (systematischen) Fehlern behaftet als ein Hund Flöhe hat, so ist das bei den seegestützten Messungen noch weit schlimmer. Und weil das Land nur 29 % der Erdoberfläche bedeckt, aber 71 % der Erde Ozeane sind, ist dieser Umstand eigentlich noch schlimmer. Denn dort sind die Messungen wirklich nur punktuell, d.h. äußerst selten sowohl in räumlicher als auch in zeitlicher Hinsicht. Ein wenig wird dieser Mangel gelindert durch die Tatsache, dass statt der eigentlich gesuchten Lufttemperatur, stattdessen, als Proxy, die Temperatur der Seewasser Oberfläche (SST Sea Water Surface Temperature) verwendet wird. Wegen der großen Wärmeträgheit und guten -Leitfähigkeit des Wassers deckt ein Messpunkt im Vergleich zum Land viel größere Gebiete ab.

Wer Interesse daran hat, diese Fehler etwas genauer behandelt zu sehen, der sei auf das Video „Wie glaubwürdig sind die Zeitreihen historischer Klimadaten“ (hier) verwiesen, dass einige der wichtigsten Aspekte zu diesen Fehlern aufzeigt.

Ende Teil 1

[1] https://www.wsj.com/articles/SB10001424052970204422404576594872796327348#printMode

[2] HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.

[3] Essex, C, Mc Kittrick, R. Andresen, B. (2006) Does A Global Temperature Exist? Non-Equilibrium Thermodynamics

[4] Weischet [Weischet, 1995] S115 – S 109 ff

[5]  Is the U.S. Surface Temperature Record Reliable?  By Antony Watts SurfaceStations.org ISBN 13: 978-1-934791-29-5

Für alle, die diese Information am Stück lesen wollen hier das Ganze als pdf Die schwierige nimmer endende Fehlerdiskussion




Der Schwindel von der vermeintlich grünen und erneuerbaren Energie

Hackschnitzel! Ich sage nur: Hackschnitzel werden die Welt retten. Das ist die Quintessenz der Rede von Mr. Bill McKibben. Der ist Umweltaktivist und Buchautor, schreibt Bücher über die globale Erwärmung, »End of Nature« und andere Katastrophen, ist also so etwas wie der amerikanische Franz Alt, nur noch viel lauter. Während Franz Alt einst Chinagras als Rettung der Welt propagierte und daran verdienen wollte, predigt McKibben bei der Einweihung eines holzbefeuerten Kraftwerks am Middlebury College in Vermont eben Hackschnitzel.

»Es ist unglaublich schön, sich den Hackschnitzelbunker anzusehen. Alles, was brennt, können wir dort hineinwerfen! Das zeigt, dass dies überall passieren könnte, überall passieren sollte und überall passieren muss!«

Zu sehen sind diese Szenen in dem neuesten Werk »Planet of the Humans« des amerikanischen Dokumentarfilmers Michael Moore, welches er gerade zum »Tag der Erde« auf Youtube gestellt hat.


Die Ikone der amerikanischen Grünen und Lefties schaut sich die Hinterlassenschaften der Green Energy Industrie an. Die erschrecken ihn – erstaunlicherweise.

Beispiel Daggett, California: Hier sieht er kilometerweit nur Schrott und Müll. Die Reste des einstigen Traums von ach so umweltfreundlichen Solarkraftwerken. Mit »SEGS« begann es, mit«Solar Electric Generating Systems«, neun thermischen Sonnenwärmekraftwerken. Wo? Natürlich im grünen Kalifornien.

Heute steht unter anderem in der Mojave-Wüste das Solarkraftwerk Ivanpah. Tausende von Spiegeln konzentrieren Sonnenlicht in einen Turm und erhitzen dort eine Salzlösung, die die Wärme zu einem Kraftwerk weiterleitet. Die Sprüche und Ankündigungen zu solchen »grünen« Projekten und weltbeglückenden Visionen sind immer lautstark. »Das wird die größte Solarfarm in der Welt«, zitiert Moore den damaligen Gouverneur von Kalifornien, Arnold Schwarzenegger. Normale Menschen würden in dieser Wüste nur eine tote Landschaft sehen, er aber sehe eine Goldgrube.

500 Jahre alte Yukka-Palmen mussten für die »Goldgrube« geschreddert werden. Hunderte alter Wüstenschildkröten kostete der Bau der Solarfarm das Leben. Denn Wüsten sind nicht tot.

Der Film zeigt sehr trocken die Lügen der angeblich so grünen und erneuerbaren Energie. Man sieht die Gaszuleitung zu dem Solarkraftwerk. Ohne Gas würde die gewaltige Industrieanlage nicht funktionieren. Für das Anfahren des Solarkraftwerkes muss viel Gas verbrannt werden, um die Salzlösung, die die Wärme transportieren soll, aufzuheizen.

Erstaunlicherweise hat das Kraftwerk in seiner Betriebsgenehmigung die Erlaubnis, Stickoxide auszustoßen. Dabei ist es doch scheinbar umweltfreundlich. Das Kraftwerk bezahlt sogar für sogenannte CO2 Zertifikate. Dabei wurde dies als geniale Energiequelle weltweit gepriesen, auch in Spanien, in den Pyrenäen und in Marokko entstanden mit vielen Steuermillionen geförderte Solarkraftwerke, die mit enormem technischen Aufwand das Sonnenlicht zu bündeln versuchten, um wenigstens einigermaßen brauchbare Temperaturen zu erreichen und daraus Strom zu fabrizieren. Zumindest während einiger Stunden am Tag, wenn die Sonne scheint und keine Wolken den Himmel verdecken.

»Ich musste lernen, dass auch Solarpanels nicht ewig halten«, sagt im Film ein Experte auf einer Messe für Energien. Die halten teilweise nur zehn Jahre. Das sei keine magische Energie. »Ich weiß also nicht, ob das die Lösung ist,« lacht er, »und hier helfe ich, die Materialien für Fotovoltaikanlagen zu verkaufen.«

Moore schaut hinter die Batterie-Gigafactory von Tesla inmitten der Wüste von Nevada. Gründer Elon Musk wird nicht müde zu betonen, dass die benötigte Energie ausschließlich von Wind und Sonne kommt. Hinter den Gebäuden allerdings sieht man das Umspannwerk und den Anschluss an das allgemeine Stromnetz.
Er entlarvt die Umweltpropaganda des Computergiganten Apple. »Wir hören nie auf, darüber nachzudenken, was das Beste für den Planeten ist – in allen unseren Fabriken weltweit.« Das ruft laut auf einer der legendären Apple-Konferenzen ausgerechnet Lisa Jackson in die begeistert applaudierende Menge. Jackson war übrigens die ehemalige Leiterin der amerikanischen Umweltbehörde EPA. Apple heuerte sie an.

Moore schneidet die Aussage eines Energieversorgers dagegen, der erzählt, wie Apple immer noch Strom aus ihrem Netz bezieht. Einen solchen Konzerngiganten kann man eben nicht mit Wind- und Sonnenstrom versorgen.
Moore zeigt auch die Profiteure der »Erneuerbaren«, im Fall des Solarkraftwerkes die Koch Brothers, die in ihrem Industrieimperium Guardian Glass Industry die Unmengen an Spiegel hergestellt haben sowie mit den Baustoffen Zement und Stahl kräftig verdient haben.

Man sieht den gewaltigen Materialverbrauch und die gigantischen Flächen, die für die Sonnen- und Windindustrieanlagen benötigt werden. 16 mal mehr Materialien wie Zement, Glas, Beton und Stahl verbrauchen solche Sonnenkollektoranlagen als Kernkraftwerke und erzeugen 300 mal mehr Abfall. Diese Materialien müssen abgebaut und mit hohem Energieaufwand geschmolzen und verarbeitet werden.
Im O-Ton hören wir: »Es wäre besser gewesen, fossile Brennstoffe einfach nur zu verbrennen, anstatt nur so zu tun, als ob. Wir werden im Grunde nur mit einer Lüge gefüttert«.

Moore vergisst jedoch zu sagen, dass dies prinzipbedingt ist. Die Leistungsdichten von Wind und Sonne sind zu gering, um damit nennenswerte Energien für ein Industrieland zu erzeugen. Das hat die Natur passend eingerichtet; würde die Sonne deutlich stärker auf uns herunterbrennen, könnten wir uns nicht mehr auf die Wiese legen, und schon bei einem starken Orkan hält es uns kaum noch auf den Füßen.
Eine weitere Folge des gigantischen Flächenverbrauches der »Erneuerbaren«: Brasilien muss exorbitant große Flächen zerstören und dort Zuckerrohr anbauen, um den sogenannten Biokraftstoff herzustellen. Ethanol aus Zuckerrohr benötigt ungefähr 400 mal mehr Fläche, um die gleiche Energiemenge wie Erdöl zu erzeugen.

McKibben preist im Film Deutschland, dass 80 Prozent seines Stroms aus Sonnenenergie erzeuge. Doch fehlt wieder der zweite Teil der Information, dass damit nur ein Drittel des Stromes erzeugt werde – und das nur dann, wenn der Wind weht und die Sonne scheint. Ohne Kohle und Kernkraftwerke und ohne zusätzliche Hilfslieferungen an Strom aus den Nachbarländern wäre bald Schicht im Schacht. Im Film wird sogar deutlich gesagt: Ohne Speichermöglichkeit kann man nicht auf Strom aus Wind und Sonne zählen. Die gibt es nicht – zumindest in absehbarer Zeit nicht.
Der Filmautor kommt folgerichtig auf die Frage, warum »wir« mit grüner Energie die Umwelt schädigen. Über das »Warum« sinniert und sinniert sehr langatmig: Was treibe Menschen, die sagen, die Umwelt retten zu wollen, sie zu zerstören? Das funktioniere also nicht. Kryptisch deutelt Moore, ob der Wunsch nach Nachhaltigkeit nicht in Wirklichkeit eine Art Wunsch nach Unsterblichkeit sei.

Die malthusianische Antwort, wir seien zu viele auf der Erde, ist zu kurz gesprungen. In der Erde stecken noch schier unerschöpfliche Mengen an Energie. Das Ende des Erdöls jeweils in 25 Jahren wird alle 25 Jahre aufs Neue wiederholt.
Entscheidend sind eher ganz handfeste Fragen, wie man sie in vor-ökologischen Zeiten gestellt hätte. Wie hoch ist die Leistungsdichte der jeweiligen Energie? Nicht umsonst löste Kohle einst die Holzverbrennung ab und rettete damit übrigens die Wälder. Öl und Gas verfügen über noch mehr Energie. In wichtigen Ländern wird die Kernkraft als die Energie mit der größten Leistungsdichte genutzt, nur in Deutschland nicht mehr.

Hierzulande gäbe es ebenfalls genügend Stoff für eine solche Dokumentation: 30.000 Windräder verunstalten Landschaften, die ersten zehntausend sind bereits schrottreif, doch keiner weiß, wohin mit den kritischen Rotorblättern. Auf Millionen von Dächern und auf den Äckern liegen hektarweise Fotozellen, die später als Sondermüll entsorgt werden müssen.

Das nächste Desaster deutet sich schon an. Der Euro 5 Diesel wurde einst steuerlich gefördert, schließlich emittierte er doch weniger CO2 als seine Vorgänger. Grund: Mit glänzend weiterentwickelter Technik nutzt er den Energiegehalt des Treibstoffes besser aus. Doch der wird gerade von den Umweltindustrietrupps unter einem ihrer Hauptakteure, dem derzeitigen Staatssekretär im Bundesumweltministerium, Jochen Flasbarth, zerstört.

Seit einiger Zeit werden Pelletheizungen propagiert und erheblich gefördert. Doch die belasten die Luft mit NO2 in immer stärkerem Masse, sind bereits jetzt – wie das unfreiwillige Corona-Experiment in den Städten gerade zeigt – für die NO2 Werte in den Städten verantwortlich. Wenn die NO2-Grenzwerte weiter abgesenkt werden soll, müssen als Nächstes Pelletheizungen verboten werden.
Da sage noch einer Hackschnitzel.

Der Beitrag erschien zuerst bei TE hier




Antwort – 3 –  auf den Artikel von Justus Lex „Dürfen die das ?“

In Zeiten, wo eine Frau Künast in 1. Instanz als „Stück Scheiße“ oder Frau Weidel als „Nazi-Schlampe“ gerichtlich abgesegnet wurden, nehme ich das mal als „Satire“ hin; stilvoll ist das in meinen Augen nicht.

Auch wie Frau Bahner von ihren Berufskollegen abqualifiziert wurde, war bemerkenswert. Ich persönlich gehe nicht davon aus, dass sie ihr Examen „im Lotto gewonnen“ hat.

Merkwürdig fand ich, dass die eigentliche Frage, nämlich der Schutz unserer Grundrechte, bei den Diskussionsbeiträgen eine nicht so große Rolle gespielt hat.

Laut Tagesschau.de gibt es inzwischen eine neue Entscheidung des sog. Bundesverfassungsgerichtes (siehe Art. 146 GG) zu der Frage, ob das in den diversen Verordnungen zur Corona-Krise enthaltene  Demonstrationsverbot zulässig sei. Zur Erinnerung Art 8 GG:

Grundgesetz für die Bundesrepublik Deutschland
Art 8 

(1) Alle Deutschen haben das Recht, sich ohne Anmeldung oder Erlaubnis friedlich und ohne Waffen zu versammeln.

(2) Für Versammlungen unter freiem Himmel kann dieses Recht durch Gesetz oder auf Grund eines Gesetzes beschränkt werden.

Beides ist ja nach den Corona-Verordnungen verboten. Nun gibt es aber eine neue aktuelle Entscheidung des BVerfG zu den Versammlungsverboten:

Im konkreten Fall hatte die Stadt Gießen zwei Versammlungen verboten, die unter dem Motto „Gesundheit stärken statt Grundrechte schwächen – Schutz vor Viren, nicht vor Menschen“ angemeldet worden waren. Sie sollten heute und morgen in der Innenstadt stattfinden. Der Veranstalter gab an, dass die Zahl der Teilnehmer auf etwa 30 Personen begrenzt werde. Ein ausreichender Abstand zwischen den Teilnehmern werde gewährleistet.

Die Stadt verbot die Demonstrationen. Begründung: Nach der hessischen Corona-Verordnung seien Versammlungen von mehr als zwei Personen, die nicht dem gleichen Hausstand angehören, generell verboten. Der Veranstalter legte Widerspruch ein. Dieser wurde vom hessischen Verwaltungsgerichtshof zurückgewiesen.

Das Bundesverfassungsgericht hob diese Entscheidung nun auf. Die hessische Verordnung enthalte kein generelles Verbot von Versammlungen von mehr als zwei Personen. Vor einem Verbot müssten alle Umstände des Einzelfalls und damit auch die zugesicherten Schutzmaßnahmen hinreichend geprüft werden. Dies sei nicht geschehen. Damit habe die Stadt Gießen den Antragsteller offensichtlich in seinem Grundrecht auf Versammlungsfreiheit verletzt.

Gießen reagierte ganz großherzig umgehend auf die Karlsruher Entscheidung: Die Versammlung sei jetzt zugelassen, sagte Bürgermeister Peter Neidel. Man habe die Kundgebung auf eine Stunde und die Teilnehmerzahl auf maximal 15 begrenzt. – Rache muss sein, kann man da nur feststellen. Wollen doch sehen, wer hier was zu bestimmen hat. Was soll man von solch einem Bürgermeister halten? Ich spare mir den Kommentar.

Ganz spannend ist m.E. ein Interview der Freien Welt mit Dr. Ulrich Vosgerau (https://www.freiewelt.net/interview/die-politik-war-ueberhaupt-nicht-vorbereitet-10080969/) Das ist der Jurist und Staatsrechtler, der trotz des Art. 5 GG quasi über Nacht den zugesagten Lehrstuhl in Münster verloren hat, weil er eine Meinung vertreten hat, die irgendjemanden nicht gefiel. Diese Meinung können Sie nachlesen in seinem Buch: „Die Herrschaft des Unrechts“. Googeln Sie mal den Art. 5. GG:

Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern…. Eine Zensur findet nicht statt.

Aber das kennen wir ja schon von Eva Herman und vielen anderen. Im Art. 5 steht leider nicht, dass man, wenn man seine Meinung frei äußert, u.U. ausgegrenzt wird. In der Schule habe ich mal gelernt, dass dies ein Zeichen von Faschismus sei. Was das erstaunliche ist, dass man dann nie so genau erfährt, wem diese Meinung nicht so gut gefallen hat usw. Und unsere Alt-Parteien beschimpfen ja immer die anderen als Populisten, Faschisten, rechts und bald nur noch rechtsextrem und merken dabei gar nicht, dass diese Aussagen auf sie selbst zurückfallen.

 

Zu dem Interview: 

Frage: Wie gut war oder ist Deutschland auf einen Katastrophenfall wie die Corona-Pandemie vorbereitet?

Ulrich Vosgerau: „Die Politik war überhaupt nicht vorbereitet, obwohl sie es hätte sein müssen.“

Bereits 2012 war die Corona-Epidemie in einer Art Planspiel durchgespielt worden unter Federführung des Robert-Koch-Instituts (RKI). Die Ergebnisse sind dem Deutschen Bundestag vorgelegt worden (Bundestags-Drucksache 17/12051).

Dort findet man die detaillierte Vorhergesage: Eine Variante des Sars-Virus wird Fieber, trockenen Husten und Atemnot auslösen und das Virus stammt von Wildtiermärkten in Südostasien her. Das Szenario von 2012 ging von einem sieben Millionen Toten in Deutschland aus. Seit 2012 wäre sehr viel Zeit gewesen, die Erkenntnisse der Großübung und der Studie zu nutzen, um Vorräte an Schutzkleidung, Atemmasken und Beatmungsgeräten anzulegen und Krankenhausbetten zu vermehren und nicht zu vermindern. Hat man aber nicht gemacht.

Frage: Die Regierungen von Bund und Ländern haben in kurzer Zeit viele bürgerliche Freiheitsrechte eingeschränkt. Das Recht auf Bewegungsfreiheit, Versammlungsfreiheit, wirtschaftliche Betätigung… Können Sie uns erklären, auf welcher verfassungsrechtlichen Grundlage das geschieht?

Ulrich Vosgerau:Das passiert auf gar keiner verfassungsrechtlichen Grundlage, und hier liegt ein wichtiges Problem.

Notstandsgesetze gelten nur für den Verteidigungsfall. Wir haben allenfalls eine „Naturkatastrophe“, und diese rechtfertigt den Einsatz der Bundeswehr im Innern, so wie bei der Hamburger Sturmflut von 1962, aber nicht die Einschränkung von Grundrechten. Denn das besondere Verwaltungsrecht ist kein allgemeines Notstandsrecht. „Das Infektionsschutzgesetz ermächtigt die Behörden, infizierte Personen, die also eine Gefahr für ihre Umwelt darstellen, notfalls auch gegen ihren Willen zeitweise zu internieren. Aber es ist sicher nicht dafür gedacht, lauter gesunde Personen, bei denen bislang keinerlei Indiz, keinerlei Anfangsverdacht auf eine Infektion besteht, auf unabsehbare Zeit aus dem Verkehr zu ziehen.
Einfaches Beispiel: Die Polizei ist ermächtigt, einen betrunkenen Mann, der irgendwo am Abend randaliert, in Gewahrsam zu nehmen, bis er sich wieder beruhigt hat. Man hielt es aber bislang nicht für gerechtfertigt, am Abend einfach allen Männern den Ausgang zu verbieten, damit sie sich gar nicht erst betrinken können.

Frage: Gibt es unter diesen Maßnahmen welche, von denen Sie als Staatsrechtler sagen würden, dass sie verfassungsrechtlich bedenklich sind? „

Die Anwendung des Polizei- und Ordnungsrechts ist kein allgemeines Notstandsrecht, sondern steht immer unter dem Vorbehalt der Verhältnismäßigkeit. D.h., es müsste für jede einzelne Maßnahme sorgfältig abgewogen werden, ob es nicht ein milderes Mittel gibt, also z.B. die Isolierung der Infizierten und die Abschottung der Alten- und Pflegeheime ohne eine generelle Stilllegung der gewerblichen Wirtschaft.  Jeder muss selbst entscheiden, ob er z.B. eine Buchhandlung aufsuchen will oder nicht.

Frage: Wie handlungsfähig ist die Gerichtsbarkeit und die Verfassungsgerichtsbarkeit in dieser Situation? Besteht aus ihrer Sicht noch eine ausreichende rechtliche Kontrolle der Politik? „

Ulrich Vosgerau: Die Rechtsprechung vielen, Anlass zur Sorge; sie wirkt wenig effizient. In den zahlreichen einstweiligen Rechtsschutzverfahren, die bisher schon angestrengt worden sind – gegen Ausweisungen aus norddeutschen Landkreisen bzw. dem Bundesland Mecklenburg-Vorpommern, gegen Ausgehverbote und Verbote von Gottesdiensten, gegen faktische Berufsverbote – haben die Kläger im einstweiligen Rechtsschutz alle verloren, also z.B. sogar in den Fällen, wo Bürger mit Zweitwohnsitz ausgewiesen wurden, was ich nicht für möglich gehalten hätte.

„Dass wir insofern in einem Tollhaus leben, sehen wir etwa am Fall von Monika Maron. Da lebt eine 78jährige Frau – voll und ganz Risikogruppe, sie sollte sich also möglichst in Sicherheit bringen! – auf einem Dorf allein in einem Haus, und die Behörde ordnet aus Infektionsschutzgründen an, dass sie ins überfüllte Berlin zurückkehren soll. Hier in Berlin ist es ja offensichtlich so: die ganzen Neuinfektionen werden wohl zu einem Großteil aus dem Öffentlichen Personennahverkehr kommen, den man nicht stilllegen will bzw. nicht stilllegen kann, und es nützt nichts, den ÖPNV nicht mehr zu benutzen, denn wenn man im Supermarkt ein Brot kaufen will, trifft man auf lauter Menschen, die gerade mit besten Infektionschancen aus der U-Bahn ausgestiegen sind. Das wäre in Mecklenburg anders.“
Ein Staat, der seit dreißig Jahren die ökonomische Globalisierung vorangetrieben hat und u.a. dadurch auch sagenhafte Steuereinnahmen hatte, hätte eben Vorsorge für die Nebenfolgen der Globalisierung treffen müssen – ob das nun die neue Völkerwanderung ist oder das neueste Fledermausvirus aus dem Reich der Mitte. 

Frage: „Derzeit stehen Euro-Bonds unter dem Namen „Corona-Bonds“ wieder auf der Agenda. Inwieweit ist diese Vergemeinschaftung der Schulden mit dem deutschen Grundgesetz und den europäischen Verträgen vereinbar?“

Ulrich Vosgerau: Gar nicht!

Er führt aus, dass wir die Euro-Bonds ja faktisch schon längst haben, nämlich in Gestalt der Anleihenkäufe durch die EZB. In Deutschland sei ja offenbar sogar die SPD gegen „Corona-Bonds“. Das Problem ist nur, dass sich gleichzeitig alle darauf geeinigt zu haben scheinen, dass die Corona-Krise in den überschuldeten Eurostaaten wie Italien aus dem ESM-Mechanismus bezahlt werden soll. Hätten die Italiener sich seit 1992 jemals an den Vertrag von Maastricht gehalten, hätten sie ja die Schulden nicht und könnten selber zu niedrigen Zinsen Geld aufnehmen. Dafür sei der aber auch nicht da!

Ich habe daher in der letzten Zeit einmal zu sondieren versucht, ob Kläger, die etwa schon im Zusammenhang mit der Errichtung des ESM und dann den Anleihekäufen durch die EZB aktiv waren, heute bereit wären, gegen die Zweckentfremdung des ESM-Mechanismus zu klagen, wenn man ihn schon nicht wegbekommt. Aber viele scheinen auch des Klagens müde, der EuGH ist parteiisch, das Bundesverfassungsgericht oft feige und politikhörig. Das hat manchen Kläger entnervt.“

Ergebnis: Es ist also anzunehmen, dass nun eine Klagewelle gegen die Anordnungen der Bundes- und Länderregierungen anrollt, den die vorsichtigen Änderungen dürften gegen eine Reihe von Grundsetzen des Grundgesetzes verstoßen, z.B. den Gleichheitsgrundsatz.




Wikipedia: Manipulationen Orwell‘schen Ausmaßes

Die »Enzyklopädie aus freien Inhalten« ist eine der meist aufgerufenen Webseiten weltweit – jeder kennt sie, jeder nutzt sie. Doch wie steht es wirklich um das Social-Media-Projekt? Wie wahr sind die enthaltenen Informationen, und wie demokratisch geht es zu?

„Wikipedia“ wurde 2001 von dem US-Amerikaner Jimmy Wales gegründet. Dieser hatte zuvor Erfahrungen mit dem „Netz“ gesammelt, indem er eine Porno-Suchmaschine betrieb. 2007 wurde er beim Weltwirtschaftsgipfel in Davos gleichwohl zum „Young Global Leader“ befördert. Zugleich häufen sich seit 2001 die Jubelarien über seine Gründung: Wikipedia – das sei „freies Wissen für alle“, „herrschaftsfreier Diskurs“, „demokratisiertes Wissen“, „Informationspluralismus“, „vergleichbar mit der Erfindung des Buchdrucks und der Dampfmaschine“, „Schwarmintelligenz“. Gar zum „Weltkulturerbe“ wollen manche Enthusiasten Wikipedia befördert wissen.

Über 300 Sprachausgaben gibt es mittlerweile weltweit. Allein in Deutschland hat Wikipedia 2,4 Millionen Artikel produziert – darunter rund 750.000 oft sehr grenzwertige, einseitige Biographien. Das hinterlässt Kollateralschäden: Schüler, Studenten, Diplomanden, Doktoranden, ja sogar Professoren, Politiker, nicht wenige Journalisten, auch solche der sog. Qualitätspresse, der „Normalo-Bürger“ greifen tagtäglich auf Wikipedia zu. Oft aus reiner Bequemlichkeit, oft aus Naivität, nicht selten, weil man sich dort unter politisch, historisch, klimatisch korrekten Gesinnungsgenossen weiß. Und nicht wenige spenden auch – aus Überzeugung oder aus Naivität. Denn Wikipedia gibt sich ja als „nicht kommerzielles“, quasi gemeinnütziges Unternehmen, das ausschließlich von Spenden lebt – wer auch immer diese in die Taschen bekommt. Im Jahr 2017 soll es in Deutschland 359.444 Spender gegeben haben. Ein Spendensiegel des Deutschen Zentralinstituts für soziale Fragen (DZI) hat Wikipedia übrigens nicht.

Die besonders problematische Seite dieser letzten nach dem Printende von Brockhaus, Meyer und Co. verbliebenen „Enzyklopädie“ sind: Framing, Mobbing, Stalking, Diffamierung, Verunglimpfung, Schmähungen, Verleumdung, Fachinformation, Hetzjagden, Rufmord, Vernichtung der beruflichen Existenz, Reputationsmord bis hin zum realen Suizid – auch das hat mit Wikipedia zu tun: es wurde damit vor allem außerhalb der naturwissenschaftlich relevanten Stichworte zur Selektionsplattform. Nur eines von vielen Beispielen: Ausgedruckt umfasst der Eintrag zum Thema „Klimawandel“ 18 Seiten, zum Thema „Leugnung der menschengemachten globalen Erwärmung“ 47 Seiten.Das besonders Problematische ist: Wikipedia operiert quasi im rechtsfreien Raum, genießt de facto rechtliche Immunität, denn es hat in Deutschland keinen rechtsverbindlichen Sitz. Hilfe vonseiten deutscher Staatsanwaltschaften und Gerichte ist kaum zu erwarten. Wer sich mit Wikipedia anlegen will, muss in den USA klagen. Aufwendig und Ausgang ungewiss! Oder er muss deren Autoren (die dort Nutzer heißen) ihrer Anonymität enttarnen und das Visier öffnen, hinter dem sie sich verbergen. Es gibt nämlich keine Klarnamenpflicht. Insofern weiß man nicht, wer hinter einem Artikel, einer Löschung, einer Änderung, einer Manipulation, einer Verleumdung steht. Das macht den Unterschied zur spanischen Inquisition aus, die immerhin öffentlich stattfand. Wikipedia-Inquisitionen dagegen finden hinter verschlossenen Türen statt.

Vor allem weiß man nicht, über welche Expertise die Autoren und die in Deutschland hierarchisch über ihnen stehenden 200 „Administratoren“ und zwölf „Bürokraten“ verfügen. Gelegentlich gelingt es, sie zu enttarnen, und nicht selten erweist sich dann, dass es sich hier um selbstreferentielle Seilschaften, Querulanten, Zu-kurz-Gekommene, oft gescheiterte Studien- und Berufsabbrecher oder Leute mit viel Zeit handelt. Dass solche Leute nicht identifiziert werden wollen, ist klar. Und dass Wikipedia deren Identität schützt, ist auch klar, denn sonst würde man wohl viele, auf ihre Anonymität pochende Autoren verlieren.

Es kommt hinzu: Was für die bundesdeutsche Presse gilt, das gilt auch für Wikipedia – die Autoren neigen in der Mehrzahl zu politischer Schlagseite, denn es findet sich vor allem im Nicht-Naturwissenschaftlichen unverkennbar eine ausgeprägte Sympathie für alles, was links, grün, öko usw. ist und zur Antifa zählt. Gender- und Klima-Lobbys kommen ohnehin bestens weg. Auch der Antisemitismus findet in Wikipedia seinen Nährboden, wird er doch in vermeintlich politisch korrekter Form in „Kritik an Israel“ gekleidet.

Schwarzbuch Wikipedia

Wo all dies bestens belegt und spannend zu lesen ist? In Andreas Mäcklers Sammelband „Schwarzbuch Wikipedia“. Knapp dreißig Beiträge, darunter Interviews, von vierundzwanzig Autoren hat er zusammengetragen. Unter anderem finden sich authentische Darstellungen folgender Persönlichkeiten, die Wikipedia an den Pranger stellte und die teilweise reichlich Streiterfahrungen mit enttarnten Wiki-Schreibern oder vor Gericht hatten: Andreas Mäckler selbst, der Statistikprofessor Walter Krämer, der Psychologieprofessor Harald Walach, der Jurist und vormalige Verfassungsschutzpräsident Thüringens Helmut Roewer, der Theologe und Publizist David Berger sowie der Intelligenzforscher Volkmar Weiss.

Was man gegen dieses Wikipedia-Unwesen tun kann? Erstens sollte man andere Quellen nutzen – allen voran gedruckte; und wenn es denn digitale sein müssen, dann findet man im Anhang des Mäckler-Buches neun Links dazu. Zweitens sollte man nicht spenden. Den Akteuren in Bildungseinrichtungen ist drittens nahezulegen, dass sie sich bei Arbeiten ihrer Schützlinge nicht mit Wikipedia-Belegen begnügen. Viertens wäre es gut (selbst wenn dies ein illusorischer Gedanke ist), es würde sich ein zweites, drittes, viertes Wikipedia gründen oder Wikipedia selbst wäre bereit, auch divergierende Meinungen und Positionen zu veröffentlichen.

Das Mäckler-Buch bietet alles in allem eine Menge Aufklärung im Kant’schen Sinne. Und es ist ein mutiges Buch, mit dem der Herausgeber und so mancher Autor einiges riskieren. Dieses Lob des Rezensenten soll nicht geschmälert werden durch die Kritik an einem der Buchkapitel. Will sagen: Man darf sich als Wikipedia-Kritiker nicht darüber beschweren, wenn man von Wikipedia zu Unrecht verschiedener Verschwörungstheorien beschuldigt wird. Dann sollte es aber auch nicht so sein, dass ein Autor des Mäckler-Buches Wikipedia vorwirft, es habe sich der marktradikalen Theorie eines Friedrich August Hayek und dem militärisch-industriellen Komplex von USA, Großbritannien, Israel, NATO usw. unterworfen – gipfelnd in der Aussage des Mit-Autors Hermann Ploppa, Wikipedianer seien „NATO-Trolle reinsten Wassers.“

Assoziationen

Mutig, aufklärend, lesenswert bleibt das Mäckler-Band zumal. Zudem drängen sich im Zusammenhang mit Wikipedia zwei Assoziationen auf:

Erste Assoziation – sie betrifft diejenigen, die Pranger-Opfer von Wikipedia wurden: Es geht ihnen, weil Wikipedia mit verdecktem Visier operiert, wie der Hauptfigur Josef K. in Franz Kafkas Roman „Der Prozess“ (posthum veröffentlicht 1925). Dort ist gegen den Bankangestellten Josef K. ein Prozess im Gange. Das Gericht agiert im Verborgenen, Josef K. erfährt nicht einmal, was gegen ihn vorliegt. Am Ende wird er hingerichtet.

Zweitens: Nennenswerte Teile von Wikipedia erinnern an George Orwells „Big-Brother“-Regime. Die dort vorkommenden Herdenmenschen werden manipuliert durch ein stets aktualisiertes Wörterbuch der „Neusprache“. An diesem Verzeichnis bastelt der Sprachwissenschaftler Syme. Er sagt zur Hauptfigur des Romans, zu Winston Smith: „Wir geben der Neusprache ihren letzten Schliff … Wir merzen jeden Tag Worte aus … Siehst du denn nicht, dass die Neusprache kein anderes Ziel hat, als die Reichweite der Gedanken zu verkürzen? … Es ist lediglich eine Frage der Wirklichkeitskontrolle. … Die Revolution ist vollzogen, wenn die Sprache geschaffen ist … Es wird überhaupt kein Denken mehr geben … Strenggläubigkeit bedeutet: …. nicht mehr zu denken brauchen.“ Oder – gemäß des Leitspruchs: „Unwissenheit ist Stärke.“ Stärke der Regierenden! Die Folge: Wer nicht politisch korrekt denkt und spricht, wer im Orwell‘schen Sinn ein „Gedankenverbrecher“ ist, wird zur Zielscheibe der „Gedankenpolizei“, er wird der „Herrschaft des Verdachts“ (Hegel), vor allem des Faschismusverdachts unterstellt, oder er wird im Sinne des „Big Brother“ „vaporisiert“, verdampft, das heißt, er findet in der Meinungsbildung nicht mehr statt.

Deswegen hat Winston Smith in George Orwells „1984“ die Aufgabe, Geschichte ständig umzuschreiben, in einem Ministerium für Wahrheit, das schön zweideutig mit „MINIWAHR“ abgekürzt wird.

Der Beitrag erschien zuerst bei TE hier


Andreas Mäckler (Hg.), Schwarzbuch Wikipedia. Mobbing, Diffamierung und Falschinformation in der Online-Enzyklopädie und was jetzt dagegen getan werden muss. Verlag zeitgeist Print & Online, 364 Seiten, 19,90 €




15. April: Tag der teuersten Fehlentscheidung

Die Bundeskanzlerin begründete die Zaghaftigkeit mit „einem bislang zerbrechlichen Erfolg“ gegen die Epidemie und klärte die deutsche Bevölkerung über die Epidemie-Reproduktionszahl R auf, die unversehens wieder auf 1,2 oder 1,3 steigen könnte, wenn wir nicht alle äußerst vorsichtig sind. Dazu gehört, sich weiterhin an die meisten Lockdown Maßnahmen zu halten, und auch längerfristig die Kontaktverbote zu beachten.

Die Frage ist allerdings, ob diese Lockdown-Maßnahmen überhaupt gegen die Epidemie wirken. Falls nicht, dann sind sie erstens nicht notwendig und zweitens ungeeignet, um die Bevölkerung vor einer Ansteckung mit Covid-19 zu beschützen. In meinem Artikel vom 14. April (hier)  habe ich ausgeführt, dass die Lockdown Maßnahmen größtenteils unwirksam und daher weder notwendig noch geeignet sind. Meine Berechnungen wurden seitdem mit neueren Analysen durch die obere Bundesbehörde Robert-Koch-Institut (RKI) bestätigt: die Lockdown-Maßnahmen sind auch laut dem RKI nicht wirkungsvoll.

Der Lockdown besteht aus einem breiten Bündel an Maßnahmen, die zu unterschiedlichen Zeiten verabschiedet wurden. Die wichtigsten Maßnahmen kamen in drei Wellen.

Zuerst kam am 8. März die Empfehlung, keine Großveranstaltungen mit mehr als 1.000 Teilnehmern durchzuführen.

Daraus wurde am 10. März dann ein sofortiges Verbot.

Die zweite Welle kam ab dem 16. März mit Schließung der Bildungseinrichtungen und der meisten Grenzübergänge und einem generellen Veranstaltungsverbot mit mehr als 50 Teilnehmern.

Zwei Tage später am 18. März waren bundesweit sämtliche Geschäfte geschlossen mit Ausnahme von Lebensmittelläden, Apotheken, Tankstellen und ähnlichen essenziellen Versorgungsstationen. Touristische Reisen wurden verboten, sowie alle Kirchen, Sportstätten und Spielplätze wurden geschlossen.

In der dritten Welle, ab dem 22. März wurden dann auch die Restaurants, Cafés, Friseure und andere persönliche Dienstleistungen geschlossen. Gruppen von mehr als 2 Personen wurden verboten, und es gilt seitdem, einen ständigen Abstand von mindestens 1,5 Metern einzuhalten, es sei denn mit Personen aus demselben Haushalt. In Bayern, Sachsen und dem Saarland wurde es zudem generell verboten, das Haus zu verlassen, außer mit einem guten Grund.

Einbruch der Wirtschaft um 40 Prozent

Die drei Wellen kann man jeweils zusammenfassen unter den Begriffen:

  • Verbot Großveranstaltungen ab dem 10. März,
  • Schließung des öffentlichen Lebens ab dem 16. März
  • Kontaktverbote ab dem 22. März.

Die Schätzungen gehen von einem derzeitigen Einbruch der Wirtschaft um 40% aus, ein historischer Wert.

An dem selben 15. April, an dem die Bundeskanzlerin über die Gefahr eines R-Wertes von höher als 1 warnte, hat das RKI sein 17. Epidemiologisches Bulletin veröffentlicht hier, (aktualisiert ab Seite 10) in dem wörtlich steht:

„Die R-Schätzung ergibt für Anfang März Werte im Bereich von R = 3, die danach absinken und sich etwa seit dem 22. März [bis 9. April] um R = 1 stabilisieren….[und] dass der aktuelle R-Wert das reale Geschehen etwas unterschätzt [also das wahre R niedriger als 1 ist].“

Dieser Satz bestätigt, dass die Maßnahmen der zweiten und dritten Welle des Lockdowns keine Wirkung hatten. Das werde ich im Folgenden erläutern.

Dazu ist es notwendig, sich die Abbildung 2 des RKI Bulletin genau anzuschauen. Dort hat das RKI das Erkrankungsdatum mit ersten Symptomen der Covid-19-Patienten rekonstruiert. Die Zahlen zeigen immer mittwochs einen Ausreißer nach oben: dem 18. März, dem 25. März, dem 1. April und dem 8. April. Es ist internationaler wissenschaftlicher Konsens, dass die Symptome der Krankheit meistens 5 Tage nach der Infektion auftreten: Wer sich ab Mittwoch schlecht fühlt, der hat sich folglich am Freitag/Samstag davor infiziert. Weil die Rate des engen sozialen Kontakts am Freitag/Samstag am höchsten ist, erkranken daher die meisten Menschen an einem Mittwoch. Die höchste erreichte Krankenzahl der Epidemie war am 18. März erreicht, danach ging die Anzahl der Erkrankungen pro Tag stetig zurück.

Für die Bemessung der Wirksamkeit der Maßnahmen ist allerdings nicht der absolute Rückgang der Erkrankungszahlen entscheidend, sondern ab wann das R begann, nachhaltig abzuflachen, also ab wann ein Infizierter weniger als drei andere infiziert. Und das passierte bereits Anfang März, wie das RKI selbst in dem Bulletin beschreibt (oben zitiert), also schon zwei Wochen VOR dem Lockdown der zweiten Welle mit ihren Schließungen des öffentlichen Lebens. Es muss daher zwingend schon irgendetwas VOR dieser zweiten Welle des Lockdown zu einer Reduktion der Infektionsrate geführt haben. Die Antwort darauf ist einfach: Erstens haben die Maßnahmen vom 8. März alle Großveranstaltungen abgesagt, und zweitens, schon davor waren mit dem rheinischen Karneval – der teuersten Party der Weltgeschichte – und dem darauf folgenden alpinen Après-Ski die wichtigsten Virus-Drehschleudern Europas von alleine saisonbedingt beendet worden.

Es gibt einen noch deutlicheren Beweis dafür, dass die Maßnahmen der zweiten Welle vom 16. März keine Wirkung hatten. Die Kurve in Abbildung 2 des Bulletins stellt den bundesdeutschen Durchschnitt dar. Es gibt aber vier große Bundesländer, deren Epidemieverläufe 6 Tage früher als der Bundesdurchschnitt liegen: Nordrhein-Westfalen, Rheinland-Pfalz, Hessen und Hamburg. In diesen vier Bundesländern begann die Reproduktionsrate R schon Ende Februar zu sinken und fiel bereits am 10. März auf 1,0 und einen Tag später auf 0,9, wie von mir ausgerechnet wurde, hier. Die Lockdown-Maßnahmen des 16. März wurden erst eine Woche nach dem 10. März verkündet – also konnten sie NICHT die Reduktion der Infektionsraten in diesen vier Bundesländern auslösen und haben auch anschließend KEINE statistisch erkennbare Wirkung mehr auf das Infektionsgeschehen dort gehabt.

Kontaktsperren hinterließen keine messbaren Spuren

Die Abbildungen 2 und 4 des RKI Bulletins bergen eine weitere Erkenntnis, die mindestens genauso gravierend ist, nämlich, dass auch die erhebliche Lockdown-Verschärfung der dritten Welle mit ihren Kontaktverboten ab dem 22. März ebenfalls keine Auswirkung hatte. Die Abbildung 2 zeigt auf den ersten Blick, dass die Krankheitszahlen im bundesdeutschen Durchschnitt mit KONSTANTER Rate vom 18. März bis zum 9. April gefallen sind. Wenn die Maßnahmen vom 22. März eine zusätzliche Wirkung gehabt hätten, dann hätte es 5 Tage später, ab dem 27. März (der durchschnittlichen Dauer bis zu Krankheitssymptomen), eine schnellere Reduktion der Erkrankungen geben müssen, aufgrund eines weiter gesunkenen R. Das ist aber nicht der Fall, das R blieb bis vor kurz Ostern laut der Abbildung 4 bei um die 0,9. (Erst während der Osterfeiertage sank es weiter herunter auf 0,7, wie wir mittlerweile wissen). Die Verschärfung der Maßnahmen am 22. März haben demnach ebenfalls KEINE messbaren Spuren in der Statistik hinterlassen.

Zusammengefasst: In vier großen Bundesländern begann die Epidemie bereits ab Ende Februar von alleine zu verschwinden, weil der Karneval und die alpinen Après-Ski Ferien saisonbedingt beendet waren. Das anschließende Großveranstaltungsverbot vom 8. März hat ein Wiederaufflammen bei Fußballfesten und anderen Festivals verhindert. Die zweite Welle der Maßnahmen ab dem 16. März haben in diesen vier Bundesländern keine weitere Wirkung in der Reduktion der Infektionsraten gehabt. Die beiden südlichen Bundesländer Bayern und Baden-Württemberg führten die alpinen Après-Ski Partys noch fort, und in Bayern fand sogar noch eine Kommunalwahl am 15. März statt. Das Ergebnis war ein erst späteres Abklingen der Epidemie im Süden. In keinem der Bundesländer hat die dritte Welle der Maßnahmen mit den Kontaktverboten ab dem 22. März eine statistisch erkennbare Wirkung gezeigt. Daraus folgt: Um die Infektionszahlen zu verringern, müssen Großveranstaltungen und Partys verboten werden – aber die Schließung des öffentlichen Lebens und Kontaktsperren machen keinen Unterschied in der Infektionsrate.

Schweden und Italien passen ins Bild

In dasselbe Bild passen die Erfahrungen von sowohl Schweden als auch Italien. Schweden hat nur eine erste Welle an Maßnahmen durchgeführt, nämlich alle Veranstaltungen über 50 Personen zu verbieten. Alles weitere ist erlaubt und geöffnet, (wobei Social Distancing empfohlen und praktiziert wird), und dennoch ist auch in Schweden das R bereits unter 1,0 gefallen. Dagegen fällt das R in Italien nicht unter 0,8 – selbst mit dem längsten und schärfsten Lockdown in ganz Europa, während dem die gesamte Bevölkerung seit mittlerweile sechs Wochen in ihre Wohnungen eingesperrt wurde und selbst die Industrieproduktion bis auf das Notwendigste eingestellt wurde. Auch in diesem internationalen Vergleich zeigt sich, dass es ausreicht, Großveranstaltungen zu verbieten, um ein R von unter 1 zu erreichen, aber dass weitere Maßnahmen der Schließung des öffentlichen Lebens und Kontaktverbote keine Wirkung entfalten, das R deutlich weiter zu reduzieren.

Dass die Lockdown-Maßnahmen der zweiten und dritten Welle wirkungslos sind, scheint zunächst widersinnig. Aber die Zahlen lügen nicht. Vielleicht lässt sich das wie folgt erklären. Die Übertragungswege des Corona Virus sind hauptsächlich, vielleicht sogar ausschließlich, die Tröpfchen- und Aerosol-Übertragung aus dem offenen Mund durch Husten, Niesen, Singen, Grölen, Lachen, Schnaufen und vielleicht sogar nur einfaches Sprechen. Ein Infizierter kann stundenlang im öffentlichen Verkehr direkt neben mir sitzen, aber solange er mich nicht anspricht, besteht keine Infektionsgefahr.

Es gibt keinen Hinweis auf Infektionsgeschehen in übervollen Flugzeugen, Bahnen, Bussen, Flughafenterminals oder Bahnhöfen, selbst ohne Mundschutz. Aber nur das Gehen durch eine noch schwebende Atemwolke von einem infizierten keuchenden Jogger, der schon längst nicht mehr zu sehen ist, reicht aus, um mich erkranken zu lassen. Oder vermutlich reicht auch die Atemwolke eines Infizierten, der fünf Meter vor mir schwer schnaufend das Treppenhaus im Mietshaus hochgestiegen ist. In dem ersten Fall sind 30 cm Nähe ungefährlich, und in dem letzteren Fall sind viele Meter Abstand trotzdem infizierend. Das heißt, selbst mit allen Social Distancing Maßnahmen, gibt es trotzdem genügend spontane Neuinfektionen, auch in einer auf das Minimum reduzierten Gesellschaft, die dann anschließend im engeren Familienkreis, bei den unmittelbaren Arbeitskollegen (der wenigen die noch arbeiten können), oder im medizinischen und pflegerischen Personal gleich wieder Dutzende von neuen Infektionsketten entstehen lassen.

Sommerurlaub auf Balkonien 

Was folgt daraus für die weitere Handlungsstrategie im Umgang mit dieser Epidemie? Die erste Folge ist einfach. Solange es weder Herdenimmunität noch Impfstoff gegen Covid-19 gibt, kann es auch keine Großveranstaltungen mehr geben – und entsprechend auch kein dichtgedrängtes Sommerurlaubsgetümmel mit entsprechender Partyszene am Mittelmeer, geschweige denn außerhalb Europas. Der deutsche Sommerurlaub wird weitgehend auf Balkonien oder heimatnahen Fahrradwegen stattfinden.

Die zweite Folge hängt von der Strategie ab, was die Gesellschaft will. Ist die Gesellschaft bereit, den schwedischen Weg zu gehen, eine Herdenimmunität aufzubauen, oder möchte sie lieber den taiwanesischen Weg beschreiten, das Virus möglichst aus der Gesellschaft zu eliminieren, bis es einen Impfstoff gibt? Für keine der beiden Strategien, ist es notwendig, die Lockdown-Maßnahmen der zweiten und dritten Welle aufrechtzuerhalten. Sie sind weder wirkungsvoll noch geeignet.

Für den schwedischen Weg mit dem Ziel einer Herdenimmunität muss ein starker Schutz für die Risikogruppen errichtet werden, also derjenigen, die eine höhere Sterblichkeitsrate bei einer Infektion haben. Ansonsten muss das Infektionsgeschehen nur soweit begrenzt werden, dass das Gesundheitssystem nicht kollabiert. Ein Verbot von Großveranstaltungen scheint dafür zu reichen.

Für den taiwanesischen Weg brauchen wir hochfrequentes Testen, die blitzschnelle Identifikation von möglicherweise Infizierten im öffentlichen Raum durch eine Contact Tracing App und konsequente Quarantäneüberwachung von allen potenziell Infizierten. Keine dieser drei Maßnahmen wird zur Zeit in Deutschland ergriffen. Die Gemüter bewegt stattdessen die Mundschutzpflicht. Aber ob das Tragen vom Mundschutz im öffentlichen Raum Wirkung zeigt, muss sich erst noch erweisen. Vermutlich nicht – denn der allergrößte Teil des Infektionsgeschehen hat schon immer im privaten Raum stattgefunden.

Beweisbar unwirksamen Strategie

Ohne sich entweder für den schwedischen oder für den taiwanesischen Weg zu entscheiden, hat die Bundeskanzlerin am 15. April an einer beweisbar unwirksamen Strategie festgehalten: Schließung des öffentlichen Lebens, Kontaktverbote und gravierende Wirtschaftsrestriktionen. Die Corona Krise hat bereits viele teure Fehlentscheidungen gesehen, zum Beispiel, sich im Januar nicht intensiv mit dem Virus in China zu beschäftigen oder im Februar keine Vorbereitungen für eine Pandemie zu treffen – oder im März sich nicht durch konsequentes Datensammeln eine Entscheidungsgrundlage erarbeitet zu haben.

Die Stopp-Taste am 16. März zu drücken, war deswegen zunächst richtig, denn aufgrund der vorherigen Versäumnisse gab es fast kein relevantes Wissen über das Virus. Aber mittlerweile wissen wir mehr, und die Zahlen sprechen eine zunehmend klare Sprache. In der Rekordjagd nach der teuersten Fehlentscheidung dürfte der 15. April jetzt einen neuen Spitzenwert verbuchen. Es wäre besser gewesen, die Bundeskanzlerin hätte das Bulletin ihrer oberen Bundesbehörde Robert-Koch-Institut vom selben Tag gelesen. Als promovierte Naturwissenschaftlerin kann sie diese Zahlen schließlich selbst verstehen und einordnen.

Der Beitrag erschien zuerst bei ACHGUT hier




Bericht zur Coronalage vom 22.04.2020 – worauf wartet die Politik?

Risikoanalyse

Ansteckungsgefahr

Nun ist es offiziell, der Reproduktionsfaktor R sank schon vor dem Shutdown unter 1. Das ist der Zeitpunkt, ab dem ein an Corona-Covid-19 Erkrankter durchschnittlich weniger als eine andere Person ansteckt. Laut einer Veröffentlichung des Robert-Koch-Instituts vom 15.4.2020 sank der R-Höchstwert bereits ab dem 11.3.2020 und liegt unter 1 seit dem 20.3.2020. Ab diesem Zeitpunkt, also drei Tage vor dem Shutdown, ist Covid-19 bereits im Abklingen. Damit hat der Shutdown keinen messbaren Einfluss auf die Infektionseindämmung. In diesem Beitrag werden jedoch jedoch noch weitere, brisante Erkenntnisse thematisiert.

Noch nicht offiziell ist die Zahl der Opfer des Shutdowns infolge des massiven Absinkens der Wirtschaftsleistung, des Anstieges der Arbeitslosenzahl, von häuslicher Gewalt, der eingeschränkten medizinischen Versorgung, der Belastung für die internationalen Beziehungen sowie der Beschädigung des Rechtsstaates. Sie werden jedoch – die Prognose sei erlaubt – gewaltig sein. Niemand wird die Zahl messen an Opfern des Shutdowns in den Entwicklungsländern, die aufgrund ausbleibenden Tourismus und Wirtschaftsaufträge buchstäblich vor dem Nichts stehen, nichts zu essen haben und die kein Sozialnetz auffängt.

Doch der Reihe nach. Heute geht es um die Entwicklung und die Versäumnisse bezüglich des epidemiologischen Wissens seit Beginn der Coronakrise. In einem Folgebeitrag erkläre ich Ihnen etwas später, warum wir jetzt, da es genügend Erfahrung in Deutschland mit der Krankheit selbst gibt, auf erfahrene Praktiker hören sollten. In komplexen Situationen ist deren reflektierte Gefühlseinschätzung reiner Statistik oft sogar überlegen. Deshalb kommen in einem Folgebeitrag vor allem führende Lungenärzte und Pathologen zu Wort. Erst beides zusammen, Daten und Erfahrung, ergeben ein belastbares Gesamtbild.

Was wir in dieser langsam wirklich dramatischen Situation ganz bestimmt nicht mehr brauchen, sind Modellberechner wie den Briten Neil Ferguson, die an einem Zahlenrädchen drehen und die wahrscheinliche Totenzahl eines Landes mal eben von 500.000 auf 20.000 herunterrechnen und immer noch in Talkshows Panik schüren. Das ist inzwischen nur noch lächerlich.

Ab wann ist eine Krankheit gefährlich für die Gesamtbevölkerung?

Jede schwere Krankheit, an der wir erkranken, ist für den Betroffenen gefährlich oder gar tödlich. Um die Gefährlichkeit in Bezug auf die Gesamtbevölkerung zu beurteilen, müssen zuvor zwei Fragenkomplexe geklärt werden:

  1. Wie schwer ist die Krankheit, wer ist davon betroffen, hinterlässt sie Folgeschäden und kann man daran sterben?
  2. Wie bekommt man diese Krankheit und wie viele Menschen können daran erkranken?

Der erste Fragenkomplex wird am besten beantwortet von den zur Krankheit passenden Fachtherapeuten und Pathologen, die damit Erfahrung sammeln konnten.

Der zweite Fragekomplex fällt in das Gebiet der Epidemiologie und im Falle einer Infektion auch der Immunologie. Primär nicht in das Fachgebiet der Virologen. Eine Ausnahme sind die Forschungen von Prof. Hendrik Streeck, der sich vor allem mit Ansteckungswegen eines Virus befasst. Professor Christian Drosten ist dagegen Spezialist für die Beschaffenheit des Virus selbst, woraus sich Nachweistests oder auch Impfstoffe ableiten lassen. Für die Beurteilung der Gefährlichkeit eines Virus ist er, rein fachlich gesehen, gar nicht zuständig.

Erst nach Klärung dieser zwei Fragenkomplexe, kann man eine belastbare Risikoeinschätzung vornehmen und die Gegenmaßnahmen gegenüber ihren Nebenwirkungen in ihrer Verhältnismäßigkeit beurteilen. Dabei gilt: Je belastbarer die Daten- und die Erfahrungslage, desto sicherer kann man sich dabei sein.

Wahlumfrage, Wahlprognose und erste Hochrechnungen

Fangen wir mit dem zweiten Fragekomplex an, der Domäne der Epidemiologie, also der Statistik und Zahlendeutung. Die meisten von Ihnen kennen das Spiel vor Wahlen. Wochen vor der Wahl werden Umfragen veröffentlicht, die oft, aber nicht immer, dem tatsächlichen Ergebnis nahekommen. Am Wahltag gibt es um 18 Uhr die Wahlprognose, sie beruht auf Befragung von Wählern, nachdem sie tatsächlich gewählt haben. Aber auch hier kommt es immer wieder vor, dass die Prognose vom späteren Ergebnis abweicht. Erst die Hochrechnung beruht auf der tatsächlichen Auszählung von Wählerstimmen, und sie stimmt meist mit dem späteren Gesamtergebnis bis auf wenige Zehntel überein.

Am Anfang herrschte Unklarheit 

Seit dem 12. März schreibe ich auf Achgut.com regelmäßige Beiträge zur Coronalage, dies hier ist der zwölfte. Am Anfang vor allem noch unter dem emotionalen Eindruck der schrecklichen Berichte aus Italien und aus mangelnder Erfahrung mit dieser Erkrankung in Deutschland selbst (zu diesem Zeitpunkt 1.656 Fälle mit 3 Toten) schrieb ich, dass man aufgrund der unklaren Lage das Verbieten von Großveranstaltungen nicht kritisieren sollte, jedoch der folgenden Prämisse „Wenn es Grund zu einer Entwarnung gibt, sollte jedoch nicht damit gezögert werden. Auch wirtschaftliche Notzeiten fordern Todesopfer.“

Doch sehr schnell wurde deutlich, es gibt eine klare Risikogruppe, die jedoch in den Altersheimen und der ambulanten Pflege nicht professionell vor Ansteckung geschützt wird. Damit war die Marschrichtung eines verantwortungsethischen Vorgehens vorgegeben, kein kompletter Shutdown für alle, sondern Konzentration auf die Risikogruppe, aber das mit allen Registern, finanziell, professionell und fantasievoll human. Alle Einwände dagegen verblassen bei näherer Betrachtung. Es kam anders.

Außerdem beschrieb ich am 17. März die ersten Einschätzungen von führenden Epidemiologien, die zwar das Fehlen repräsentativer Daten bemängelten, aber erste Rückschlüsse beispielsweise vom Krankheitsverlauf auf dem Kreuzfahrschiff Diamant Princess zogen und damit die hohen Sterblichkeitsprognosen doch deutlich niedriger einstufen konnten.

Erste Prognosen

Gleichzeitig gab es in anderen Ländern erste repräsentative Studien zur Krankheitsverteilung, die dem Virus etwas von seinem Schrecken nahmen, gut zusammengefasst hier. Auffallend war zu diesem Zeitpunkt die Passivität des Robert-Koch-Instituts (RKI), welches überhaupt keine Anstrengungen erkennen ließ, eigene repräsentative Studien mit Tests durchzuführen. Sowie Verlautbarungen überpräsenter Virologen, die weiter Horrorzahlen prognostizierten, aber eben nicht auf dieses unverzeihliche Versäumnis des RKI hinwiesen.

Lediglich in Nordrhein-Westfallen, als das neben Bayern am meisten betroffene Bundesland, ergriff endlich ein junger Virologe namens Hendrik Streeck die Initiative, um erste belastbare Studien durchzuführen, unter ausdrücklicher Unterstützung der Landesregierung. Während die obigen Arbeitsverweigerer in wohlfeiler Weise nichts anderes zu tun hatten, diese Anstrengungen mit teils fadenscheinigen Argumenten zu kritisieren(was die Regierung nicht davon abhält, deren Verhalten mit enormen Forschungsgeldern zu belohnen, unter Auslassung der üblichen Antragswege). Mit den Ergebnissen von Hendrik Streeck ergab sich sicherer Spielraum, den Shutdown nicht durchzuführen, weil er als Erster anhand Messungen in Deutschland klar auf eine viel geringere Sterblichkeit durch Covid-19, als ursprünglich angenommen, hinweisen konnte und gleichzeitig die Risikogruppe der Schwervorerkrankten, meist alten Menschen, bestätigte. Damit befanden wir uns bezüglich Prognosesicherheit quasi schon auf dem Niveau von Wahlprognosen.

Hochrechnungen

Doch nun liegen belastbare Auswirkungen bezüglich der Gesamtlage in Deutschland vor, veröffentlicht in der Fachzeitschrift des RKI Epidemiologisches Bulletin am 15. April 2020. Das RKI berechnet, ausgehend vom Datum des Eingangs positiver Testergebnisse, das tatsächliche Infektionsdatum und schließt so auf die Zahl der gerade frisch Infizierten pro Datum. Außerdem finden sich Berechnungen des eingangs beschriebenen Reproduktionsfaktors R. Jetzt befinden wir uns auf dem Niveau einer Hochrechnung. Sie können sich sicher sein, dass nun Heerscharen von PR-Spezialisten versuchen werden, die Deutungshoheit über diese wissenschaftliche Veröffentlichung zu erlangen. Denn sie ist brisant, hochbrisant. Als Kritiker und Autor medizinischer Leitlinien habe ich über 20 Jahre lang Erfahrung darin, Studien so zu lesen, dass man die Absicht oder den Druck, dem Auftraggeber zu gefallen, erkennt und dann den tatsächlichen Erkenntnisgewinn, oft erst auf den zweiten Blick, identifiziert.

Auf den ersten Blick scheint der Beitrag im Epidemiologischen Bulletin des RKI den Nutzen des Regierungshandelns zu bestätigen. Punktgenau, meiner Erfahrung nach zu punktgenau, ergeben sich Verbesserungen der Infektionszahlen genau ab dem Zeitpunkt der von der Regierung veranlassten Einschränkungen (Seite 13, Abbildung 3). Meiner Meinung nach wirkt dies geschönt, zum Beispiel sehe ich nicht, dass die Zeitspanne berücksichtigt wurde, in der vom Auftreten ernster Symptome bis zum Test oft mehrere Tage vergingen.

Quelle: Epidemiologisches Bulletin 17 | 2020 Online vorab: 15. April 2020

 

Doch das ist gar nicht die entscheidende Kurve. Die findet sich auf Seite 14 in Abbildung 4. Sie zeigt das Absinken der Zahl R ab dem 10. März und das Fallen unter 1 ab dem 20. März, drei Tage vor dem Shutdown. Danach bleibt er konstant unter 1, ohne weiter zu fallen. Diese Konstanz wird inzwischen als Begründung benutzt, den Shutdown weiter aufrechtzuerhalten, weil R sonst wieder ansteigen könnte, so die Bundeskanzlerin Angela Merkel. Doch lesen Sie nun, was das RKI als eigentliche Ursache dafür ansieht, warum der R-Wert konstant bleibt und nicht noch weiter fällt:

„Ein Grund dafür, dass der Rückgang der Neuerkrankungen trotz der gravierenden Maßnahmen nur relativ langsam passiert, ist, dass sich das Virus nach dem 18. März stärker auch unter älteren Menschen ausbreitet und wir zunehmend auch Ausbrüche in Pflegeheimen und Krankenhäusern beobachten. Ein weiterer Aspekt ist aber auch, dass in Deutschland die Testkapazitäten deutlich erhöht worden sind und durch stärkeres Testen ein insgesamt größerer Teil der Infektionen sichtbar wird. Dieser strukturelle Effekt und der dadurch bedingte Anstieg der Meldezahlen, kann dazu führen, dass der aktuelle R-Wert das reale Geschehen etwas überschätzt“

Nein, nicht etwas, sondern ganz sicher deutlich. Das Zitat besagt schwarz auf weiß: Die Regierung hat es versäumt, die Risikogruppen in den Altersheimen (und im Rahmen der ambulante Pflegeversorgung) professionell zu schützen und zwar so. Zweitens wird hier in aller Klarheit die Aussage gemacht, dass viel zu spät damit begonnen wurde, umfangreich und repräsentativ zu testen. Hätte man es gemacht, dann würde man hochwahrscheinlich jetzt eine viel niedrigere Zahl R errechnen können.

Analog zu einer Schulnote würde damit die Regierung für ihr Handeln die Note 5–6 erhalten. Denn in frühen, vernünftigen Prognosen und späteren belastbaren Hinweisen wurde genau das bestätigt, was schon ganz zu Anfang als der beste Weg vorgegeben war. Es fällt mir wirklich schwer, sachlich zu bleiben, wenn ich mein Unverständnis darüber ausdrücke, warum aufgrund dieser Erkenntnisse der Shutdown nicht umgehend beendet wird und die Anstrengungen zum Schutz der Risikogruppen endlich professionell durchgeführt werden.

Professor Stefan Homburg, ein Finanzwissenschaftler von der Leibniz Universität Hannover, hat schon vor diesem RKI Artikel sehr plausibel errechnet, dass der Shutdown keinen Sinn macht. Hier der wissenschaftliche Artikel und hier der dazu passende Coronabeitrag in Die Welt. Stefan Hombacher findet in diesem Video deutliche Worte. Zu sehen ist auch Angela Merkel, wie sie dennoch das Festhalten am Shutdown begründet. Sagen wir es so: Wenn eine promovierte Physikerin als Bundeskanzlerin in einer so dramatischen Lage im Stile eines Erstsemesters Zahlen derart oberflächlich interpretiert und wieder kopflos Panik schürt, dann ist dies sicher nicht hilfreich.

Studie aus Israel

Professor Yitzhak Ben-Israel ist Mathematiker und Physiker von der Universität Tel Aviv und kennt sich gut aus mit sicherheitspolitischen Studien. Er hat sich den Verlauf der gemeldeten Covid-19-Fälle in verschiedenen Ländern vorgenommen (USA, Grossbritannien, Schweden, Italien, Israel, Schweiz, Frankreich, Deutschland und Spanien) und eine erstaunliche Parallele festgestellt. Die Erkrankungszahl steigt in jedem Land exponentiell bis zum 40. Tag an, um dann steil abzufallen. Nach 8 Wochen ist sie dann am Abklingen. Und zwar völlig unabhängig ohne, während oder, wie in Deutschland, vor einem Shutdown. Ob Shutdown oder nicht, oder wie konsequent die Quarantäne – all dies hatte keinen Einfluss auf den Ausbreitungsverlauf und dessen Abklingen. Eine Erklärung dafür hat er nicht, es könnte beispielsweise an der Jahreszeit liegen oder in der Natur des Virus selbst.

Hier die Arbeit auf der Webseite der Times of Israel mit den Kurvengrafiken. Und hier ein übersetztes Interview auf Englisch.

Natürlich wird man auch diese Arbeit kritisieren. Natürlich rechnet auch Professor Ben-Israel nur mit den gemeldeten Fällen und nicht der tatsächlichen Zahl der Infizierten, die ja keiner kennt. Der entscheidende Punkt ist jedoch die auffallende Parallelität der Beobachtung, die man nicht einfach wegdiskutieren kann. Das bedeutet, er kann keine Aussage zu der Zahl der Erkrankungen machen, aber sehr wohl bezüglich ihrer Dynamik.

Auf was warten die Verantwortlichen des Shutdowns eigentlich, um ihn zu beenden? Die Absolution durch die Göttin der totalen Wahrheit. Die gibt es nicht. Es gibt nur eine verantwortungsethische Risikoabwägung, und die besagt epidemiologisch schon längst, dass die Aufhebung mit weniger Risiken verbunden ist, als es das Fortführen in der Gesamtbetrachtung ist. Ganz davon abgesehen, dass der Shutdown das Risiko einer zweiten Welle erhöht, weil sich beispielsweise die Schulkinder nicht immunisieren können. Jedoch ist die unzweifelhafte Basis aller guten Strategien der professionelle Schutz der Risikogruppen, der immer noch im Argen liegt.

Zwischenfazit:

Nach Auswertung der zur Verfügung stehenden Daten ist Corona-Covid-19 eine sich epidemisch ausbreitende Infektion, die den Höhepunkt ihres exponentiellen Wachstums in Deutschland um den 10. März herum erreichte. Seitdem ging das exponentielle Wachstum zurück (Abflachung der Kurve), um ab dem 20. März unter den Wert R 1 zu fallen. Damit ist die Epidemie am Abklingen. Die Zahlen lassen ziemlich eindeutig erkennen, dass das Abflachen und Abklingen nichts mit den vor der Regierung beschlossenen Maßnahmen zu tun hatten. Im Gegenteil wurde es versäumt, genau die Maßnahmen einzuleiten, die es tatsächlich geschafft hätten, die Zahl R viel früher und viel stärker unter 1 sinken zu lassen. Dazu gehört in erster Linie der professionelle Schutz der Risikogruppen sowie frühe, repräsentative Testungen.

Damit sind wir aber erst bei der Hälfte einer aktuellen, umfassenden und kompetenten Risikoeinschätzung angelangt. Der zweite Teil dieses Beitrages folgt in wenigen Tagen. Dann sprechen die Praktiker.




MÖRDERISCHE ZAHLEN

Suche nach der Katastrophe

Michael Crichton (1942-2008) hat in seinem Leben viele Bücher geschrieben und davon über hundert Millionen verkauft. Am bekanntesten ist sein “Jurassic Park“, das Drama einer Familie im neu eröffneten Erlebnispark, wo Flora und Fauna aus der Zeit des Jura wiederbelebt worden waren. Da lief dann einiges aus dem Ruder, denn „…das Leben findet seinen Weg.“

Seine enormen Erfolge hielten ihn nicht davon ab, nach dem Stoff für weitere Romane zu suchen. Einer sollte die größte Katastrophe aus Menschenhand schildern. Da kam ihm Tschernobyl in den Sinn.

 

Woher kommen die Zahlen?

Erste Recherchen erstaunten ihn. Da waren Berichte von UPI aus 1986, dem Jahr des Unglücks, mit 2000 Todesopfern, während die NY Post von 15.000 sprach. Wie kann so etwas kommen? Es ging hier um Menschenleben, nicht um Säcke voll Reis in China!

Die Diskrepanzen verschwanden nicht, obwohl die Jahre doch Klarheit bringen sollten. Die NY Times berichtet 2002, 18 Jahre später, immer noch von 15.000 Toten – im krassen Gegensatz zur Untersuchung durch die UN Atombehörde: es gab in Wirklichkeit nicht mehr als 56 Opfer. Was für eine groteske Fehlmeldung: 15.000 statt 56, das ist ein Faktor von 250, das kann kein Versehen sein. Aber welche Absicht steckt dahinter?

Nicht anders war es bei den Prognosen für die langfristige Wirkung der Strahlung. CNN erwartete 3,5 Millionen Opfer, AFP sprach von einer halben Million und die erwähnte UN Analyse von 2005 ergab 4000 Fälle. CNN und die UN lagen also um den Faktor 1000 auseinander!

Woher nehmen die Medien diese Zahlen, und woher die Dreistigkeit, sie zu veröffentlichen? Unter den Empfängern der Nachricht sind ja Betroffene, die da lesen, dass sie krank werden, dass sie sterben müssen und ihre Kinder missgestaltet sein werden. 3,5 Millionen in der Region Tschernobyl waren von diesem Schicksal betroffen – gemäß CNN!

 

Welt in Angst

Welches Trauma wird sie für den Rest ihres Lebens begleiten, und wie viele werden an dem psychologischen Stress zu Grunde gehen! Über diesen Mord durch falsche Zahlen werden wir nie etwas erfahren.

Crichton war zutiefst erschüttert und er gab dem neuen Roman ein anderes Thema: Korruption von Wissenschaft durch die Politik. Sehen Sie sich seinen Vortrag von 2005 dazu an.

 Video über die Entstehung des Buches State Of Fear

Die Toten werden noch kommen

Ein viertel Jahrhundert nach Tschernobyl kam Fukushima; es wurde medial noch widerlicher  ausgeschlachtet. Das Video mit der explodierenden Halle lief alle fünf Minuten über die Bildschirme, Tag und Nacht. Wem wurde damit geholfen?

Als in einer der endlosen Talkshows der Einwand gemacht wurde, es hätte doch noch gar keine Toten gegeben, entgegnete Maybrit Illner mit der sehr taktvollen Prognose: „Die werden schon noch kommen, das ist es ja.“ Der Bildschirm zeigte dann japanische Babys mit Gasmasken und titelte schadenfroh: „Fukushima: schlimmer als Tschernobyl“.

 

Vorhersehbar

Zwei Tage nach dem Unglück hatte mich ein südafrikanischer News Channel für ein Statement in eine Sendung zugeschaltet. Der Moderator von eNEWS, Jeremy Maggs, fragte, mit wie vielen Opfern in Fukushima zu rechnen sei. Da ich Reaktoren dieses Typs in Deutschland schon von innen gesehen hatte, äußerte ich vorsichtig, dass außer im Reaktor selbst wohl niemand zu Schaden gekommen wäre.

Die Aussage wurde von den anderen Teilnehmern mit Kopfschütteln quittiert, aber die Experten der Vereinten Nationen kamen zu keinem anderen Ergebnis. Im Mai 2013 veröffentlichte UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) einen Bericht über die Folgen des Unfalls ( https://www.unscear.org/unscear/en/fukushima.html ). Hier die zentrale Aussage:

 

3. Health implications

38. No radiation-related deaths or acute diseases have been observed among the workers and general public exposed to radiation from the accident.

39. The doses to the general public, both those incurred during the first year and estimated for their lifetimes, are generally low or very low. No discernible increased incidence of radiation-related health effects are expected among exposed members of the public or their descendants.

 

3. Auswirkungen auf die Gesundheit

38. Bei den Arbeitnehmern und der Öffentlichkeit, die der Strahlung des Unfalls ausgesetzt waren, wurden keine strahlenbedingten Todesfälle oder akuten Krankheiten beobachtet.

39. Die Dosen für die breite Öffentlichkeit, sowohl die im ersten Jahr angefallenen als auch die für ihre Lebensdauer geschätzten, sind im Allgemeinen niedrig oder sehr niedrig. Bei exponierten Mitgliedern der Öffentlichkeit oder ihren Nachkommen ist keine erkennbare erhöhte Inzidenz strahlenbedingter gesundheitlicher Auswirkungen zu erwarten.

Ein paar Monate vor dem UN Bericht und 24 Monate nach dem Unglück gab es doch sicherlich schon aktuellere Informationen und man sollte annehmen, dass die finanziell gut ausgestattete Arbeitsgemeinschaft der öffentlich-rechtlichen Rundfunkanstalten Deutschlands in der Lage gewesen wäre, sich mit dem elementarsten Zahlenmaterial zu versorgen.  Dennoch sprach man in der Tagesschau am 11.3.2013 von 16.000 Toten durch das Reaktorunglück. Die richtige Zahl wäre die Null gewesen!

https://www.youtube.com/watch?v=Mg3z4GhJX3s

Hat die ARD denn kein Geld für die elementarste Qualitätskontrolle? Werden die Sprecher bestochen, damit sie etwas Falsches sagen?

Nicht nur die deutschen Medien übertrieben in solch unverantwortlicher Weise.  Die japanischen Behörden mussten auf öffentlichen Druck hin die Bevölkerung aus dem Umkreis des Kraftwerks evakuieren. Die Strahlendosis lag hier nicht über der natürlichen Radioaktivität mancher Gebiete der Erde, es bestand also keine Gefahr. Dennoch wurde evakuiert.  Weil nun die Infrastruktur vom Tsunami total zerstört war, wurde der Abtransport zu einer riskanten Expedition, bei der viele, insbesondere älteren Menschen, ums Leben kamen – sie waren Opfer der Medien und derer Falschmeldungen geworden.

 

Kein Zufall

Wären es zufällige Fehler, dann würden nicht alle in die gleiche Richtung von der Wahrheit abweichen. Es steckt also eine Strategie dahinter! Durch Falschmeldungen soll die Bevölkerung in eine Richtung gelenkt werden, die sie nicht wählen würde, wenn sie Zugang zur Wahrheit hätte. Dabei sind Medien doch eigentlich dazu da, uns objektive Grundlagen für unsere Entscheidungsfindung zu geben; damit wir das persönliche Wohl optimieren können. Aber man belügt uns vorsätzlich. Cui bono? Wer profitiert davon?

In der jetzigen Situation mit der Corona Pandemie ist das kein gutes Gefühl. Kann man den offiziellen Zahlen diesmal trauen? Jetzt geht es nicht um die Bevölkerung in der Ukraine oder Japan, jetzt geht es um uns. Vielleicht sollte man während der Tagesschau immer noch einen zweiten Bildschirm vor dem geistigen Auge haben, auf dem ein perfekt gekleideter und gekämmter Sprecher der ARD mit ernster Miene von 16.000 Toten in Fukushima erzählt.

Michael Crichton ist bei seiner Suche nach der größten von Menschen gemachten Katastrophe anscheinend doch fündig geworden: es ist die Fütterung der Informationsgesellschaft mit vergifteter Nahrung durch eine zutiefst unethische Elite. Das dramatisiert er in seinem Buch „State of Fear“ / „Welt in Angst“. Vielleicht finden wir da auch die Antwort auf die oben gestellte Frage „cui bono?“.

 

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/

 

 




Diesel weg, Feinstaub futsch – dennoch hohe Messwerte

Aus Oldenburg kommt die Nachricht, dass es dort keine Diesel-Fahrverbote geben wird. Die DUH habe erklärt, dass ihre Klage »aufgrund nachträglich eingetretener Umstände nicht mehr begründet« sei, teilte das Oberverwaltungsgericht Lüneburg der Stadt Oldenburg mit.

Die Verblüffung über das unfreiwillige »Corona-Groß-Experiment« hält immer noch an. Auf unseren Straßen fahren deutlich weniger Autos als vor dem »Shutdown«, dennoch sinken die Luftschadstoffwerte in vielen Städten nicht.

Die sollten eigentlich drastisch gesunken sein, wenn man davon ausgeht, was uns NGOs wie der Abmahnverein Deutsche Umwelthilfe e.V. (DUH) und Umwelt- und Verkehrsminister jahrelang erzählten: Der Verkehr sei an der Luftverschmutzung schuld, vor allem der Diesel, der daher weg müsse.

Damit begründeten auch die verschiedenen Verwaltungsrichter ihre Verdikte in den vielen Verfahren, die die DUH vom Zaun gebrochen hat.

Doch jetzt ist der Diesel weg – dennoch zeigen die Messstationen immer noch hohe schwankende Werte. Eigentlich müsste Stuttgart fast einem Luftkurort gleichen, wenn man den Erzählungen über den Anteil der Autos glaubt. Insbesondere die Dieselmotoren sollen für 80 Prozent der Luftschadstoffe verantwortlich sein. TEberichtete.

Der deutlich geringere Verkehr müsste sich also deutlich stärker bemerkbar machen. Das tut er offenkundig nicht. Die verschiedenen Schadstoffe in der Luft hängen von sehr vielen verschiedenen Faktoren wie zum Beispiel Wetterlagen und auch Heizungen ab.

Die Autos selbst sind seit mehr als zehn Jahren nach immer weiter verschärften Emissionswerten deutlich sauberer geworden. Aufwendige und teure Abgasreinigungsanlagen unter den Wagenböden sorgen dafür, dass kaum noch Stickoxide oder wie beim Diesel praktisch keine Rußpartikel mehr aus dem Auspuff kommen. Ein Diesel ohne Filter lässt übrigens in eineinhalb Stunden die Menge an Feinstaub heraus, wie sie beim Rauchen einer Zigarette entsteht.

Doch die Grenzwerte wurden schneller nach unten verschoben, als die Autos sauberer werden konnten. Effekt: Die Luft wurde zwar immer sauberer, der Eindruck allerdings, sie werde immer gefährlicher, aber immer größer. Über Normen kann man Technologien beeinflussen, zerstören oder in den Himmel heben.

Vom Tisch ist seit diesem Monat die merkwürdigste Regelung der baden-württembergischen Landeshauptstadt: der Feinstaubalarm. Damit erregte die Stadt Stuttgart im Januar 2016 Aufsehen. Sobald der Deutsche Wetterdienst für mindestens zwei aufeinanderfolgende Tage ein stark eingeschränktes Austauschvermögen der Atmosphäre vorausgesagt hatte, wurde zum Feinstaubalarm geblasen. An sämtlichen Autobahnschildern leuchteten Feinstaubalarm-Hinweise auf verbunden mit der Bitte, Bus, Bahn oder das Fahrrad zu benutzen.

An diesem Mittwoch, 15. April, endet die »aktuelle Periode«, wie die Landeshauptstadt verkündet. Diese ‚fünfte Jahreszeit‘ soll nicht weiter fortgesetzt werden, nachdem seit zwei Jahren diese Grenzwerte eingehalten wurden. Für Verwirrung dürften allerdings jetzt wieder die Bäume im Stadtgebiet sorgen. Die produzieren in jedem Frühjahr solch gewaltige Mengen an Blütenstaub, dass die Messinstrumente höchste Alarmstufe anzeigen.

Feinstaubalarm müsste allerdings nach wie vor in den U- und S-Bahnen ausgerufen werden. Denn den meisten Feinstaub erzeugt der Schienenverkehr. Wenn die stählernen Räder auf den Eisenschienen kräftig bremsen, wirkt das wie eine Feinstaubmühle. Der Abrieb ist beträchtlich und in den U-Bahnen sammelt der sich zu relativ hohen Werten an.

Bahn und Bus erweisen sich zu Zeiten gefährlicher Virenerkrankungen weiterhin als höchst problematisches Verkehrsmittel. Stehen doch hier die Fahrgäste auf engem Raum beisammen – ideale Bedingungen für das Verbreiten kritischer Viren. Dennoch wollen Verkehrsminister wie Winfried Hermann (Grüne, Baden-Württemberg) und Hendrik Wüst (CDU, NRW) eine stärkere Unterstützung für den öffentlichen Nahverkehr. Aufgrund der Corona-Krise seien im März 80 Prozent weniger Fahrgäste unterwegs gewesen, erklärten sie, die aus Angst vor einer Infektion Busse und Bahnen vermeiden. Pro Monat fällt damit ein großer Teil der Einnahmen durch den Verkauf von Fahrkarten in Höhe von rund einer Milliarde Euro weg.

DUH-Chef, Vielflieger Jürgen Resch, der mit seinen Allmachtsfantasien am liebsten ein generelles Fahrverbot durchsetzen wollte, reagierte jetzt bemerkenswert schwach auf die erstaunlichen Ergebnisse des unfreiwilligen Coronaexperimentes. »Für den Faktor Wetter ist der liebe Gott verantwortlich, aber für den menschengemachten Faktor sind wir verantwortlich,« erklärte Resch gegenüber der Welt. »Es verwundere ihn nicht, dass ‚die Stickstoffdioxid-Leugner‘ die Kurven nun so interpretieren wollten, dass der Verkehr einen geringen oder gar keinen Einfluss auf die Schadstoffwerte hätten. ‚Die Diskussion ist völlig absurd‘, sagte Resch. ‚Dass wir so wenige Corona-Tote haben, liegt auch an unserer guten Luft im Vergleich mit der Lombardei.‘«

Währenddessen kommt aus Oldenburg die Nachricht, dass es dort keine Dieselfahrverbote geben wird. Die Deutsche Umwelthilfe (DUH) habe erklärt, dass ihre Klage »aufgrund nachträglich eingetretener Umstände nicht mehr begründet« sei, teilte das Oberverwaltungsgericht Lüneburg der Stadt Oldenburg mit.

Bei der Messstation in Oldenburg handelt es sich übrigens um jene Station am Heiligengeistwall, die sich mit merkwürdigen Werten während eines Marathonlaufeshervortat. Am 23. Oktober 2018 war die Innenstadt gesperrt, Hunderte von Läufern zogen vorbei. Die Messstation, die unmittelbar am Straßenrand steht, registrierte einen relativ hohen Mittelwert von 37 µg/m3 mit Spitzen bis zu 54 µg/m3. »Dicke Luft« also auch ohne Autos.




Klimaschutz ohne Ziel! Der Bundesregierung ist auch die optimale globale Mitteltemperatur unbekannt.

Auf diesem Blog wurde schon viel über die enorme Bedeutung einer allgemein anerkannten, stimmigen, globalen Mitteltemperatur geschrieben. (z.B. hier und hier und hier). Der Grund liegt nicht darin, dass es sich bei ihr um eine künstliche, rein statistische Größe handelt, die in der Realität niemals anzutreffen ist (wenn eine solche Mittel-Temperatur, aus lokalen Messdaten bestimmt, irgendwo bekanntgegeben wird, z.B. in Rom, dann handelt es sich dabei im physikalischen Sinne nicht um eine Temperatur, auch nicht um eine globale Mitteltemperatur, sondern allein um eine statistische lokale Größe, die der Kennzeichnung bestimmter lokaler Klimazustände dient), der Grund liegt darin, dass die Klimaforschung, im Bemühen das chaotische System Klima auf wenige einfache physikalische Prozessgrößen zurückzuführen , von denen die wichtigste, in diesem Zusammenhang, die Energiebilanz der Erde bei ihrem Energieaustausch mit Sonne und Weltall ist, diese Temperatur als Ausweis des energetischen Gleichgewichtes der Erde benötigt. Denn es gilt in aller Einfachheit, die Annahme von der Notwendigkeit des energetischen Gleichgewichtes. d.h. es wird zunächst nur der Fall untersucht, für den beide Seiten der Bilanzgleichung gleich groß sind, ihre Differenz also zu Null wird. Dann ist diese Energie-Bilanz Gleichung eindeutig bestimmt, und man kann aus ihr die Komponente Temperatur der Erde, welche die abgestrahlte Energiemenge, unter bestimmten sehr vereinfachten Annahmen physikalisch sauber bestimmt, berechnen. (Dabei wird, mit einiger Berechtigung, die innere Energie der Erde, durch ihren heißen Kern erzeugt, außen vorgelassen.) Änderungen der Einstrahlungsenergie oder Änderungen der Abstrahlungsenergie bewirkten dann entsprechende Klimaänderungen, deren Hauptmerkmal die mittlere Temperatur ist, die sich daraus einstellen würde. Soweit so einfach.

 

Eine ausgeglichene Energiebilanz verlangt eine globale Mitteltemperatur von – 18 °C

Doch nun ergibt sich ein dickes Problem, denn die mit hoher Genauigkeit bestimmbare Sonnenleistung pro Quadratmeter, die unsere Erde auf die Erdscheibe projiziert empfängt,  vereinfacht gekennzeichnet durch die sog. Solarkonstante (rd. 1367 W/m2) und die ebenfalls, wenn auch etwas weniger genau bestimmbare abgestrahlte Leistung, passen einfach nicht zueinander. Es gibt ein deftiges Defizit zuungunsten der globalen Mitteltemperatur. Nach gängiger Treibhaushypothese kann die „gemessene“ abgestrahlte Leistung nur von einer Temperatur (immer als Mitteltemperatur betrachtet) von -18 °C, korrekter von 255 Kelvin erzeugt worden sein.

Nun ist zwar die Bestimmung der „wirklichen“ globalen Mitteltemperatur ausgesprochen schwierig, ja, wie wir im Folgenden sehen werden, schlicht unmöglich, aber dass die Erde im Mittel nur eine Temperatur von – 18 ° C aufweist, wird durch alle Beobachtungen widerlegt. Das wäre zutiefst lebensfeindlich, die Welt wäre fast durchgehend ein Eisblock. Da sie das durchgehend – auch nicht zu Eiszeiten – und für alle sichtbar, nicht ist und nie war, muss etwas passieren, was die reale vielfach angenehme, lebensfreundliche Temperatur erklärt.

Die gängige Hypothese dafür bemüht den Treibhauseffekt, den wollen wir mal hier so stehen lassen, obwohl es wesentlich einfachere, ohne viel Aufwand auch überprüfbare Erklärungsmodelle gibt (z.B hier und. hier). Und eine goldene Regel aller Wissenschaften, aufgestellt vom mittelalterlichen Philosophen William von Ockham, heißt, dass wenn es für ein Phänomen verschiedene Erklärungen gibt, man der einfachsten den Vorzug geben sollte, denn die ist fast immer richtig. Ockhams Rasierer wie diese praktische Entscheidungshilfe heißt, wird jedoch in der offiziellen Klimawissenschaft außen vor gelassen.

Warum die schwer bestimmbare absolute Temperatur so wichtig ist.

Aber auch das soll jetzt nicht unser Thema sein, wer will kann sich unter den angegebenen links einlesen, sondern unser Thema soll die Bedeutung der „richtigen“ oder „optimalen“ globalen Mitteltemperatur sein, auch unter Hinnahme, der, aus meiner Sicht, merkwürdigen Treibhaushypothese (wer will kann sich die Begründung meiner Zweifel hieranschauen). Denn die absolute Temperatur – ceteris paribus- bestimmt sämtliche energetischen Prozesse in dieser Welt, der unbelebten wie der belebten. Wird Eis von – 1°C um 2 ° erwärmt, verwandelt es sich in Wasser von +1 °C, bei einer Ursprungstemperatur von – 3 °C bleibt es Eis, auch wenn dieses dann – 1° „warm“ ist. Hat ein Mensch eine Körpertemperatur von 35 °C dann ist er unterkühlt und muss schleunigst um 2 ° erwärmt werden, damit seine Körpertemperatur wieder auf 37 °C steigt, er also wieder gesund wird, erwärmt man ihn um weitere 2 °C dann wird er wieder krank. Mit 39 °C hat er hohes Fieber. Anhand dieser wenigen Beispielen kann man schon erkennen, dass die absolute Temperatur alle energetischen Prozesse – immer – bestimmt und damit auch das Klima.

 

H.J. Schellnhuber Video „Die Welt hat Fieber“

Aber es gibt noch einen anderen wichtigen Grund und der liegt in den Grundrechenarten, also der einfachsten Mathematik. Will man eine Differenz errechnen, benötigt man dazu mindesten 2 Summanden, will man eine Temperaturdifferenz benötigt man dazu als Grundlage wieder 2 Summanden, nämlich die aktuelle Temperatur und eine Referenztemperatur. Die Logik und die Regeln der Mathematik erlauben zwar, unter Beachtung gestrenger Regeln z.B. bei der Betrachtung von Zeitreihen, die logische Weiterverarbeitung auch von Differenzen – dann sind es einfach nur Zahlen- aber die Physik erlaubt das nicht. Dort muss letztendlich immer wieder auf die absoluten Werte Bezug genommen werden. Und genau das tut die offizielle Klimaforschung nicht (mehr). Seit einigen 20 – 30 Jahren wurde der Politik eingeredet, es genüge sich nur um Temperaturdifferenzen zu kümmern, denn die absoluten Temperaturwerte wären unzuverlässig, schwer zu erheben und würden überdies sehr stark schwanken. Damit machte man zwar aus der Not eine Tugend, allerdings um den Preis der Unbestimmtheit. Das ist in den Naturwissenschaften ein dicker Fehler und eigentlich unentschuldbar, aber in der Politik besonders gern willkommen.

 

Die Bundesregierung kennt keine absoluten Temperaturen mehr, sie glaubt Anomalien (Differenzen) seien genauer und täten es auch

Und dass das offenbar immer noch so ist zeigen einmal mehr die ebenso irreführenden wie in der Sache bestenfalls nichtssagenden, des Öfteren auch einfach falschen Antworten der Bundesregierung auf zwei einfache kleine Anfragen der AfD Fraktion.

Schaut man sie sich an , wird offensichtlich, Mark Twain hat mal wieder recht. Nachdem die Bundesregierung auch in Beantwortung der zweiten kleinen (AfD)-Anfrage zu absoluten globalen Mitteltemperauren zugeben musste, weder die der Pariser Klimaübereinkunft zugrunde liegende Referenztemperatur zu kennen, noch die von ihr als optimal anzusehende globale Mitteltemperatur, muss jedem klar werden, dass die Bundesregierung mit ihrer Klimaschutzpolitik nicht nur einen Blindflug durchführt, sondern sie auch noch nicht mal ein Ziel hat. Sie fliegt das Land sozusagen in einem Blindflug mit unbekanntem Ziel.

Dafür aber verdoppelt sie ihre Anstrengungen. Und wie!

Dabei hilft ihr, welch Zufall, die EU. Denn aufbauend auf Ihrem eigenem „Klimaschutzplan 2050“, und dem Klimaschutzprogramm 2030  soll das nun bestens ergänzt werden durch den „Green Deal“„unser Mann im Mond“,wie Spötter sagen-  der EU, der ihr – über den Umweg Brüssel- schwierige Entscheidungen abnehmend, diese per EU-Verordnung einfach vorgeben will.

Um zu verstehen wie widersinnig und auch vielfach falsch, die gesamte, mit viel wissenschaftlichem Brimborium versehene Klima-Diskussion ist, müsste man sich die entsprechenden kleinen Anfragen in Gänze ansehen. Dazu dürften aber vielen Lesern nicht nur Lust, sondern auch die Zeit fehlen.  Daher wage ich hier mal eine Zusammenfassung.

 

Kurzanalyse der Antwort der Bundesregierung auf zwei kleine Anfragen zur absoluten globalen Mitteltemperatur.

Zunächst gibt Frau Staatsekretärin Schwarzelühr-Sutter in ihren Vorbemerkungen eine Fülle von Hinweisen und Belehrungen, die in keinem einzigen Fall den eigentlichen Fragen entsprechen. Allein diese erstrecken sich über vier DIN A4 Seiten. Und sie sind fast durchgängig per „copy und paste“ identischen Texten aus der Antwort der Bundesregierung BDr.Nr. 19/6899 vom 03.01.2019  auf die kleine Anfrage der AfD Fraktion BDr.Nr. 19/6019 vom 26.11.18 entnommen. Schon daraus muss geschlossen werden, dass die Bundesregierung durch wissenschaftliche anmutende „Vorbemerkungen“ ausweichen will, weil sie die gestellten Fragen nicht beantworten will bzw. kann.

Überdies sind ihre „Vorbemerkungen“ vielfach sachlich falsch, jedenfalls dann, wenn man die üblichen Regeln wissenschaftlichen Arbeitens – z.B. den millionenfach bestätigten Regeln der Fehlertheorie und -Statistik- anwendet. Ihre Behauptungen lassen sich zusammenfassen in der Auffassung, dass es wissenschaftlich möglich sei, trotz vielfach bestätigter mangelhafter Abdeckung der Erdoberfläche -Kontinente ebenso wie Ozeane-  mit meteorologischen Messstationen und der daraus resultierende extrem spärlichen wie ungenügenden Datenzahl wie -Qualität, belastbare Kenntnisse über die absolute Temperaturhöhe zumindest ab dem Zeitraum von 1850 bis 1900 zu gewinnen.

Die Bundesregierung glaubt der offiziellen Klimaforschung man könne aus schlechten und wenigen Daten gute und hoch präzise Ergebnisse errechnen.

Das aber ist Wunschdenken, weil niemand, und mit keiner noch so ausgefeilten statistischen Methode, aus schlechten und wenigen Daten, gute und für, in diesem Falle Klimazwecke, nach Zahl und Qualität, ausreichende Daten machen kann. Die wenigen heute verfügbaren historischen Rohdaten sind nun mal so selten und schlecht wie sie sind.  Es hilft auch nicht, auf die vielen Institutionen wie Zitat (S 7)„ WMO, NASA, NOAA, ECMWF und Hadley-Centre und vielen weiteren“ zu verweisen, und damit eine große Zahl unabhängiger Datenerhebungs- und Auswertungsstellen vorzugaukeln, wenn allgemein gesichert bekannt ist, dass alle diese Institutionen auf dieselben seltenen und qualitativ schlechten Rohdaten zugreifen (müssen). Die Ergebnisse dieser Institutionen unterscheiden sich daher nur durch die unterschiedliche Behandlung der Rohdaten.

Daher muss eindeutig festgestellt werden, dass weder der Bundesregierung noch den beteiligten Wissenschaftlern die absolute Mitteltemperatur vorindustrieller Zeit bekannt ist. Erschwert wird deren Bestimmung noch durch die simple Tatsache, dass es keinen Weg gibt ihre jeweils aus Modellen und wenigen, dazu noch höchst unsicheren, Daten ermittelten Größe an der Wirklichkeit zu überprüfen. Die Vergangenheit ist vergangen, bessere Daten sind nicht verfügbar.

Ebenso ist es Wunschdenken, wenn auch weit in der Klimatologie verbreitet, dass die Bildung von Temperaturdifferenzen (Anomalien), auch bei langen Zeitreihen, die Fehlergröße massiv absenken würde. (hier und hier) Diese Gesetzmäßigkeit gilt zwar begrenzt für echte zufällige, also wirklich gleichverteilte Fehler, aber nicht und in keinem Fall für die vielfältigen systematischen Fehler. Die addieren sich mit der Quadrat-Wurzel aus der Summe ihrer Quadrate. Erschwerend kommt hinzu, dass, weil die Anomalien so klein sind, das Gewicht der Fehler, welche sie unweigerlich begleiten, um zwei bis drei Größenordnungen größer ist, als wenn sie auf die Absolutwerte bezogen würden. Ein Fehler von ± 0,5 °C auf 15 ° C bezogen hat nun mal eine bedeutend geringere Auswirkung auf die Referenzzahl als wenn der gleiche Fehler auf  0,5 °C bezogen wird. Im ersten Fall spielt er nicht wirklich eine Rolle und verändert die Bedeutung der Referenzzahl kaum, im zweiten Fall verschwindet die Referenzzahl völlig im Rauschen der Unsicherheit.

 

Was nicht ermittelt werden kann, wird einfach als unnötig erklärt

Daher entschließt sich die Bundesregierung zur Flucht nach vorn und behauptet eine absolute Mitteltemperatur interessiere gar nicht, man würde diese auch gar nicht benötigen, weil sie viel bessere und genauere Anomalien gewinnen könne, die eine Überprüfung der Maßnahmen nach der Pariser Klimaübereinkunft erlauben würde. Das ist jedoch ein Ding der Unmöglichkeit und damit falsch.

Und weil das so ist drehte sich die Fragestellung darum, welche globale Mitteltemperatur die Bundesregierung als optimal ansieht. Und der Beantwortung auch dieser einfachen Frage ist sie – wie anders – ausgewichen. Alles in ihrer Antwort ist nur ablenkendes Beiwerk.

Sie verfällt deshalb in den üblichen Modus aus der Unmöglichkeit eine globale Mitteltemperatur genau genug bestimmen zu können, diese für nicht erforderlich und auch nicht für wichtig zu erklären, weil man ja Anomalien und die viel besser, auch so bestimmen könne. Dass das falsch ist, weil unwissenschaftlich und jeder Logik und Fehlerrechnung widersprechend, müssten die Bundesregierung bzw. die ihr zuarbeitenden Wissenschaftler eigentlich wissen, denn es ist – außerhalb der Klimawissenschaft- millionen- und milliardenfach täglich geprobtes Standardwissen.

 

Die Antwort hätte daher so aussehen müssen.

Daher hätte die Bundesregierung wahrheitsgemäß erklären müssen: „Ja, wir halten die aus der Treibhaushypothese (der „natürliche Treibhauseffekt“ (THE) brächte eine Erwärmung von 33 Kelvin) sich errechnenden 15 ° C für optimal“. Aber dann hätten sie keinen Grund mehr gehabt „Klimaschutz“ zu betreiben, weil die aktuelle „globale Mitteltemperatur“ mit 14,83 ° C immer noch darunter liegt.

Oder sie hätte erklären müssen: „Die Klimaforscher haben sich leider, leider vor 25 Jahren um ein sattes Grad C, oder Kelvin, verrechnet, der natürliche THE schafft nur 32 K – was aber leider vom Strahlungsenergiefluss nicht bestätigt wird- und damit läge diese ideale „globale Mitteltemperatur“ bei nur 14 ° C. Und weil sie „real“ nun in der Spitze bei 14,83 ° C liegt, ist das höchst gefährlich und dazu noch Schuld des Menschen“. All das hat sie aber nicht, stattdessen wich sie auf Nebenkriegsschauplätze mit viel wiss. anmutenden Brimborium aus. Und verfolgt im Blindflug ein schwebendes unbestimmtes 2° Ziel.

 

 




Alternative Energie aus Süd-Korea

Diese Zulassung gilt international als der „Goldstandard“. Nahezu ein Muss, wenn man ein Kernkraftwerk auf dem Weltmarkt an Länder mit ausreichend harten Devisen verkaufen will – und nur das verspricht langfristig Gewinn. China versucht über eine Kooperation mit EDF, ihren HUALONG-Reaktor wenigstens in GB zugelassen zu bekommen.

Russland lernt gerade in Finnland und der Türkei, wie umfangreich und inhaltsschwer ein Genehmigungsverfahren in „westlichen Kulturen“ ist. Die sprichwörtliche Geheimniskrämerei und Arroganz gegenüber „kleinen Nationen“ ist dabei wenig hilfreich, eher hinderlich. So ist das mit viel Selbstbewusstsein gestartete Projekt Hanhikivi 1 in Finnland seit Jahren im Genehmigungsverfahren stecken geblieben. Man wollte schon 2018 mit dem Bau begonnen haben und hofft nun wenigstens auf eine Genehmigung bis 2021. Die resultierenden Kosten (Festspreisangebot) bei jetzt schon absehbarer Verzögerung um mindestens 10 Jahre könnten noch eine harte Nuss für Putin werden, stammen die Mittel doch aus dem russischen Pensionsfond. So viel vorweg, um die Leistung der koreanischen Industrie und den Startvorteil auf dem Weltmarkt richtig einzuordnen.

Ein weiterer Vorteil ist, dass mit Shin Kori 3 (seit 2016) und Shin Kori 4 (seit 2019) bereits zwei Reaktoren erfolgreich am Netz sind. Shin Kori 5 ist seit 2017 und Shin Kori 6 seit 2018 in Bau, ebenso Shin Hanul 1 und Shin Hanul 2. Vier weitere Reaktoren stehen vor der Fertigstellung in Barakah in den Vereinigten Emiraten. Was aber fast noch wichtiger in der heutigen Zeit ist, der Bau von Barakah 1 begann 2012 und die fristgerechte Fertigstellung erfolgte 2018 – in einem entfernten Land, mitten in der Wüste, fast ohne vorhandene kerntechnische Infrastruktur. Parallel musste die gesamte zugehörige Betriebsmannschaft erst ausgebildet werden, was zu einiger Verzögerung bei der Inbetriebnahme führt. Besonders attraktiv ist jedoch der Preis mit rund 3.600 US-Dollar pro Kilowatt. Wohlgemerkt für eine Energiequelle mit 90-prozentiger Verfügbarkeit gemäß Bedarf. Damit kann keine Sonnenenergie – auch nicht am Golf – konkurrieren, denn auch dort ist es des Nachts dunkel, und oft genug ist der Himmel am Tage bedeckt (jährliche Arbeitsausnutzung). Wie konnte Süd-Korea dies gelingen?

Die koreanische Geschichte der Kernkraftwerke

Korea unterteilt seine kerntechnische Geschichte selbst in vier Phasen. In der ersten Phase (1970er Jahre) wurden Kernkraftwerke vollständig importiert. In der zweiten Phase (1980er Jahre) wurden immer mehr nukleare Komponenten im eigenen Land hergestellt. Hierfür wurden enge Kooperationen – einschließlich Wissenstransfer – mit den einschlägigen Zulieferern im Ausland abgeschlossen. Hierdurch gelang es sehr schnell, eine eigene kerntechnische Industrie aufzubauen. Das Ziel der dritten Phase (1990er Jahre) war die Entwicklung eines möglichst unabhängigen (im Sinne von Lizenzbedingungen) eigenen Reaktors. Ausländische Zulieferer konnten nur noch als Subunternehmer einheimischer Zulieferer tätig werden. Es entstand der Reaktor OPR1000. Von ihm wurden im Zeitraum von 1989 bis 2015 zehn Reaktoren in Korea gebaut und in Betrieb genommen. Parallel wurde die komplette kerntechnische Infrastruktur von Forschung, Entwicklung, Schulung, Genehmigungsverfahren und so weiter installiert. Aus Korea wurde eine international respektierte Kernenergienation. Ausdrücklich ohne jedes militärische Interesse. Ganz im Gegensatz zum Glaubensbekenntnis tumber „Atomkraftgegner“, dass Kernenergie immer einen militärischen Hintergrund hat. Im rohstoffarmen Südkorea ging es vielmehr um eine gesicherte Eigenversorgung mit Energie und hochwertige Exportgüter. Bis hierher, eine Menge Parallelen zu Deutschland …

Nach dem Reaktorunfall in Harrisburg USA und Tschernobyl in der Sowjetunion setzte weltweit ein Run auf die Entwicklung noch sicherer Reaktoren der sogenannten „III. Generation“ ein. Eine (teilweise) Kernschmelze wie in Harrisburg sollte noch unwahrscheinlicher werden, und selbst über die bisherigen Auslegungskriterien hinausgehende Unfälle sollten in ihre Wirkung auf das Betriebsgelände beschränkt werden. Aus diesen Überlegungen entstand in Südkorea seit Anfang des Jahrhunderts der Typ APR1400. Man orientierte sich wieder an den USA (Modell 80+ von Combustion Engineering), achtete aber auf eine Unabhängigkeit über Lizenzerwerb und konsequente Entwicklung eigener Berechnungs- und Konstruktionsverfahren. Heute kann man ein komplettes Kernkraftwerk der Generation III, einschließlich (digitaler) Steuerung und Regelung und aller nuklearen Komponenten bauen. Ein Zustand, den China gerade erst erreicht und Russland immer noch nicht erreicht hat (Regelung, Turbine etc.).

Wie sich durch Projekte in Flamanville (EPR in Frankreich) oder Vogtle (AP1000 in USA) zeigt, ist aber die nahezu wichtigste Voraussetzung für die Einhaltung geplanter Bauzeiten eine geübte Mannschaft an qualifizierten Fachleuten. Südkorea hat dies durch den kontinuierlichen Ausbau erreicht. Eine jahrzehntelange Unterbrechung hingegen bedeutet faktisch einen Neuanfang in der Kerntechnik. Wissen und Übung geht schlichtweg verloren. Ferner ist für die Kosten auch eine möglichst einfache Konstruktion erforderlich. Jeder Kubikmeter umbauter Raum treibt die Kosten vielfach, jede Schweißnaht auf der Baustelle ist eine potenzielle Fehlerquelle und so weiter.

Kein ideologischer Aktionismus wie in Deutschland

Der APR1400 ist, wie oben bereits gesagt, eine konsequente evolutionäre Weiterentwicklung vorhandener Druckwasserreaktoren. In jedes Bauteil sind die Betriebs- und Montageerfahrungen der vorausgegangenen 10 OPR 1000 eingeflossen. Eine schrittweise Entwicklung, wie man sie zum Beispiel auch aus der Automobilindustrie (vom Golf x, über den Golf y zum Golf z) kennt. Entwicklungssprünge und Verfahrenswechsel hingegen (zum Beispiel vom Käfer mit luftgekühltem Benzinmotor auf den Golf Diesel) sind immer mit Risiko und Kinderkrankheiten verbunden. Mit anderen Worten, man hat gar nicht versucht, den „Superreaktor“ zu bauen, sondern vielmehr eine solide Arbeitsmaschine, die dafür aber kostengünstig ist.

Bei den Sicherheitsanforderungen eines Reaktors der sogenannten „dritten Generation“ hat man sich konsequent an den Forschungs- und Entwicklungsarbeiten in den USA (CE80+ von Combustion Engineering/Westinghouse) orientiert. Die dort entwickelten Rechenprogramme und Versuche an Modellen und in Kraftwerken haben die Zulassung enorm beschleunigt. Dies betrifft ganz besonders auch die Werkstoffe, denn anders als zum Beispiel in der „Klimafolgenforschung“ muss jedes Rechenprogramm seine Aussagefähigkeit durch Nachrechnung von Versuchen unter Beweis stellen. Eine höchst kosten- und zeitintensive Angelegenheit.

Bei der Konstruktion und Zulassung hat man gleich ein „Plant Life“ von 60 Jahren angesetzt. Es scheint leider immer wieder notwendig, darauf hinzuweisen, dass es bei einem Kernkraftwerk keine technische Lebensdauer gibt, sondern lediglich eine wirtschaftliche. So ist zum Beispiel die Betriebserlaubnis für vier Kraftwerke in den USA (Peach Bottom 2,3 und Turkey Point 3,4) bereits auf 80 Jahre verdoppelt worden. Alles hängt nur von den Wartungs- und Modernisierungskosten ab. So gibt es andererseits zum Beispiel in Japan Kraftwerke jüngeren Datums, die wegen erforderlicher Anpassung an heutige Sicherheitsanforderungen (Tsunami) nicht mehr zu vertretbaren Kosten nachrüstbar sind. Von ideologischem Aktionismus wie in Deutschland gar nicht zu reden.

Südkorea kann eine Eigenentwicklung anbieten

Eine Orientierung bietet immer der Verschleiß (Neutronenbeschuss) des Reaktordruckgefäßes. Heute besitzt man spezielle Werkstoffe und ein besseres Verständnis der Zusammenhänge als noch vor 50 Jahren. So kann man einen rechnerischen Nachweis für mindestens 60 Jahre erbringen. Entsprechend der später tatsächlich aufgezeichneten Belastungen kann die „Lebensdauer“ weiter angepasst werden.

Ähnlich sieht es mit den Dampferzeugern aus. Einerseits hat sich die Qualität, die Wasserchemie, die Werkstoffe (Inconel 690) und so weiter bedeutend verbessert, andererseits kann man schlicht durch eine Überdimensionierung eine Reserve schaffen. So besitzt jeder der zwei Dampferzeuger 13.102 Rohre, von denen bis zu 10 Prozent ohne Leistungseinbuße verschlossen werden können.

Der Brennstoff ist für Wechselintervalle von mindestens 18 Monaten ausgelegt. Dies erlaubt eine Arbeitsverfügbarkeit von deutlich über 90 Prozent. Die Instrumentierung und Steuerung ist voll digital. Südkorea kann eine Eigenentwicklung anbieten. Es handelt sich um eine offene Architektur, die ebenfalls eine Nutzungsdauer von zig Jahrzehnten auch bei Hardware-Veränderungen erlaubt. Die Steuerung ist so konzipiert, dass der Reaktor voll automatisch Laständerungen folgen kann.

Anders als zum Beispiel bei dem französischen EPR wurde auf sicherheitstechnischen Schnickschnack wie eine doppelte Betonhülle (gegen fiktive Flugzeugabstürze und Terror) und einen „Core Catcher“ (gegen Hollywoods China Syndrom) verzichtet. Beides Kostentreiber. Trotzdem wurde die Wahrscheinlichkeit für eine Beschädigung des Kerns (Unfall in Harrisburg) auf unter ein Ereignis in 100.000 Reaktorbetriebsjahren und ein Containment-Versagen (Fukushima) mit Freisetzung von Radioaktivität auf weniger als einmal in 1 Million Reaktorbetriebsjahren gedrückt.

Reaktorkern

Ein Reaktorkern muss stets ausreichend gekühlt werden (Nachzerfallswärme nach Abschaltung). Wenn Kühlmittel verloren geht (zum Beispiel Bruch einer Rohrleitung) muss dies sofort ersetzt werden. Der APR1400 besitzt hierfür einen ausreichend großen Tank innerhalb des Sicherheitsbehälters (IRWST, in-containment refueling water storage tank). Einem Wasserverlust und damit Druckverlust im Primärkreislauf wird passiv durch einen Druckspeicher entgegengewirkt. Es ist ein Druckbehälter mit Stickstoffpolster, der ab einem Systemdruck von 40 bar etwa 51 m3 nachspeisen kann. Es ist ein passives Sicherheitssystem (keine Fremdenergie nötig), das automatisch auslöst. Zusätzlich gibt es vier völlig voneinander getrennte Noteinspeisungen, die mit elektrischen Pumpen oder Dampfturbinen betrieben werden. Sie speisen direkt über eigene Anschlüsse in den Druckbehälter – oder, wenn noch möglich – in die Dampferzeuger ein.

Bei Störfällen, die über die Auslegung hinausgehen, wird zusätzlich die Grube, in der sich der Reaktordruckbehälter befindet, mit Wasser gefüllt. So wird der Druckbehälter auch dann dauerhaft gekühlt, wenn bereits eine Kernschmelze eingetreten ist (Fukushima). In den ersten 30 Minuten laufen alle Maßnahmen ohne jeden Eingriff des Betriebspersonals ab. Man will damit Fehlbedienungen (Harrisburg) verhindern, bis das Personal sich einen detaillierten Überblick verschafft hat und wieder etwas Ruhe eingekehrt ist. Die weitere Notkühlung ist für einen automatischen Betrieb über acht Stunden ausgelegt. Genug Zeit, um auch Hilfe von außen heranführen zu können.

Das Containment besteht aus einem zylindrischen Spannbetonbehälter. Er übernimmt den Schutz gegen Einwirkungen von außen (Flugzeugabsturz, Terror und so weiter). Gleichzeitig verhindert er die Freisetzung von radioaktiven Stoffen auch bei schwersten Störfällen mit zerstörtem Kern. Gegen Wasserstoffexplosionen (Fukushima) gibt es 30 Katalysatoren und 10 Zündeinrichtungen, die gefährliche Konzentrationen verhindern. In dem Sicherheitsbehälter befinden sich Sprinkler, die radioaktive Stoffe (zum Beispiel Jod) aus der Atmosphäre im Containment auswaschen können, bevor sie über die Filteranlagen und den Kamin in die Umwelt gelangen (Tschernobyl, Fukushima). Zusätzlichen Schutz gegen Einwirkungen von außen bietet die Architektur: Alle Hilfs- und Nebengebäude sind schützend um das Containment angeordnet. Dabei wird das Prinzip vierfacher Sicherheit beibehalten. Es gibt vier hermetisch voneinander getrennte Gebäudeteile. Sie sind durch Brandmauern und Flutschutz (Fukushima) vollständig getrennt.

Bauweise

Durch den konsequenten Einsatz von 3-D-Simulationen und Baustellenmanagement konnte die Bauzeit schon bei Shin-Kori 3&4 auf 55 Monate (vom ersten Beton der Grundplatte bis zur Übergabe) beschränkt werden. Bei einem „Bau in Serie“ geht man von 48 Monaten Bauzeit aus. Dies wird auch durch eine Sektionsbauweise mit vorgefertigten Modulen, Einsatz von Schweißrobotern, Einbringung von Dampferzeugern und Druckgefäß von oben mittels Schwerlastkran und so weiter erreicht. Wichtig ist die kontinuierliche Auslieferung von Kernkraftwerken im In- und Ausland. Nur so kann auf allen Teilgebieten mit geübten Fachkräften gearbeitet werden und Erfahrungen geteilt werden. Reißt die Pipeline für viele Jahre ab – wie in USA und Frankreich geschehen – fängt man quasi wieder von vorne an. Kraftwerksbau wird zum unkalkulierbaren wirtschaftlichen Risiko (gemacht).

Südkorea und China beweisen, dass Kernenergie immer noch die kostengünstigste und zuverlässigste (vom Wetter unabhängig) Methode ist, elektrischen Strom zu erzeugen. Selbst in Ländern, in denen fossile Energieträger (USA, China, Indien, arabischer Raum) reichlich vorhanden sind. Man muss es nur richtig machen!

Druck- und Siedewasserreaktoren sind noch lange nicht an ihrem technologischen Ende angekommen. Genauso wenig, wie Heizkessel durch Wärmepumpen und „Mao-Diesel“ verdrängt worden sind, obwohl das schon vor fast 50 Jahren in den Ölkrisen 1973 und 1976 prophezeit wurde. Es gilt auch weiterhin die Kostendegression durch Anlagengröße. Reaktorgrößen zwischen 1.000 und 1.500 MWel werden deshalb weiterhin gebaut werden. Industriell gefertigte Kleinreaktoren (SMR) werden noch für lange Zeit ein Nischenprodukt bleiben. Betrachtet man die Gesamtkosten (Personal, Bewachung, Wiederholungsprüfungen und so weiter), werden sie noch unter Beweis stellen müssen, dass die Stromkosten tatsächlich geringer sind.

Vergleicht man Deutschland und Südkorea, stellt man eine Menge Parallelen fest. Nicht nur die Rohstoffarmut und das Wiedererstehen nach schrecklichen Kriegen. Wenn Deutschland nicht von öko-sozialistischen Irrlehren heimgesucht worden wäre und es in der Energiewirtschaft Unternehmer (ein Unternehmer unternimmt etwas) an der Stelle von Kombinatsleitern (sich selbst als ausführender Arm der Politik verstehend, nur auf staatliche Subventionen schielend) geben würde, wäre Deutschland noch heute ein hoch geschätzter Lieferant von Kraftwerken auf dem Weltmarkt. Wohlstand durch Exporterfolge wäre garantiert und als Bonbon zusätzlich „billige Strompreise“ im Inland und nicht Zwangsabschaltungen von „Kleinverdienern und Rentnern“. Wie ging noch mal das Märchen von „Hans im Glück“?

Dieser Beitrag erschien zuerst auf Klaus-Dieter Humpichs Blog NukeKlaus.




Offenbar erste Corona-Mutation bei den Grünen aufgetreten!

Dass die Grünen jede sich bietende Gelegenheit ergreifen, sie für ihre politische Agenda zu nutzen, ist keine Neuigkeit. Nun schlägt man den Bogen vom tödlichen Virus zur tödlichen Atomkraft.

Frau Kotting-Uhl, Grünen-MdB, dort dem linken Flügel (!) zugehörig, Vorsitzende des Bundestagsauschusses für Umwelt, Natur und nukleare Sicherheit, verfasste einen

Brief an den niedersächsischen und den bayrischen Umweltminister und forderte die Aussetzung der geplanten Revisionen in den Kernkraftwerken Grohnde, Emsland und Grundremmingen sowie deren Abschaltung. Die Kraftwerke wären ein „Hotspot“ für Infektionen während der Reparaturarbeiten, zum Beispiel beim Brennelementewechsel.

Es liegt die Vermutung nahe, dass die Frau noch nie ein Kernkraftwerk von innen sah. Wer ist sie überhaupt? Eine Abgeordnete ohne abgeschlossene Ausbildung und nach ihrer Tätigkeitsvita nicht im Ansatz geeignet für den genannten Ausschussvorsitz. Sie studierte etwas Germanistik, Anglistik und Kunstgeschichte, versuchte sich dann als Dramaturgin an der badischen Landesbühne, bevor sie Expertin für alternatives Leben im Kraichgau wurde. Engagements bei BUND, WWF, Greenpeace, im Institut solidarische Moderne und anderswo sind verzeichnet.  Ihr Hobby ist der Kampf gegen die Atomenergie. Durch ein Bundestagsmandat ist die Ernährungsgrundlage seit 2005 glücklicherweise gesichert.

Hätte sie schon ein Kernkraftwerk aus der Nähe betrachtet, würde sie wissen, dass die Arbeitenden Abstände einhalten können und dass die im aktiven Bereich Tätigen zum Beispiel beim Brennelementewechsel ohnehin Schutzkleidung tragen. Zur Erklärung für die Grünen: Das sind meist weiße oder grüne Ganzkörper-Schutzanzüge inclusive Helm, ähnlich denen der Raumfahrer. Zudem sind die Reaktorgebäude nach grüner Weltsicht so verstrahlt, dass jedes Virus ohnehin sofort tot von der Wand fallen würde.

Als Begründung für die Abschaltung führt Frau Kotting-Uhl an, der gegenwärtige Stromverbrauch sei auch ohne die Kernkraftwerke gesichert. In der Tat wäre der Betrieb dieser Kernkraftwerke zur Zeit nicht zwingend notwendig, aber wegfallender Atomstrom würde durch fossilen Strom ersetzt, denn die Erneuerbaren speisen auf Grund ihres Einspeisevorrangs ohnehin alles ein, was sie dargebotsabhängig können. Die Umsetzung ihres Vorschlags würde die CO2-Emissionen wieder steigern, über dessen Sinkflug sich gegenwärtig so viele freuen.

Wenn es ihr ernst gewesen wäre mit dem Schutz der Beschäftigten während er Reparaturarbeiten, hätte sie auch eine Verschiebung der Revisionszeiträume fordern können (was die Unternehmen vermutlich ohnehin prüfen), aber warum die Kraftwerke deswegen außer Betrieb gehen sollen, bleibt ihr Geheimnis.

Obwohl sie stets in unermüdlichem Kampf gegen den Atomtod steht, ist ihr Brief psychisch auffällig. Erklärbar nur durch eine Corona-Mutation oder eine andere Folge des Virus,  die schwere psychische Störungen auslöst, möglicherweise sogar Enzephalopathie. Inzwischen wird diese These durch Beobachtungen gestützt.

Herr Spahn, handeln Sie! Diesmal rechtzeitig.

 

 

 

 

 

 




Der Lockdown ist nahezu wirkungslos – eine Beweisschrift

Dieses Muster lässt sich an allen Grafiken der täglich neu bestätigten Infektionen sowohl in allen Bundesländern Deutschlands als auch in den Kantonen der Schweiz, und Staaten Europas bereits seit 6 Wochen so ablesen (Grafik 1 und Grafik 2).

 

Dass das Virus am Wochenende nicht arbeitet, ist klar, da haben die meisten Testlabore geschlossen – aber warum Freitag?

Wie die meisten Erkältungs- und Grippeviren auch, scheint sich das Corona-Virus einen 7-Tages-Rhythmus angeeignet zu haben. Das erklärt sich aus den Lebensgewohnheiten des menschlichen Wirtes. Wer sich am Wochenende beim Feiern oder anderen sozialen Anlässen ansteckt, der arbeitet die Werkwoche noch durch, fühlt sich dann gegen Ende der Woche bereits angeschlagen, aber geht noch mal den ersehnten Freizeitaktivitäten mit intensivem sozialen Kontakt am nächsten Wochenende nach. Dort steckt diese Person gerade noch alle anderen an, bevor dann in der zweiten Woche das Bett gehütet wird. Virenmutationen, die besonders schnell zu Symptomen führen oder den Wirt mit heftig einsetzenden Schmerzen früher ins Bett scheuchen, verpassen die Gelegenheit, sich jeweils am nächsten Wochenende beim Feiern verbreiten zu können und verschwinden folglich. So will es die Evolution.

Dass das aktuelle Corona-Virus denselben 7-Tages-Rhythmus hat, in der Fachsprache Serienintervall genannt, wurde schon früh in Asien festgestellt und bestätigt sich in Europa erneut. Der weitere Verlauf muss wohl so sein, dass der betroffene Patient sich dann am Dienstag nach dem zweiten Wochenende – mit dann bereits seit mehreren Tagen anhaltendem Fieber – entscheidet, einen Test zu besorgen, diesen am Donnerstag durchführt, und dann die Ergebnisse am Freitag registriert werden. So kommt die Statistik zu ihrem rhythmisch wiederkehrenden Erscheinungsbild, und so ergeben sich 14 Tage von Infektion bis Meldung. Natürlich gibt es Abweichungen von dieser Norm, aber die Zahlen zeigen, dass dies im großen Durchschnitt der Fall ist.

Das Virus ist reisefaul

Diese regelmäßigen Zyklen des Corona-Virus erlauben es, durch statistische Analyse nachzuvollziehen, welche Kohorte sich wann angesteckt hat. Zum Beispiel die Kohorte mit 1.104 Neuregistrierten, die am Freitag, dem 27. März, in Nordrhein-Westfalen (NRW) gemeldet wurde, hat sich dementsprechend zwei Wochen zuvor, am Freitag, dem 13. März, angesteckt. Und zwar bei der vorhergehenden Kohorte, die am 20. März mit 839 Personen in NRW als infiziert gemeldet wurde. Diese 839 Personen haben also 1.104 Personen angesteckt, was eine Ansteckungsrate – oder auch Reproduktionsrate genannt – von 1,3 ergibt, oder R 1,3 (= 1104/839). Die Infektionen müssen weitgehend in NRW stattgefunden haben, weil die starken regionalen Unterschiede zeigen, dass das Virus reisefaul ist – es hat sich von NRW aus nicht in seine Nachbarländer verbreitet. Diese Reisefaulheit zeigt sich auch darin, dass große Verkehrsdrehkreuze wie Frankfurt oder Zürich nur schwach infiziert sind. Das Benutzen von Massenverkehrsmitteln ist nicht infektionsgefährlich.

Das wichtige an dieser R-Berechnung ist, dass jener 13. März als Tag der Ansteckung, der letzte Freitag vor den Ausgangsbeschränkungen und Kontaktsperren war, die am 16. März begannen. Die Reproduktionsrate lag also schon VOR den drakonischen Lockdown-Maßnahmen des 16. März bei höchstens 1,3. Man braucht nicht promovierter Epidemiologe zu sein, um diese Zahl zu ermitteln. Sie erschließt sich frei zugänglich aus den Daten des Robert-Koch-Institutes (RKI) mit einfacher Grundschulmathematik. Meine Berechnungen sind hier zu finden. 

Aber die Zahl kann noch weiter nach unten korrigiert werden. Denn diejenigen Erkrankten, die versucht hatten, sich am Donnerstag, dem 19. März, testen zu lassen, hatten es schwieriger, an einen Test zu kommen. Diese waren noch nicht so leicht verfügbar wie eine Woche später, am 26. März. Das bedeutet, es wurden relativ weniger Erkrankte getestet, und die Dunkelziffer der Kohorte der am 20. März Neuregistrierten war höher als die der Kohorte vom 27. März. Über diese Dunkelziffer gibt es keine gesicherten Angaben, und vermutlich wird sie nie mehr eindeutig rekonstruierbar sein. Aus den Berichten des RKI über den Anteil der positiv Getesteten an allen Tests kann eine konservative Schätzung gewonnen werden, dass die Dunkelziffer in der 12. Kalenderwoche (KW 16.–22. März) 32 Prozent höher lag als in der 14. KW (ab 30. März), und respektive 53 Prozent in der 11. KW (9.–15. März).

Der Lockdown hatte keinen messbaren Effekt

Mit dieser Korrektur ergibt sich, dass die Reproduktionsrate R in NRW sogar schon am 9. März unter 1,0 lag und folglich die Epidemie am Abklingen war. Dieselbe Rechnung für mehrere Bundesländer und alle Tageskohorten zeigt, wie das R bereits um den 10. März herum in NRW, Rheinland Pfalz, Hessen und Hamburg auf den Wert 1,0 gefallen war. In Berlin, Niedersachsen, Baden-Württemberg und Bayern dagegen wurde der Wert 1,0 erst um den 20. März herum erreicht, etwa 10 Tage später. Dieser Unterschied ist von erheblicher Bedeutung. Er zeigt, wie die ersteren vier Bundesländer schon 6 Tage VORdem Lockdown ein R von 1,0 erreicht hatten, und die letzteren vier Bundesländer erst 4 Tage NACH dem Lockdown – aber in allen Fällen mit demselben Verlauf.

Das RKI kommt zu einem ähnlichen Ergebnis wie in meinen Berechnungen. Am 9. April veröffentlichte das RKI seine Erkenntnis, dass sich das R deutschlandweit um den 22. März herum bei 1,0 einpendelte, allerdings ohne seine Zahlen um den erschwerten Testzugang zu kalibrieren (Siehe hier). Mit Kalibrierung würde die RKI-Rechnung im deutschen Mittel um den 15. März herum bei 1,0 liegen, wie bei mir auch. Das RKI unterschlägt jedoch die entscheidende Information, dass es zwischen den einzelnen Bundesländern einen zeitlichen Verzug im Verlauf von bis zu 10 Tagen gibt.

Folglich hatte der Lockdown am 16. März keinen statistisch messbaren Effekt auf die Reproduktionsrate (R) des Virus. In den Wissenschaften nennt sich diese Situation ein „natürliches Experiment“. Wenn die Verläufe von zwei Gruppen identisch miteinander sind, nur zeitlich verzögert, dann lässt sich schlussfolgern, dass ein dazwischen liegendes Ereignis keine Auswirkung hatte. In diesem Fall waren es die Maßnahmen des Lockdown am 16. März, die keine statistisch erkennbare Wirkung auf das Infektionsgeschehen ausüben konnten.

Max-Planck-Gesellschaft schreibt Gefälligkeitsgutachten

Am 8. April veröffentlichte das Max-Planck-Gesellschaft (MPG) Institut für Dynamik und Selbstorganisation in Göttingen ein genau gegenteiliges und in der Presse vielzitiertes Ergebnis: „Die Kontaktsperre bringt die Wende“. „Wir sehen eine klare Wirkung der Kontaktsperre vom 22. März, und natürlich den Beitrag von jeder einzelnen Person“. Die Forscher um Frau Dr. Viola Priesemann müssen für diese Erkenntnis hellseherische Fähigkeiten gehabt haben, denn per 7. April, dem Zeitpunkt ihrer Datenerhebung, war eine solche Erkenntnis aus mathematischen Gründen noch unmöglich. Zudem, für eine Schlüsselvariable in ihren Berechnungen, dass 10 Tage von Infektion bis Meldung vergehen, liefern die Forscher weder eine Herleitung noch eine Quelle und ignorieren damit die auf den ersten Blick erkennbare 14-tägige Rhythmik des Virus.

Vor allem aber haben die Forscher nur den gesamtdeutschen Infektionsverlauf herangezogen und damit die ebenfalls auf einen Blick erkennbaren riesigen Unterschiede pro Bundesland ignoriert. Internationale Vergleiche wurden auch nicht angestellt. Das Zitat, dass der Beitrag jeder einzelnen Person sich in den Zahlen zeige, was grober Unfug ist, entlarvt die Max-Planck-Gesellschaft-Studie endgültig als ein Gefälligkeitsgutachten, anstatt seriöse Wissenschaft zu sein. Solche elementaren handwerklichen Fehler in der Analyse verhelfen vielleicht zu populären Zitaten in der Presse, aber schaden dem Ansehen der Wissenschaften.

Epidemiologen sehen eine Epidemie als weitgehend bewältigt an, wenn das R dauerhaft auf einen Wert von unter 1,0 sinkt, denn ab dann wird jede Kohorte mit jedem Zyklus kleiner, und nach vielen weiteren Zyklen gibt es dann keine Ansteckungen mehr. Mit einem Wert von 1,0 gibt es mindestens kein exponentielles Wachstum mehr und daher auch keine Gefahr mehr, dass das Gesundheitssystem mit einer plötzlichen Patientenwelle überrollt wird. Diese Gefahr bestand, wie die Zahlen jetzt zeigen, bereits seit dem 10. März, also fast eine Woche VOR dem Lockdown am 16. März nicht mehr. Sofern sie ihrer Zahlen mächtig sind, müssten sowohl das RKI wie auch die MPG das seit dem 9. April wissen. Warum wird diese Erkenntnis nicht veröffentlicht? Wollen sie nicht, oder können sie nicht?

Ergebnis wird die schwerste Wirtschaftskrise der Moderne sein

Zu dem Zeitpunkt des 16. März konnten die Entscheidungsträger das alles noch nicht wissen. Man weiß immer erst circa drei Wochen nach dem Infektionsgeschehen, was vor drei Wochen der Status war. Es sei denn, die Behörden hätten schon am 28. Februar mit repräsentativen Zufallsstudien begonnen, als Deutschland schon die zweithöchste Zahl der bestätigten Infektionen in Europa nach Italien hatte. Dann wäre auch das aktuelle Infektionsgeschehen schneller bekannt gewesen. Hätte, hätte Fahrradkette, diese Studien wurden nicht gemacht, und so blieb keine andere Wahl, als am 16. März das Funktionieren der Gesellschaft abzuschalten. Das Ergebnis dieses Lockdowns wird die nun schwerste Wirtschaftskrise seit dem zweiten Weltkrieg sein – ein teures Versäumnis, nicht ein paar Testbatterien bereits im Februar gestartet zu haben.

Immerhin, mittlerweile sind diese drei Wochen seit dem 16. März vergangen – jetzt sind Zahlen für alle ersichtlich, erkenntlich und verständlich verfügbar. Und die Zahlen sprechen eine eindeutige Sprache: Die Ausgangsbeschränkungen und Kontaktsperren des Lockdowns sind nahezu wirkungslos. Die Neuinfektionsraten waren schon vorher ganz von alleine gesunken, ohne dass es den Lockdown des 16. März gebraucht hätte. Zudem liegt auch die Vermutung nahe, dass der Lockdown nicht einmal zur weiteren Reduktion der Reproduktionsrate beigetragen hat. Das R liegt in Deutschland in der zweiten Aprilwoche, bei etwa 0,7. Das wäre wahrscheinlich genauso von alleine passiert wie das Sinken auf 1,0 bereits in der ersten Märzhälfte in NRW. Italien befindet sich bereits in der sechsten Woche eines noch rabiateren Lockdowns der Gesellschaft, und trotzdem ist das R an Ostern immer noch bei 0,8, höher als in Deutschland. Die Schweiz, die ein etwas lockeres Regime als Deutschland fährt, verbucht ein R von 0,6 und die ebenfalls etwas lockeren Niederlande wiederum ein R von 1,0. Offensichtlich sind es andere Faktoren als ein Lockdown, die zu einer niedrigeren Reproduktionsrate führen.

Covid-19 ist äußerst gefährlich

Damit soll auf keinen Fall diese Krankheit verharmlost werden. Ganz im Gegenteil, Covid-19 ist äußerst gefährlich. Am 9. April wurden die ersten Zwischenergebnisse der Heinsberg-Studie von Professor Hendrik Streeck der Universität Bonn vorgestellt. Dort zeigt sich zum ersten Mal repräsentativ, dass die Sterberate unter den Infizierten zwischen 0,29 Prozent und 0,37 Prozent liegt. Das ist drei bis viermal höher als bei einer saisonalen Grippe und doppelt so hoch wie bei einer schweren Grippe. Außerdem ist die Verbreitungsrate sehr viel höher als bei einer Grippe. Es scheint keinerlei Immunität in der Bevölkerung gegen Covid-19 zu geben. Rechnet man diese Werte auf die Bevölkerung hoch, dann würde es im Infektionsverlauf zu vielleicht 200.000 Todesfällen in Deutschland aufgrund von Covid-19 kommen, zehnmal mehr als bei einer saisonalen Grippeepidemie. Das ist eine unakzeptabel hohe Zahl.

Wenn die Maßnahmen des Lockdown ganz oder nahezu wirkungslos sind, dann sind dringend andere Lösungen gefragt, die dieser Krankheit den Schrecken nehmen. Ein Teil der Lösung werden hoffentlich bald Medikamente sein, für die es bereits vielversprechende Kandidaten gibt, und die jetzt schon bei schweren Verläufen eingesetzt werden dürfen. Die sich in Arbeit befindliche Contact Tracing App dürfte ein bedeutender Teil der Lösung sein. Unkompliziert und ständig verfügbare Tests sind unabdingbar, damit Infektionen schnell aufgespürt werden können. Singapur hat die Epidemie lange mit Contact Tracing unter Kontrolle gehalten, aber versäumt, sein verarmtes Heer an ausländischen Dienstleistern zu testen. Genau dort kam es nun zum Ausbruch.

Eine weitere Erkenntnis aus Taiwan ist die höchst transparente und umfängliche Information über das Infektionsgeschehen an die Öffentlichkeit mit bedeutungsvollen Zahlen sowie das konsequente Ausrüsten von exponierten Berufsgruppen mit Schutzmaterial. Taiwans Bürger wurden aufgerufen, auf ihre gewohnten Masken und Desinfektionsmittel zu verzichten (!), damit diese Materialien für die wichtigen Berufsgruppen zur Verfügung stehen. In Summe könnten diese Elemente mit Sicherheit verhindern, dass das Infektionsgeschehen außer Kontrolle gerät, und sie könnten auch fast sicher verhindern, dass die Risikogruppen infiziert werden, ohne sie aus der Gesellschaft zu verbannen. Warum wird fast nicht über Taiwan berichtet?

Wenn es nicht die Maßnahmen vom 16. März waren, die die Infektionswelle abschwächten, was war es dann? Es war wohl das Ende der Karnevalsaison sowohl am Rhein wie in den Alpen. Aus dieser Erkenntnis leitet sich auch ab, welche Maßnahmen bestehen bleiben müssen, bis es entweder Herdenimmunität oder einen zuverlässigen und breit verfügbaren Impfstoff gibt, was beides erst in 2021 erfolgen wird. Bis dahin wird es keine Sportveranstaltungen mit Zuschauern geben können, keine Musikfestivals, keine Oktoberfeste und keine Bars und Clubs. Es wird keine Veranstaltungen geben können, bei der Menschen wild singen, grölen und brüllen. Auch das Apres Ski wird in der nächsten Wintersaison ausfallen. Das sind zwar auch Einschränkungen, aber vergleichsweise harmlos zu den Schäden, die der Gesellschaft mit dem aktuellen Lockdownpaket zugefügt werden, die zudem auch noch wirkungslos zu sein scheinen.

Der rheinische Karneval war der erste Brandbeschleuniger

Die Sterberaten aus Heinsberg lassen die Vermutung zu, dass es um den 25. März herum etwa 600.000 bis dahin Erkrankte in Deutschland gegeben hat, die sich folglich bis etwa eine Woche zuvor – also bis zum 18. März – infiziert haben, mit einer Dunkelziffer von etwa Faktor 20 der offiziellen Fallzahlen. Das ist dieselbe Menge an Erkrankten, die ich vor zwei Wochen bereits aus isländischen und japanischen Quellen in meinem Beitrag auf der Achse des Guten für den Stand vom 25. Märzermittelt hatte.

Vermutlich kann das gesamte Infektionsgeschehen in Deutschland grob wie folgt zusammengefasst werden: Angenommen, die Reproduktionszahlen im Karneval lagen im Durchschnitt bei 14, das heißt ein Infizierter steckte 14 weitere Personen innerhalb einer Woche an. Mit einem R von 14 benötigte es in der Woche vor Karneval am 9. Februar gerade einmal 100 infektiöse Personen entlang der NRW Karnevalshochburgen, die sich in der vielen Feierei und Vorbereiterei frei bewegten, ohne zu wissen, dass sie krank waren. Dass es diese 100 Personen gab, ist leicht vorstellbar. Alleine nur der Lufthansa Konzern beförderte im Januar noch fast 100,000 Personen aus China nach Deutschland. Nur eine einzige davon führte zu 16 bekannten Erkrankten in dem Webastoausbruch in Bayern. Nur sieben weitere unerkannte webastoähnliche Situationen in NRW hätten gereicht für die Starterglut für das Karnevalsfeuer ab Mitte Februar.

Die 100 Personen hätten folglich in der ersten Karnevalwoche bis zum 16. Februar 1.400 (= 100×14) weitere Personen angesteckt. Die berühmte Gangelter Karnevalssitzung im Landkreis Heinsberg fand zum Beispiel am 15. Februar statt. In der zweiten Karnevalswoche vom 17. bis 24.2. steckten diese 1.400, weitere 19.600 an (= 1400 x 14). Die meisten dieser 19.600 hätten auch wieder nicht gemerkt, dass sie krank waren. Viele weitere hätten geglaubt, der anstrengende Karneval hätte ihnen eine schwere Erkältung beschert. Etwa 500 wurden so krank, dass sie innerhalb der nächsten zwei Wochen bis zum 8. März ihren Weg zu einem Corona Test fanden und dort positiv getestet wurden. Es ist bekannt, dass fast die Hälfte aller positiven Tests in Deutschland bis zum 8. März aus NRW kamen.

Die andere Hälfte der positiven Tests in Deutschland würde dann weitere 20.000 Personen bedeuten, die sich irgendwo anders bis zum 23. Februar infizierten. Sie waren wohl über das ganze Land verteilt in kleineren Infektionsketten, jedoch mit einem dicken Schwerpunkt unter solchen Deutschen, die in Skigebieten urlaubten. Dort brach im Apres Ski die zweite Welle los. Ab dem 24. Februar, der Hochsaison in den Alpen, stehen erste echte Daten für das R zur Verfügung. Unter den Süddeutschen wütete sich das Virus durch die Apres Ski Clubs mit einem R von 5, jeder Infizierte steckte dort fünf weitere an. Währenddessen wurde es bereits ruhig in NRW, das R sank dort bis zum 9. März auf 0,9, und am 10. März folgten Rheinland Pfalz, Hessen und Hamburg ebenfalls auf 1,0. Weil in Bayern und Baden-Württemberg die Skiparty noch weiter lief, sank das R dort erst um den 20. März herum auf 1,0.

Im deutschen Durchschnitt bedeutet das, dass die 40.000 Erkrankten vom 23. Februar mit einem R von 2,5 weitere 100.000 Personen bis zum 1. März infizierten, und diese mit einem R von 2 noch mal 200.000 Personen bis zum 8. März, und schließlich mit einem R von 1,3 folgten 260.000 Personen bis zum 15. März, dem Tag der Entscheidung des Lockdowns. Alle diese Personen inkubierten Covid-19, wurden mehr oder minder krank, und etwa jeder Zwanzigste ließ sich in der Woche zwischen dem 23. und 27. März testen. 34.000 insgesamt Infizierte wurden bis zu dieser Woche offiziell gemeldet. Tatsächlich waren aber bis zu diesem Zeitpunkt alles in allem etwa 600.000 erkrankt, wie die Summe der obigen Zahlen aussagt (= 40+100+200+260). Einige von ihnen erkrankten so schwer, dass sie ins Krankenhaus mussten und dort im Durchschnitt nach zwei Wochen verstarben. Von den bis zum 25. März 600.000 Erkrankten sind 0,37 Prozent gestorben, wie die Heinsberg Studie vorgibt – das ergeben dann die 2.200 Sterbefälle, die das RKI bis inklusive dem 8. April gemeldet hat. Auf diese Weise lässt sich aus der Heinsberg Sterberate grob hochrechnen, wie hoch die wahre Infektionszahl in Deutschland war.

Die teuerste Party der Weltgeschichte

Das ist die ungefähre Geschichte in Deutschland. Es gibt Nebengeschichten, zum Beispiel die Posaunenchöre im Kreis Hohenlohe und das Starkbierfest in Mitterteich (Kreis Tirschenreuth), verschiedene Parteitage und die Kommunalwahl in Bayern am 15. März, die sich auch in den Zahlen zeigt. Aber die beiden wesentlichen Brandbeschleuniger waren der rheinische Karneval und dann die alpinen Apres Ski Clubs. Andere Länder haben andere Geschichten zu erzählen. In Norditalien spielten mit Sicherheit die unzähligen Dienstleistungsmitarbeiter eine wichtige Rolle, ohne die in den Alpen keine Bar betrieben werden kann. Im Winter bedienen sie die Skigebiete und im Sommer die Strände. Zuhause gibt es keine gute Arbeit, deswegen sind sie auf Wanderschaft. Aber Nonna und Nonno (italienisch für Großeltern) werden regelmäßig besucht, nicht zuletzt, weil man aufgrund der Wohnungsnot häufig gemeinsam lebt. In Italien haben die Generationen fünfmal häufigeren Kontakt miteinander als in Deutschland. Dieser starke Familienzusammenhalt hat sich in diesem Fall als Fluch erwiesen.

Im spanischen Verlauf lassen sich die Massendemonstrationen zum Weltfrauentag am 8. März leicht ablesen und in Frankreich noch die Kommunalwahl vom 15. März. Dass Großbritannien bis zum 25. März praktisch gar keine Maßnahmen durchführte und vor allem nicht die Pubs geschlossen hatte, beschert Ihnen ein R von 1,2 sogar noch an Ostern. Auch Schweden hat noch immer ein R von 1,3 im April, weil es lange zögerte, große Veranstaltungen abzusagen und die Bars und Clubs zu schließen. Aber Schweden feierte kein Karneval und hat dadurch seine Zahlen nicht im Februar schon so weit in die Höhe getrieben. Daher wirkt das R dort nur auf eine kleinere Anzahl von Personen. Die Untersuchung der Virenmutationen zeigt, dass die amerikanische Westküste sich direkt in China angesteckt hat, aber die amerikanische Ostküste – insbesondere New York – hat sich in Europa angesteckt. Die Zahlen erzählen viele Geschichten, und viele sind weder gezählt noch erzählt.

Wahrscheinlich war der NRW-Karneval das allererste große europäische Infektionszentrum, sozusagen das Ereignis 0, in dem es zahlenmäßig explodierte, und erst darauf folgte die große Welle in den Alpen, von wo es in die ganze Welt getragen wurde. Hätte der Karneval am 13. Februar abgesagt werden können? Mit der Faktenlage, die damals existierte, hätte die Bevölkerung das nicht akzeptiert. Hätten die Behörden, ähnlich wie in Taiwan, genau hingeschaut, was in Wuhan passiert, dann hätten sie es wissen können und hätten der Bevölkerung erklären können, warum der Karneval dieses Mal ausfallen muss. Stattdessen wiegte sich das deutsche Gesundheitssystem in einem falschen Überlegenheitsgefühl und vergeudete wertvolle Zeit der Vorbereitung. So wurde der Karneval 2020 zur teuersten Party der Weltgeschichte.

Der Beitrag erschien zuerst bei ACHGUT hier

Weiterführende Literatur z.B. dieses Thesenpapier zur Pandemie durch SARS-CoV-2/Covid-19 vom 5.4.20 erschienen bei SPRINGER nature




Corona bringt’s an den Tag – Stadtluft in Stuttgart: Der Diesel ist es nicht

Das bedeutet: Die Fahrverbote für Dieselfahrzeuge in den Innenstädten nutzen nichts und sind überflüssig. Das unfreiwillige »Corona-Experiment« mit weitgehendem Stopp des Autoverkehrs demonstriert nachhaltig, was von den Kampagnen des umstrittenen Abmahnvereins Deutsche Umwelthilfe e.V. zu halten ist: nichts.

Das »Corona-Experiment« entlarvt ebenso, wie zwecklos die von dem grünen Verkehrsminister in Baden-Württemberg, Winfried Hermann, erlassenen Fahrverbote sind. Sie haben offensichtlich keinerlei Auswirkungen auf die NO2 Konzentrationen in der Luft.

Hermann ist mit verantwortlich für einen gigantischen Schaden nicht nur für die Autofahrer, sondern auch für weite Teile des Autohandwerks und der Autoindustrie. Die derzeitige dramatische Situation bei Autoherstellern und Zulieferern wurde letztlich entscheidend von der unseligen Dieseldiskussion und den Forderungen »Weg mit der individuellen Mobilität« verursacht.

Jetzt stellt sich heraus: Die Messwerte beispielsweise der Station Am Neckartor in der Stuttgarter Innenstadt lagen bereits im Februar und März unter dem Grenzwert von 40 µg/m3. Da floss der Verkehr noch, »Shutdown« war noch nicht angesagt.
Der Ingenieur und Messfachmann Martin Schraag arbeitete heraus, welche Rolle das Wetter spielt. So zeigt sein Blick auf die Winddaten: Das erste Quartal 2020 war deutlich windiger als das im Vorjahr. Schraag: »Gut für die Durchlüftung, schlecht für die DUH«. So lagen die NO2-Werte bei 36 µg/m3 und damit unter dem in Deutschland geltenden Grenzwert von 40 µg/m3. Die DUH betreibt Manipulation.

Schraag weist auch darauf hin, dass in der Region weniger als fünf Prozent der zugelassenen Diesel alte Euro-4 Diesel sind. Die neueren Fahrzeuge und die mit Software-Updates Nachgerüsteten stoßen kaum noch Abgase aus. Auch das hätte sich in den Ergebnissen bemerkbar machen müssen.

Doch die Messstationen registrieren nach wie vor NO2-Spitzenwerte. Die Ursache liegt auf der Hand: Von den Höhenzügen Stuttgarts wehen Winde in den Talkessel.
Die NO2 Werte schwanken im Tagesverlauf stark. Im Winter können Heizungen die Ursache sein; das Wetter, ergibt sein Blick in die Daten, übt entscheidenden Einfluss aus.

Die Experten der Landesanstalt für Umwelt Baden-Württemberg (LUBW) haben sich um diese Einflüsse offensichtlich nicht gekümmert und wissen offiziell von nichts. Sie gehen weiterhin von einem Anteil des Verkehrs von 80 Prozent an den Luftschadstoffen aus.

Doch sie kommen jetzt in Erklärungsnöte, wie Schraag ahnt. Die 80 Prozent können nicht stimmen, wenn deutlich weniger Autos fahren und die Werte sich dennoch nicht verändert haben.

In Bayern bestätigte das Bayerische Landesamt für Umwelt gegenüber dem Bayerischen Rundfunkgerade, dass sich auch in Würzburg die Luftschadstoffe kaum verändert hätten. Der Verkehr habe zwar deutlich abgenommen, doch der Rückgang des NO2-Gehaltes sei nur gering. Andere Faktoren spielten bei der Luft eine Rolle.

Der Diesel also kann es nicht sein.

Der Beitrag erschien zuerst bei TE hier




Oberleitungen für Autobahnen: Auf dem E-Highway ist nichts los

Die elektrifizierten Streckenabschnitte sollten Aushängeschilder der elektromobilen Zukunft des Lastenverkehrs sein. Eine der beiden eHighway-Strecken auf der A5 bei Darmstadt wurde vor knapp einem Jahr Anfang Mai 2019 in Betrieb genommen, die andere auf der A 1 bei Lübeck Ende Januar dieses Jahres. Eine dritte auf einer Bundesstraße in Baden-Württemberg sollte schon in Betrieb sein, dort ist noch nichts geschehen. Alle Sektoren sollten Vorbild für den Lkw-Verkehr von morgen sein.

Doch auf den Strecken tut sich nichts. Lkws mit Stromabnehmern für Oberleitungen sind praktisch nicht zu sehen. Kunststück: Auf der A5 bei Darmstadt gibt es bisher insgesamt nur zwei E-Lkws. Ein Lottogewinn dürfte wahrscheinlicher sein als der Anblick von einem der beiden.

Rechts und links der zwei Autobahnabschnitte auf der A1 in Schleswig-Holstein und auf der A5 in Hessen bei Darmstadt wurde ein dichtes Netz von Masten errichtet, die zwei Oberleitungen für 750 Volt Gleichspannung tragen. Die Elektronik im Lastwagen erkennt mit Hilfe des GPS-Signals die genaue Position unter dem Beginn der Oberleitung, kann den Stromabnehmer hochfahren lassen und die elektrische Antriebsenergie wie eine Eisenbahnlokomotive von oben beziehen.

Außerhalb der Oberleitungsstrecken geht es nicht ohne den kräftigen Dieselantrieb und den kolossalen Energievorrat des Dieselkraftstoffes. Dort fahren sie mit Dieselhybridantrieb mit einem 130 kW starkem Elektromotor und einem normalen 450 PS Dieselmotor. Oder dann, wenn beispielsweise für eine Baustelle unter der Oberleitungsstrecke der Strom aus Sicherheitsgründen abgeschaltet wird.

Die Bundesregierung hatte in einem »Aktionsprogramm Klimaschutz 2020« unter anderem beschlossen, »einen Feldversuch zur Erprobung elektrischer Antriebe bei schweren Nutzfahrzeugen durchzuführen.«

»Im Rahmen der Projekte ENUBA und ENUBA2 wurde als eine Lösungsmöglichkeit zur Elektrifizierung schwerer Lkw ein Oberleitungsbetrieb von elektrischen Hybrid-Lkw mit speziellen Stromabnehmern technologisch entwickelt und auf einer nicht-öffentlichen Teststrecke erprobt. Dabei wurde die notwendige technologische Reife erreicht, um das so genannte eHighway-System und seine Praxistauglichkeit im Rahmen eines Feldversuchs auf öffentlichen Straßen zu erproben.«Bahn frei also für ein paar Kilometer Pilotstrecke auf der A 5 und der A 1. Verantwortlich im Norden das Ministerium mit dem aufwändigen Namen »Ministerium für Energiewende, Landwirtschaft, Umwelt, Natur und Digitalisierung des Landes Schleswig-Holstein (MELUND)«.

»Ziel des Projektes „LiVePLuS“ ist die Konzipierung und Erprobung eines modularen Baukastens, welcher durch die Nutzung einer batterieelektrischen Antriebstechnologie in Kombination mit einem Pantographen-Oberleitungssystem die Fahrzeugemissionen sowie die Lebenszykluskosten im Schwerlastgüterverkehr reduzieren soll«, heißt es in der Ministeriumslyrik.

»Dabei werden die Teilziele der Konzeptionierung eines TCO-gerechten, pantographenbasierten elektrischen Antriebsstrangs sowie eines modularen und produktionsorientierten Baukastens zur effizienten Umrüstung von Bestandsfahrzeugen für Sattelzugmaschinen der N3-Klasse adressiert. Abschließend erfolgt die Validierung des entwickelten Baukastenkonzeptes durch zwei Prototypenfahrzeuge (Primotyp und Prototyp) mit vollelektrischem Antriebsstrang und einem Pantographen-Oberleitungssystem als Range Extender.«

Ein nicht nur sprachlich aufwändiges Unterfangen: Ein ziemliches Kabelgestrüpp mit Abspannleitungen, die für die notwendige Zugspannung der Drähte sorgen, hängt mittlerweile über der Autobahn – Albtraum eines jeden Rettungshubschrauber-Piloten.

Ziel des Projekts ist es laut Planern in den Ministerien, »einen sicheren Betrieb der zehn Kilometer langen Pilotstrecke für den Oberleitungsbetrieb von schweren Nutzfahrzeugen durchzuführen. Dies umfasst insbesondere die operative Betriebsführung und Sicherstellung des Anlagenbetriebs sowie Untersuchungen zur Funktionalität und Zuverlässigkeit des neuen Infrastruktursystems.«»BOLD« heißt die ebenfalls millionenschwere »Begleitforschung Oberleitungs-Lkw-Forschung in Deutschland«.  Die einschlägig bekannten grünen Institute »Fraunhofer ISI – Institut für System- und Innovationsforschung«, »ifeu – Institut für Energie- und Umweltforschung Heidelberg GmbH« und  schließlich das »Öko-Institut e.V.« werden mit Millionen bedacht und werden für die passenden wissenschaftlichen Erfolgsberichte sorgen.

Geplant sind auch weitere Strecken auf Bundesstraßen in Baden-Württemberg. Vor drei Jahren präsentierte die damalige Bundesumweltministerin Barbara Hendricks (SPD) bereits das Projekt »eWayBW« im badischen Kuppenheim. Dort soll der dritte deutsche E-Highway auf einem Teilstück der Bundesstraße 462 entstehen.

Vor genau zwei Jahren kam dem grünen Verkehrsminister von Baden-Württemberg, Winfried Hermann, die Idee zu einem weiteren PR-Termin in Kuppenheim. Unter freundlichem Applaus stellte er das Pilotprojekt »eWayBW« mit einer Teststrecke für Oberleitung Lkw zwischen Gernsbach und Kuppenheim vor. Er lobte, dass »das Projekt ziemlich gut durchdacht« sei, und das »ziemlich viel Wissen herangezogen« werde.

Professor Arnd Stephan von der TU Dresden schwärmte von dem Draht- und Eisengeflecht gar: »Oberleitungen sind High Tech«.

Außer vielen Seiten beschriebenen Papiers ist im Badischen noch nicht viel geschehen. Im Augenblick wehren sich die betroffenen Murgtalgemeinden gegen die Planung des Regierungspräsidiums Karlsruhe. Die befürchten ein komplettes Verkehrschaos, denn die Planer nehmen gegenüber früheren Planungen eine fast verdoppelte Bauzeit von acht Monaten in Anspruch. Außerdem werde das Projekt in der Bevölkerung sehr kritisch gesehen, sagen die Bürgermeister von Gaggenau, Guggenheim und Bischweier.

Die sechs Kilometer lange Strecke soll mit 16,8 Millionen Euro vom Bundesumweltministerium gefördert werden. Das Vergabeverfahren ist ungewöhnlich: Auf die reguläre Ausschreibung vor einem Jahr für den elektrischen Ausbau der Strecke meldete sich kein Anbieter.Die einzige Firma, die bisher die beiden Strecken auf den Autobahnen mit Oberleitungen versehen hat, ist Siemens.

Eine erste Zwischenauswertung der Fahrten auf der A5 in Südhessen im vergangenen Jahr ergab übrigens eine Diesel-Ersparnis von lediglich zehn Prozent. Keine eindrucksvolle Bilanz angesichts horrender Kosten.

Was haben die Experten des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit in das Konzept »Förderprogramm Erneuerbar Mobil« hineingeschrieben? »Förderbare Projekte müssen einen hohen Innovationsgrad aufweisen und erhebliche Erkenntnisgewinne versprechen.« Vielleicht auch auf die bisher ungeklärte Frage, was beispielsweise nach einem Stau passiert, wenn sich einige 100 Lkw gleichzeitig in Bewegung setzen und ordentlich Leistung aus der Oberleitung ziehen wollen, und was nach einem veritablen Unfall mit mehreren Fahrzeugen mit Bruch der Masten geschieht, wenn sich ein dichtes Gestrüpp an Kabeln und Masten über die Unfallfahrzeuge legt.

Auf der A5 bei Darmstadt wurde übrigens im Januar bei einem Unfall ein Mast beschädigt und der Strom auf der einen Seite aus Sicherheitsgründen abgeschaltet.

Der Beitrag erschien zuerst bei TE hier